G70 braucht sehr viel Saft

cartman1

Neuling
Thread Starter
Mitglied seit
25.03.2005
Beiträge
93
vom inquirer kam heute diese meldung

WE HEARD THAT Nvidia asked PCI-Sig, the PCI and PCIe standardisation body, to provide some more juice for Nvidia's next generation cards. It turns out that 75W from external connector and 75W from motherboard is not enough. Nvidia wants an additional 75W for its G70 card.
This is something that was whispered at the WinHEC conference held this week in Seattle. When we dug a little bit more it turns out that there is such a proposal at PCI-Sig website. You can see it here and download it if you have a user name and password.

We also heard that Nvidia asked PCI-Sig to let it use two power connectors for the card, each providing 75W of power. If the Sig agrees, it seems that Nvidia next generation card might end up drying 225W of power. It's simple maths, 75 W from PCIe motherboard connector, and two times 75 from a six pin power connector.

It turns out that G70 might be one very power hungry card after all. Knowing Nvidia's troubles with its early jump to 130 nm I would suggest that this chip won't be 90 nm like ATI's R520 "Fudo". It has to be either 110 or 130, we suggest, as we don’t see Nvidia risking its NV30 failure one more time.

Whatever happens, this card is an autumn marchitecture and even if Nvidia announces it before then, I don’t think you will be able to get one until then. µ

klingt ja nicht sehr rosig....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
die sagen doch nur das die 75 watt von pci e nicht ausreichen das heist einfach wie sonnst immer nen externen strom anschluss, hatten wir doch bei agp auch immer ist doch net schlimm.
und die vermuten das der G70 nicht im 90 nm process hergestellt wird warscheinlich ein reinfall wie FX5800Ultra werden kann.
lol ich glaub die karte is was für mich ^^
 
jo das wird ne geile karte :d
die ati brauch sicher weniger und bleibt kühler wegen dem 90 nm und wird dadurch besser übertaktbar, mal sehn warm Nvidia sowas macht bis jetzt sieht alles nicht so gut aus aber wer weiss vieleicht zieht der G70 den r520 in games ab und das will ich schwer hoffen bei der verlustleistung :d
 
Night<eye> schrieb:
die ati brauch sicher weniger und bleibt kühler wegen dem 90 nm und wird dadurch besser übertaktbar


LoL ?

scho das Prescott desaster vergessen ? minimale Takt steigerung und Abwärme + Stromverbrauch höher als vorher ...

Jetzt isset mit neuem stepping besser aba imernoch net gut ...

Und uz diesen gerüchten - The Inq hatte auch gemeint der NV40 hat 8 pipes :rolleyes:
 
Jo, und der Anschluß für die Stromversorgung der GraKarte besteht aus 6 mm² Kabeln um die Ampere richtig fliesen zu lassen...
Es wird wieder Zeit für Externe Netzteile alla Voodoo um das System nicht mit Spannungsschwankungen zu belasten wenn ein Spiel startet.

EDIT:sowas mein ich:

sdcee16.jpg

cee16.jpg


Gruß
 
Zuletzt bearbeitet:
ohh man bist du altmodisch, wir leben in der neuzeit.
dafür können wir doch Tesla Reaktoren in den keller stellen...
685_1.jpg


so jetzt aber back to topic :d
ich hoffe das der R520 auch wie bei prescott das gegenteil erreicht.
bin stark für Nvidia weil ati seid jahren immer schneller war.
 
Night<eye> schrieb:
die sagen doch nur das die 75 watt von pci e nicht ausreichen das heist einfach wie sonnst immer nen externen strom anschluss

du hast das hier aber schon richtig gelesen, ja?

It turns out that 75W from external connector and 75W from motherboard is not enough. Nvidia wants an additional 75W
:eek:
 
ja is doch net schlimm dann halt 3 mal 75 watt ^^ wo is das prob ?
die 6800Ultra hat doch auch 2 strom anschlüsse.
 
pci-e,externer und nochn externer :d

weils wiedermal ne brachiale steigerung ist....?
 
Zuletzt bearbeitet:
Ja super, dann packen wir uns alle bald wirklich nen Reaktor in den Keller / in den Garten.

Und zusätzlich wird dann noch die ganze Wärmeabgabe als Ersatz für das Heizungsaggregat oder als Herd benutzt :fresse: :stupid:
 
also ich glaube die sollten den BTX standart vergessen und n Externes grafik karten geheuse anschaffen dammit die restlichen kompenenten nicht kaputt gehen und man ne externe heizung hat ^^
 
Hm also ich weis nicht, ich finde das schon ziemlich krank. Man sollte hier auch nicht immer nur nach der Leistungssteigerung gehen. Ich hoffe das ATI das mit Fudo packt, vorallem leise mit weniger Stromverbrauch als angeblich der G70. Solangsam nimmt das mit der Abwärme und dem Stromverbrauch überhand, wird sich aber auf kurz oder lang nicht wirklich vermeiden lassen.
 
respektive Kochplatte für die Modder :p
und btw: BTX sollte man so oder so vergessen imho :p

gab doch auch mal diesen Versuch mit nem Athlon, der ohne Kühler betrieben wurde und wo man dann n Ei in ner Alu-Schale drauf gebrutzelt hat :fresse:
Ne alternative dazu wäre natürlich der Betrieb in ner hermetisch abgeriegelten Gefrierkammer, der Monitor und die Eingabegeräte liegen dann ausserhalb :fresse:


Irgendwie wird mir das alles gerade ganz klar :p besonders wenn ich das von Kamu lese. Das wird nich vorgeschrieben, weil das ne Leistungssteigerung ist, sondern weil Nvidia nen geheimen Vertrag mit den weltweiten Energieversorgern hat :eek:
Verschwörung! :asthanos: :fresse: :lol:

ok, mal wieder :btt:

Etwas seltsam: bei der Konkurrenz geht der Trend ja gerade weg von den externen Stromanschlüssen. Ok, man weiss noch nich, wie's bei der nächsten Generation sein wird, aber die aktuellen ATIs verzichten ja größtenteils schon drauf.
 
Zuletzt bearbeitet:
jo amd ist pentium mit der abwärme etc vorraus und ati ist Nvidia vorraus.
also ich glaube ich lasse die finger vom G70
ich will schwer hoffen das der 7800 noch für AGP raus kommt in 18 monaten.
ansonnsten werd ich mir wohl den 6700Ultra anschaffen, oder vieleicht in 2 jahren ne 6800GT für agp falls es die noch iergentwo geben wird... mal sehn
 
das mit der abwärme von AMD und Intel is ja mal wieder so ne Milchmädlrechung!
Es ist doch wohl Intel egal wie viel abwärme der Preskopf prodziert, hauptsache man kann in kühlen!
bei soviel geld wie in der Netburst architektur steckt muss man einfach jahre lang da dran halten!
aber man sieht ja das Intel auch schon fast die Leistung von nem 3500+ Leistung mit nur ca. 27watt erzeugen kann --->Pentium M!
 
jetzt lenkt mal nicht ab :fresse:

ich glaub, dass die karte dem RV520 unterlegen ist. vor allem wird die nächste ATIgeneration endlich mal besser geoct werden als die von nv (90nm-->weniger abwärme, weniger spannung)
 
ich wäre nicht so euphorisch dem rv520 gegenüber, den eins was man über ihn es ist der nv30 von ati, ob der r520 auch so ein desaster wird ist nicht anzunehmen. Naja in 1-2 monaten sind wir klüger
 
ich denke ja auch nicht, dass er der SLIkiller ist.
ich schätze ihn so auf 7000-8000 3DMurks05.

ps: ich bin aufgeklärt worden. die highendkarte heit R520. die midrange heist RV520.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh