> > > > NVIDIA GeForce GTX 480 bald mit neuem PCB?

NVIDIA GeForce GTX 480 bald mit neuem PCB?

Veröffentlicht am: von

nvidiaAuch wenn sich die NVIDIA GeForce GTX 480 derzeit noch die schnellste Single-GPU-Grafikkarte nennen darf, hinterließ sie in unserem Test doch eher ein zweischneidiges Bild. Wie nicht anders zu erwarteten liefert NVIDIAs erste DirectX-11-Grafikkarte zwar anständige Frameraten, doch gehören Leistungsaufnahme, Abwärme und Lautstärke nicht zu ihren Paradedisziplinen. Unter Last ist der 3D-Beschleuniger nicht nur stromhungriger als eine ATI Radeon HD 5970 und mit stolzen 96 °C die wärmste Karte des Testfeldes, sondern auch im Furmark-Test nicht gerade sparsam. Wenige Wochen nach dem offiziellen Start kursieren nun erste Bilder einer überarbeiteten Version im Internet. Zu sehen gibt es ein aufgeräumtes und vor allem abgespecktes Printed-Circuit-Board (PCB) des aktuellen GF100-Flaggschiffs. Wirklich handfeste Informationen gibt es allerdings noch nicht. Interessant ist aber die Stromversorgung. Demnach soll die NVIDIA GeForce GTX 480 nicht mehr - wie bisher - über einen 6- und 8-Pin-PCI-Express-Stromstecker versorgt werden, sondern nur noch über zwei 6-Pin-Modelle. Da das PCIe-Interface und die beiden Stromstecker laut Spezifikation jeweils 75 Watt bereit stellen, könnte sich die Karte schon mit maximal 225 Watt begnügen. Die TDP der aktuellen Variante beläuft sich laut NVIDIA noch auf 250 Watt.

Hierfür wären nicht nur etwas niedrigere Taktraten denkbar, sondern auch gesenkte Spannungen – genaueres weiß man derzeit allerdings noch nicht. Ob die kalifornische Grafikschmiede derzeit wirklich an der Überarbeitung ihres Flaggschiffs arbeitet, bleibt abzuwarten.

{gallery}/galleries/news/astegmueller/2010/it169-gtx480-new-pcb-01{/gallery}

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (59)

#50
customavatars/avatar62653_1.gif
Registriert seit: 23.04.2007
MSP
Kapitän zur See
Beiträge: 3752
Zitat Edgecrusher86;14357528
Wobei Furmark aber von keinem Hersteller als - innerhalb der gesetzten TDP einzuhaltendem Wert - angesehen wird.
Selbst von ATi nicht. ;)


wobei ATI in Furmark ihre karten absichtlich drosselt, weil se sonst kaputt gehen würden :xmas:
#51
Registriert seit: 25.03.2007

Bootsmann
Beiträge: 684
Zitat Edgecrusher86;14357664
Höher lagen nur synthetische Benches wobei 3D Mark06 als Non-Stress-Test wie Furmark mit 283W die Spitze markiert (Heaven 2.0 liegt bei 242,6W). Vantage wurd nicht gemessen.

Wär aber schon besser, man hätte 290W angegeben. Dann wär auch für quasi alle synth. Benches noch Luft innerhalb der TDP.


Man sollte an dieser Stelle nicht vergessen, dass Furmark auf vielen anderen Karten künstlich gebremst wird, auch auf der HD5xxx Serie. Auf den GF100 Karten ist dies noch nicht der Fall, somit ist jeglicher Vergleich bzgl. Lautstärke und Stromverbrauch mit Furmark unfair.
Außerdem ist die TDP nicht für den Kunden sondern für den Kühlerhersteller gedacht, somit kann man sich da eh nicht beschweren. (Insbesondere sollte man hier auch als Ati-Fan vorsichtig sein, denn beim TDP zu niedrig angeben liegt Ati deutlich vor NV :fresse:, da muss man nur mal die HD4xxx und HD3xxx ansehen)
Aber um aufs Thema zurück zu kommen, man kann eine Karte die bei einigen Spielen über 235W braucht, nicht mit 2x 6Pin ausliefern, daher ist das kein GTX480 PCB.
#52
customavatars/avatar58401_1.gif
Registriert seit: 19.02.2007
Homberg (Hessen)
Moderator
Beiträge: 7081
Es hieß ja erst, dass dies seit langer Zeit nicht mehr der Fall wäre (zumindest nach HD 48xx), aber im Golem-Artikel (GTX 480 in der Praxis) steht wieder etwas anderes, bzw. wird so vermutet.

Test: Lautstärke und Strom der Geforce GTX 480 in der Praxis - Golem.de

Zitat
Bei den Versuchen zeigte sich zudem, [COLOR="Red"]dass der Bildaufbau auf AMD-Karten mit Furmark 1.8 stockt [/COLOR]und zudem die Temperatur weniger schnell steigt als bei Nvidia-Karten. Es liegt der Verdacht nahe, dass AMD seine Grafikkarten hier absichtlich drosselt, um Beschädigungen zu vermeiden. Eine kurzfristige Anfrage bei AMD nach diesem Phänomen ist bisher noch unbeantwortet. Schon mit älteren Versionen des Furmark konnten wir aber bisher keine einzige Grafikkarte beschädigen.



Jedenfalls sieht man das auch im HardOCP Video, dass die Stromaufnahme bei den HD5kern in Furmark des öfteren (nach unten) springt - bei den 400ern dagegen recht konstant ist:

http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/7

Ist nur ne Feststellung...;)


Ok, :btt:

Kann mir wie gesagt schwer vorstellen, dass man die Specs der 480er weiterfährt, aber auf 2 x 6 Pin setzt. So viel in Sachen Undervolting wird beim GF100 in A3 sicher nicht drin sein. Die VCores sind ja angeblich schon recht niedrig (0.99V für Extra und 3D sowie 0.96V für 2D -> laut TechPowerUp).[COLOR="red"]

---------- Beitrag hinzugefügt um 21:56 ---------- Vorheriger Beitrag war um 21:42 ----------

[/COLOR]
Zitat Hentur;14357768
Man sollte an dieser Stelle nicht vergessen, dass Furmark auf vielen anderen Karten künstlich gebremst wird, auch auf der HD5xxx Serie. Auf den GF100 Karten ist dies noch nicht der Fall, somit ist jeglicher Vergleich bzgl. Lautstärke und Stromverbrauch mit Furmark unfair.
Außerdem ist die TDP nicht für den Kunden sondern für den Kühlerhersteller gedacht, somit kann man sich da eh nicht beschweren. (Insbesondere sollte man hier auch als Ati-Fan vorsichtig sein, denn beim TDP zu niedrig angeben liegt Ati deutlich vor NV :fresse:, da muss man nur mal die HD4xxx und HD3xxx ansehen)
Aber um aufs Thema zurück zu kommen, man kann eine Karte die bei einigen Spielen über 235W braucht, nicht mit 2x 6Pin ausliefern, daher ist das kein GTX480 PCB.


Jo, das ist mir schon klar. dass die TDP für den Kühler gedacht ist - trotzdem ist es nicht schön, wenn die Angabe in der Praxis übertroffen wird. Bisher lag NV ja immer drin (außer Furmark).

Vor allem in Sachen Fanboy-Wars (Vergleiche mit Grill usw.). Gut - ich schmunzel da mal drüber. Auch wenn ich die Tatsachen nicht schönreden will. ;)

Was allerdings für ein 480 PCB sprechen würde -> 12 Speicherchips können verbaut werden ( = 1536 MB).
#53
customavatars/avatar57219_1.gif
Registriert seit: 02.02.2007
Düsseldorf
Bootsmann
Beiträge: 701
Wie oft muss man noch sagen TDP (Thermal Design Power) ist nur die angabe für die erforderliche Kühlleistung. Noch genauer gesagt, wie viel Watt muss der Kühlblock abführen können.

Die GTX480 verbraucht TDP 250W + Lüfter bei maximum 21,6W + über das PCB abgeleitet ca. 25W.

Die angabe von NVidia mit TDP 250W ist korrekt und ja die Grafikkarte insgesamt am termischem Limit von 250W TDP zieht ca. 300W.
#54
customavatars/avatar44076_1.gif
Registriert seit: 03.08.2006

Hauptgefreiter
Beiträge: 142
Ein geändertes PCB inclusive evaluiertem Fermi würde schon passen.
Den Fermi im Ist-Zustand zu releasen, könnte NV schlimmstenfalls den Finanziellen Overkill bescheren - mal sehen, ob sie's drauf ankommen lassen - ich glaube nicht !
#55
customavatars/avatar58401_1.gif
Registriert seit: 19.02.2007
Homberg (Hessen)
Moderator
Beiträge: 7081
Zitat spielberg;14358421
Wie oft muss man noch sagen TDP (Thermal Design Power) ist nur die angabe für die erforderliche Kühlleistung. Noch genauer gesagt, wie viel Watt muss der Kühlblock abführen können.

Die GTX480 verbraucht TDP 250W + Lüfter bei maximum 21,6W + über das PCB abgeleitet ca. 25W.

Die angabe von NVidia mit TDP 250W ist korrekt und ja die Grafikkarte insgesamt am termischem Limit von 250W TDP zieht ca. 300W.


Dann trifft es ja eh zu, wenn der Verbrauch vom Lüfter und die Abgabe der Verlustleistung über das PCB seperat sind (und nur die erforderliche Wärmeabfuhr vom Kühlblock gemeint ist) - das wusst ich bisher so nicht. Danke für die Erleuchtung. Also sind die 250W TDP genau richtig gewählt. :bigok:

Da gab es ja einen gewissen Rumor rum - die einen sagen, die (gesamte) Verlustleistung (Strom, nicht Wärmeabgabe über Kühlblock) würde überschritten, die anderen, dass der gesamte Kühler zu schwach dimensioniert sei. :fresse:
#56
customavatars/avatar57219_1.gif
Registriert seit: 02.02.2007
Düsseldorf
Bootsmann
Beiträge: 701
TDP ist rein eine angabe für die OEM's für wieviel thermische Verlustleistung die Ihre Gehäuse und Kühlung auslegen müssen. TDP ist sommit eine Angabe mit der der Endkunde nur bedingt was anfangen kann. Die korrekte Angabe für den Kunden wäre power consumption direkt übersetzt Stromverbrauch. Das hat auch jetzt Geizhals gerafft, so das die nicht mehr die TDP's der Hersteller angeben sondern einen höheren Wert. Die GTX480 ist auch mit 320W Verbrauch gelistet.

Trotz allem dem, ist die GTX480 vom Design her am thermischem Limit gebaut. Die Grafikkarte schafft gerade so eben unter Volllast sich hühl zu halten (ohne unterstützung eines Lüfters im Gehäuse, in einem offenem Testaufbau). NV verlangt nach einem Fermi Certified Gehäuse was ein unding ist. Die hätten noch eine leistungsfähigere Kühlkonstruktion bauen müssen. Die VapourChamber auf der 5970 schafft es ja auch bis zu 400W TDP abzuführen, obwohl die beiden Chips zu 286W TDP erzeugen. Ich hoffe nur das das PCB Foto einer GTX480 darstellt die in 3 Monaten auf den Markt kommt. Der Fermi Chip ist auch für mich Verlockend, doch in der Aktuellen version inakzeptabel.
#57
customavatars/avatar76352_1.gif
Registriert seit: 05.11.2007
Mittelfranken
Flottillenadmiral
Beiträge: 5799
Da die 480 sogar mehr Strom verballert als die 5970 ist das sowieso ein unding für ne Singelkarte beim heutigen stand der technik. Darüber braucht man eigendlich nicht zu diskutieren.
#58
Registriert seit: 25.03.2007

Bootsmann
Beiträge: 684
Zitat spielberg;14359928
Ich hoffe nur das das PCB Foto einer GTX480 darstellt die in 3 Monaten auf den Markt kommt. Der Fermi Chip ist auch für mich Verlockend, doch in der Aktuellen version inakzeptabel.


Zu hoffen wäre es natürlich, aber es ist leider technisch nicht möglich. Der Chip hat nun mal ca. 1,5 mal so viele Transistoren wie der von Ati und dazu noch den Hotclock und die Karte hat 1,5 mal so viel Speicher, darum ist es nur logisch, dass sie 1,5 mal so viel Strom braucht. Da hilft auch keine neue Revision und kein neues PCB. Einzig und allein ein Shrink könnte das Problem lösen, aber wer noch dieses Jahr an 32nm oder gar 28nm Highend-Grafikchips glaubt, leidet eindeutig unter Realitätsverlust.
Nvidia kann nur ein besseres Kühlkonzept für die Karte erarbeiten.

Zitat Motkachler;14359993
Da die 480 sogar mehr Strom verballert als die 5970 ist das sowieso ein unding für ne Singelkarte beim heutigen stand der technik. Darüber braucht man eigendlich nicht zu diskutieren.


Das ist doch keine Kunst, am oberen Ende der Leistungsskala braucht man deutlich höhere Spannungen und die HD5970 ist die Dualversion der Sparvariante. Versuch mal eine HD5870 auf das Niveau einer GTX480 zu übertakten, da wirst du noch mehr als 320W brauchen. ;) Siehe GTX480 @ 1,1GHz -> 600W+
#59
customavatars/avatar131642_1.gif
Registriert seit: 19.03.2010

Flottillenadmiral
Beiträge: 4650
Zitat
Den Fermi im Ist-Zustand zu releasen, könnte NV schlimmstenfalls den Finanziellen Overkill bescheren - mal sehen, ob sie's drauf ankommen lassen - ich glaube nicht !

Die machen mehr geld durch notebooks und Serverfarmen, wen die mal im High end breich ein Fail landen sind die noch laaannngggeee nicht erledigt ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]