> > > > NVIDIA spricht über Leistungsaufnahme und Abwärme des GF100

NVIDIA spricht über Leistungsaufnahme und Abwärme des GF100

Veröffentlicht am: von

nvidiaSeit nun schon einer Woche wird in unserem Forum heftig über den Stromverbrauch und die immense Abwärme der NVIDIA GeForce GTX 480 diskutiert. Während wir in unseren Tests unter Last mit 96 °C eine der höchsten Temperatur-Werte messen konnten, lag auch der Stromverbrauch auf einem hohen Niveau. Zieht man die ATI Radeon HD 5870, welche zudem fast ein halbes Jahr früher vorgestellt wurde, zum Vergleich heran, so hinterlässt die neue NVIDIA-Karte doch einen eher durchwachsenen Gesamteindruck. Nichtsdestotrotz trägt sie derzeit den Titel der schnellsten Single-GPU-Grafikkarte. Doch seit dem offiziellen Start der neuen DirectX-11-Grafikkarten hat NVIDIA kaum etwas von sich hören lassen. Pünktlich zum Osterwochenende nahm die kalifornische Grafikschmiede nun erstmals Stellung zum doch brisanten Thema. Laut NVIDIA habe man bei Fermi einen sehr guten Kompromiss aus Leistung und Stromverbrauch gefunden. Mit einer derart gesteigerten Performance, war eine höhere Leistungsaufnahme nicht abzuwenden. Im Großen und Ganzen sei man aber sehr zufrieden. Während die NVIDIA GeForce GTX 480 die beste Leistung für Spieler bietet, besitzt die NVIDIA GeForce GTX 470 hingegen ein sehr gutes Preis-Leistungs-Verhältnis, heißt es weiter.

In unserem breit angelegten Launch-Artikel können Sie sich selbst ein Bild des neuen Flaggschiffs machen.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (159)

#150
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
Nein, das ist NVs schuld. Aber Veränderungen im Design kann man erst machen wenn man was handfestes vor sich hat. Als man den Chips simuliert hat waren es unter Garantie keine ~250 Watt Leistungsaufnahme und nicht nur 480 lauffähige Shader und wohl auch höhere Taktraten.

TSMC ist an diesen Dingen nicht schuld, aber sie haben NV dabei unter die Arme gegriffen die Probleme nicht schnell genug lösen zu können.
#151
customavatars/avatar26398_1.gif
Registriert seit: 19.08.2005
Gifhorn
Admiral
Beiträge: 12943
Daher sage ich verlass dich nicht auf andere! NV sollte die chips selber bauen weil dann gäbe es werks intern wenigstens komunikation darüber ob das nun klappt oder nicht..
Bin mal gespannt wie das mit dem 32nm und 28nm wird :D
#152
customavatars/avatar121568_1.gif
Registriert seit: 18.10.2009
Braunschweig
Anlauf Alter, Anlauf!
Beiträge: 4888
Könnte sich nvidia gar nicht leisten eine Produktionsstraße hochzuziehen und danach auch noch Geld zur Modernisierung und für den Betrieb zu haben.
#153
customavatars/avatar15725_1.gif
Registriert seit: 28.11.2004

Admiral
Beiträge: 13445
Zitat Powerplay;14350168
Daher sage ich verlass dich nicht auf andere! NV sollte die chips selber bauen weil dann gäbe es werks intern wenigstens komunikation darüber ob das nun klappt oder nicht..
Bin mal gespannt wie das mit dem 32nm und 28nm wird :D

bin dafür, leider gibts momentan keine EUV-Lithographie-prototypen mehr um in diesen verfahren produzieren zu könnnen. :fresse:
#154
customavatars/avatar57219_1.gif
Registriert seit: 02.02.2007
Düsseldorf
Bootsmann
Beiträge: 701
Zitat fdsonne;14349732
Und was lässt dich da so sicher sein, das diese Platine für eine 480GTX sein soll?


Es ist bis auf den zusäzlichen DVI und HDMI Port exakt die Tesla Platine. Da aber nur 2x75W PCIe Power drauf sind und die Platine über 384 bit verfügt kann es sich nur um eine GTX480 aktuell handeln.

Einfach mal die Speicherchips nachzählen. Aber ich würde über eine GTX475 auch keine einwende haben.
#155
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6253
Zitat Serialkiller;14348776
Der fermi Chip hat ne komplett neue architektur

Nein, hat er nicht. Fermi nutzt immer noch die skalare Shaderarchitektur, die schon beim G80 zum Einsatz kam, natürlich in überarbeiteter Form. Und das ist auch nVidias grösstes Problem, imo.
Ich frage mich, wie lange diese Behauptung noch kolportiert wird. :rolleyes:

Zitat Turbostaat;14349138
Hust, ich sage wieder mal nur 65nm vs 55nm bei nvidia. Es hat für die nur Produktionskosten eingespart, der Stromverbrauch wurde dadurch nicht reduziert, sondern hat sich sogar erhöht.

Dass er sich erhöht hat, habe ich zwar nicht gesehen. Aber sei es drum. Von 65 auf 55 nm war nur ein Half-Node Shrink, die Prozessparameter haben sich dadurch nicht grundlegend verändert. Grosse Sprünge gibt es idR nur mit einem Full-Node Shrink (... 90/80 -> 65/55 -> 45/40 -> 32/28 -> 22 ...). Half-Nodes sind idR dafür gedacht, die Fläche des Chips zu verringern und so die Ausbeute pro Wafer zu erhöhen.
#156
customavatars/avatar63928_1.gif
Registriert seit: 14.05.2007

Fregattenkapitän
Beiträge: 2705
Die Skalar-Einheiten sind natürlich nicht identisch, aber ja - sehr ähnlich in vielerlei Hinsicht.
Zitat Turbostaat
Es hat für die nur Produktionskosten eingespart, der Stromverbrauch wurde dadurch nicht reduziert, sondern hat sich sogar erhöht.
Da es keine Karte gibt, die bei identischem PCB mit GT200b und GT200 bei gleichem Takt und gleicher Spannung verfügbar ist, lässt sich eine solche Behauptung weder widerlegen, noch beweisen. Ein Shrink erlaubt meist aber die Senkung der Vcore, indirekt ist 55 nm somit doch sparsamer.
#157
customavatars/avatar57219_1.gif
Registriert seit: 02.02.2007
Düsseldorf
Bootsmann
Beiträge: 701
Ich bin gerade am überlegen. ATi packt die Shader in die mitte. NV nach außen und dann noch mit höherem Takt. Man verlängert bei NV unnötig die Leitungen und das noch bei höherer Frequenz. Lange Leitung hohe Frequenz, nix gut. Ich glaube NV kämpft bei dem Fermi mit hoher Dämpfung. Mal sehen wie der GF104 vom Layout aussieht.
#158
customavatars/avatar121568_1.gif
Registriert seit: 18.10.2009
Braunschweig
Anlauf Alter, Anlauf!
Beiträge: 4888
Was nützt mir das der 55nm Chip stromsparender ist als der 65nm wenn es nicht ausgenutzt wird / werden kann?
Das sind genau die selben sinnfreien Vergleiche wie z.B. wir messen CPU ohne Board, sagen dann die CPU ist sparsamer als X, aber das Board bzw dessen Chipsatz frisst sonstwas...
#159
customavatars/avatar63928_1.gif
Registriert seit: 14.05.2007

Fregattenkapitän
Beiträge: 2705
Eine GTX285 schluckt weniger als eine GTX280 und ist schneller. Eine GTX260-216 55nm schluckt weniger als eine GTX260-192 65nm und ist schneller.
Einzig die GTX275 fällt aus dem Raster - hier verbaut NV aber miese GPUs und prügelt sie per Spannung hoch. Resteverwertung wie bei der HD5830 halt.

EDIT
CPUs ohne Board vermessen ist imo sehr interessant, zumindest innerhalb eines Sockels (sprich bei gleichem Board). Also etwa 720 BE vs. 965 BE C2 vs. 965 BE C3. Will man AMD und Intel vergleichen, ist's witzlos - eben wegen dem Board.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]