Test: NVIDIA GeForce GTX 580

Veröffentlicht am: von

GTX580_LogoMit dem heutigen Tage präsentiert NVIDIA eine GPU, die man der Presse, aber vor allem seinen Kunden sicher bereits gerne vor einem Jahr gezeigt hätte. Die zur Präsentation von Fermi veröffentlichten technischen Daten erfüllt ab jetzt die GF110-GPU auf der GeForce GTX 580. Lange wurde um Fermi gekämpft und erst im Frühjahr diesen Jahres war es dann soweit, die GeForce GTX 480 kam auf den Markt. Auf der GTC 2010 gab NVIDIA erstmals öffentlich zu - ja, es gab Probleme bei der Fertigung und ja, wir sind mit der Tatsache wie alles abgelaufen ist nicht zufrieden. Zeitgleich präsentierte man eine Roadmap, die für Mitte bis Ende 2011 den Nachfolger von Fermi prophezeit - Kepler. Doch NVIDIAs CEO Jen-Hsun Huang sprach auch von einem Midlife-Kicker, der die Wartezeit bis Kepler verkürzen soll. Dies ist die bereits erwähnte GF110-GPU auf der GeForce GTX 580.

NVIDIA will mit der GeForce GTX 580 bzw. der GF110-GPU zwei Hauptziele erfüllt haben. Zum einen soll das Performance/Watt-Verhältnis verbessert werden. Zum anderen will man die schnellste Single-GPU-Grafikkarte am Markt stellen. Der erste Punkt lässt sich mit dem heutigen Tage klären, bei letztgenanntem müssen wir uns noch bis zum Launch von AMDs Radeon-HD-6900-Serie bzw. Cayman gedulden.

Eines vorneweg: Die GeForce GTX 580 wird nicht die einzige Karte einer GeForce-GTX-5xx-Serie sein. Ähnlich wie bei der aktuellen GeForce-GTX-4xx-Serie soll vom Einsteiger-Modell bis zur High-End-Karte eine komplette Produktpalette geboten werden. Auch eine Dual-GPU-Lösung schließt NVIDIA dabei nicht aus. Weitere Details zu möglichen Karten will NVIDIA zum jetzigen Zeitpunkt allerdings noch nicht nennen. Klar ist auch, dass die Tage der GeForce GTX 480 gezählt sind. Dieses Modell wird auslaufen.

Einigen Board-Partner wird das sicher den Angstschweiß auf die Stirn treiben, ist es doch erst wenige Wochen her, dass die GeForce GTS 450 präsentiert wurde. Auch die äußerst erfolgreiche GeForce GTX 460 darf man noch nicht zum alten Eisen zählen. Dennoch dürfte die Ankündigung einer komplett neuen Produktreihe beim ein oder anderen Käufer für Zurückhaltung sorgen. NVIDIA hat angekündigt, dass die GeForce GTX 580 den Vorgänger GeForce GTX 480 komplett ersetzten soll. Besonders ärgerlich ist das für Board-Partner, die über Wochen und Monate ein eigenes Design entworfen haben, das erst vor wenigen Tagen auf den Markt kam. Namentlich seien an dieser Stelle einmal die MSI N480GTX Lightning oder die Gigabyte GeForce GTX 480 SuperOverclock.


 

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Mit der GF110-GPU erreicht Fermi den von NVIDIA gewünschten Vollausbau mit 512 Shader-Prozessoren. Diese entstammen vier Graphics Processing Clustern (GPC) mit jeweils vier Streaming-Multiprozessoren (SM). Die daraus resultierenden 16 Streaming-Multiprozessoren, die wiederum aus 32 Shader-Prozessoren bestehen, ergeben dann die insgesamt 512 Shader-Prozessoren.

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Ein Graphics-Processing-Cluster besteht aus einer Raster-Engine und bis zu vier Streaming-Multiprozessoren. Die GPCs bilden den wichtigsten Block innerhalb der GF110-GPU, denn sie stellen die Basis für die wichtigsten Operationen dar. Das GPC arbeitet effizienter als vorangegangenen Architekturen, da es Vertex-, Geometrie-, Textur- und Pixel-Operationen vereint und gleichzeitig mit den Anforderungen skaliert.

Jede SM-Einheit besitzt eine PolyMorph-Engine, insgesamt kann die GF110 also auf 16 zurückgreifen (bei der GeForce GTX 480 sind es 15). Die PolyMorph Engine ist maßgeblich verantwortlich für Vertex-Fetch, Tessellation, Attribute-Setup, Viewport-Transform und den Stream-Output. Sind die SM-Einheit und die PolyMorph Engine durchlaufen, wird das Ergebnis an die Raster Engine weitergeleitet. In einem zweiten Schritt beginnt dann der Tesselator mit der Berechnung der benötigten Oberflächen-Positionen, die dafür sorgen, dass je nach Abstand der nötige Detailgrad ausgewählt wird. Die korrigierten Werte werden wiederum an die SM-Einheit gesendet, wo der Domain-Shader und der Geometrie-Shader diese dann weiter ausführen. Der Domain-Shader berechnet die finale Position jedes Dreiecks indem er die Daten des Hull-Shaders und des Tesselators zusammensetzt. An dieser Stelle wird dann auch das Displacement-Mapping durchgeführt. Der Geometrie-Shader vergleicht die errechneten Daten dann mit den letztendlich wirklich sichtbaren Objekten und sendet die Ergebnisse wieder an die Tesselation-Engine, für einen finalen Durchlauf. Im letzten Schritt dann führt die PolyMorph-Engine die Viewport-Transformation und eine perspektivische Korrektur aus. Letztendlich werden die berechneten Daten über den Stream-Output ausgegeben, indem der Speicher diese für weitere Berechnungen freigibt. Während diese Schritte als Fixed-Function-Operationen bisher (pre Fermi) in einer Pipeline verarbeitet wurden, können sie auf der GF110 parallel berechnet werden, was die Geschwindigkeit der Berechnung deutlich erhöhen soll.

Vier parallele Raster-Engines sorgen auf der GF100-GPU nach der PolyMorph-Engine für eine möglichst detailreiche Darstellung der errechneten Werte. Dazu ist die Raster-Engine in drei Stufen aufgeteilt. Im Edge-Setup werden nicht sichtbare Dreiecke bestimmt und durch ein "Back Face Culling" entfernt. Jedes Edge-Setup kann pro Takt einen Punkt, eine Linie oder ein Dreieck berechnen. Der Rasterizer zeichnet sich für die Bestimmung der durch Antialiasing berechneten Werte verantwortlich. Jeder Rasterizer kann pro Takt acht Pixel berechnen, insgesamt ist die GF110-GPU also in der Lage 32 Pixel pro Takt zu berechnen. Zum Abschluss vergleicht die Z-Cull-Unit die gerade errechneten Pixel mit bereits im Framebuffer existierenden. Liegen die gerade berechneten Pixel geometrisch hinter denen die sich bereits im Framebuffer befinden, werden sie verworfen.

Die ROP-Units der GF100-GPU wurden bereits entscheidend überarbeitet, um sowohl den Durchsatz als auch die Effizienz zu steigern. Für die neue GF-110-GPU hat sich daran nichts geändert. Acht ROP-Units sind zu einer ROP-Partition zusammengefasst, von denen die GF110-GPU sechs besitzt. Jede ROP-Unit kann einen 32 Bit Integer-Pixel pro Takt ausgeben. Ebenfalls möglich ist ein FP16-Pixel über zwei Takte oder ein FP32-Pixel über vier Takte.

Auch bei der Speicheranbindung hat sich nichts getan. Jede ROP-Partition ist über ein 64 Bit breites Speicherinterface angebunden. Bei sechs ROP-Partitionen kommen wir wieder auf ein 384 Bit breites Speicherinterface.


 

Betrachten wir aber nun die technischen Details der GeForce GTX 580 bzw. der GF110-GPU und vergleichen diese mit dem Vorgänger bzw. der Konkurrenz.

NVIDIA GeForce GTX 480

NVIDIA GeForce GTX 580

AMD Radeon HD 5870 AMD Radeon HD 6870
GPU GF100 GF110 RV870 Barts XT
Fertigung 40 nm 40 nm 40 nm 40 nm
Anzahl Transistoren 3,2 Milliarden 3 Milliarden 2,15 Milliarden 1,7 Milliarden
Die-Größe - - 334 mm² 225 mm²
GPU-Takt 700 MHz 772 MHz 850 MHz 900 MHz
Speichertakt 924 MHz 1000 MHz 1200 MHz 1050 MHz
Speichertyp GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 1536 MB 1536 MB 1024 MB 1024 MB
Speicherinterface 384 Bit 384 Bit 256 Bit 256 Bit
Speicherbandbreite 177,408 GB/Sek. 192 GB/Sek. 153,6 GB/Sek. 134,4 GB/Sek.
Shader Model 5.0 5.0 5.0 5.0
DirectX 11 11 11 11
Shader-Einheiten 480 (1D) 512 (1D) 320 (5D) 224 (5D)
Shader-Takt 1401 MHz 1544 MHz 850 MHz 900 MHz
Texture Units 60 64 80 56
ROPs 48 48 32 32<
maximale Leistungsaufnahme 250 Watt 244 Watt 188 Watt 151 Watt
minimale Leistungsaufnahme 50 Watt 30-32 Watt 27 Watt 19 Watt
CrossFire/SLI SLI SLI CrossFireX CrossFireX

Die GPU arbeitet mit einem Takt von 772 MHz, die Shader-Domain kommt auf einen Takt von 1544 MHz. Beim Speicher setzt NVIDIA auf 1536 MB GDDR5-Speicher, der mit einem effektiven Takt von 1000 MHz arbeitet. NVIDIA gibt eine TDP (Thermal Design Power) von 244 Watt an. Für den Idle-Verbrauch gibt NVIDIA keine offiziellen Werte an. Grund soll eine nicht zu vernachlässigbare Streuung innerhalb der GF110-GPUs sein. Die Stromversorgung erfolgt über den PCI-Express-Slot sowie einen 6- und 8-Pin-Stromanschluss. Wie alle High-End-Modell bei NVIDIA unterstützt auch die GeForce GTX 580 den Betrieb im 3-Way-SLI. Auch 4-Way-SLI wird weiterhin unterstützt, allerdings listet NVIDIA dieses Feature nicht mehr mit hoher Priorität, da dieser Betriebsmodi nur von äußerst wenigen Kunden überhaupt genutzt wird.

GTX580_GPU-Z

Um die voll ausgebaute Architektur und die höheren Taktraten von GPU und Shader-Prozessoren zu erreichen, hat NVIDIA die GF1100-GPU auf Transistor-Level betrachtet, die Fehler und Engstellen analysiert und neu designed. Im Zusammenspiel mit einer optimierten Fertigung bei TSMC ergibt dies höhere Taktraten und den Ausbau der Architektur.


 

Aufgrund des niedrigeren Verbrauchs, aber auch um die Lärmbelastung des potenziellen Kunden so niedrig wie möglich zu halten, hat sich NVIDIA auch für ein Redesign des Refernzkühlers entschieden. Dieser wirkt bereits auf den ersten Blick weniger wuchtig, was sich auch im Gewicht der Karte bemerkbar macht. Auf Heatpipes hat NVIDIA gänzlich verzichtet und setzt stattdessen auf eine Vapor-Chamber direkt über der GPU. Sapphire hat diese Technologie bereits im Einsatz und auch Herstellen von Kühlern ist das Grundprinzip nicht neu.

GTX580_Praes_1_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Eine Flüssigkeit im Inneren des Kühlers wird durch die Abwärme der GPU verdampft und steigt nach oben. Dort wo der Kühler mit kalter Luft wieder heruntergekühlt wird, kondensiert diese Flüssigkeit und läuft zurück. NVIDIA will keinerlei Details verraten, geht aber auch davon aus, einen sehr effizienten Referenzkühler gebaut zu haben, der es Board-Partnern schwer macht, eigene Lösungen zu entwickeln, die besser kühlen und zudem leiser sind. Für die Effektivität spricht aber bereits, dass NVIDIA keinerlei Heatpipes mehr verbaut hat.

Weiterer Punkt beim Referenzkühler ist eine neue Lüftersteuerung, die in bestimmten Bereichen eine breitere Hysterese-Kurve aufweist. Dies sorgt dafür, dass der Lüfter nicht innerhalb eines relativ kurzen Zeitraums zwischen zwei Drehzahlen wechselt. Im Gegensatz zum Kühler der GeForce GTX 480 fehlt dem neuen Referenzdesign auch die Metallplatte auf der Front, die einen gewissen Anteil der Abwärme abführen konnte. Weniger optimal ist dieses Prinzip natürlich, wenn zwei Karten im SLI-Betrieb eingesetzt werden. Die zweite Karte sitzt dann direkt auf der ersten und verdeckt diese Metallplatte komplett. Ein Hitzestau ist an dieser Stelle nicht zu vermeiden gewesen. Beim neuen Kühler wird sämtlich Abwärme über den Lüfter abgeführt. Dies geschieht über die Öffnungen in der Slotblende und eine zusätzliche an der Oberkante der Karte. Mehr dazu dann bei der Betrachtung der Karte.

GTX580_15_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Auch bei der Stromversorgung hat sich etwas getan. Zum Schutz der Karte überwacht NVIDIA schon bei der GeForce GTX 480 die Temperatur. Steigt diese zu hoch an, taktet die Karte herunter und setzt auch die Spannungen herab. Durch diese beiden Maßnahmen sinkt der Verbrauch und damit die Abwärme. Der GPU bleibt der Hitze-Tod erspart.

Bei der GeForce GTX 580 geht NVIDIA nun einen direkteren Weg. Über drei Chips (siehe Foto, rote Markierung) werden in Echtzeit Spannung und Strom auf der 12-Volt-Schiene überwacht. Steigen die Werte auf Bereiche, die gefährlich für die Karte werden, weil sie außerhalb der Spezifikation betrieben wird, können Spannung und Strom limitiert werden. NVIDIA spricht an dieser Stelle gerne über den Furmark, der einzig und alleine dazu verwendet wird, die Karte auf das Maximum zu überlasten. Gerne ist dann auch die Rede von einem sogenannten "Power-Virus". Im Hintergrund ebenfalls aktiv ist eine Software-Erkennung, die mit dem Start des Furmark eine Limitierung vornimmt. Mit dem von uns getesteten Treiber 262.99 wird allerdings nur der Furmark in der Version 1.8 erkannt. Andere Versionen lasten die Karte weiterhin über das Maximum hinaus aus. NVIDIA hat allerdings angekündigt, dass der Furmark mit dem offiziellen Release komplett erkannt wird.

AMD drosselt seine Karten bereits über eine Erkennung des Programms und schränkt den Verbrauch somit ein. NVIDIA will an dieser Stelle künftig durch das Real-Time-Monitoring eingreifen. Auf Spiele und andere Anwendungen soll dies allerdings keinen Einfluss haben. Wir werden sehen an welchen Stellen NVIDIA hier dazwischen geht.


GTX580_01_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Obwohl die äußere Form auf den ersten Blick identisch ist, werden bereits hier Unterschiede zur GeForce GTX 480 deutlich. So besitzt das PCB mit 26,5 cm die gleiche Länge wie der Vorgänger. Nicht mehr sichtbar ist die massive Metallplatte an der Front des Kühlers sowie die vier Heatpipes. Soweit deutet der Kühler der GeForce GTX 580 auf einen niedrigeren Verbrauch hin.

GTX580_01_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Die Rückseite des PCBs präsentiert zahlreiche Bauteile und lässt die Bestückung der GPU und des Speichers erkennen. Im Unterschied zur GeForce GTX 480 fehlen die beiden Öffnungen im PCB im hinteren Teil.

GTX580_01_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Der Radiallüfter ist bereits von früheren Modellen bekannt und kommt auch bei der Konkurrenz zahlreich zum Einsatz. Die kühle Luft wird dabei durch den Lüfter selbst angesaugt und bläst diese durch den kompletten Kühler bis zur Slotblende.

GTX580_01_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Nicht mehr der komplette Luftstrom wird über die Slotblende hinausgeblasen. Um die fehlende Metallplatte, die zusätzlich Abwärme an die Umgebung abgibt, zu kompensieren und die Kühlung SLI-tauglich zu machen, wird ein Teil der warmen Luft an der hier abgebildeten Oberseite des Kühlers entlassen.

GTX580_01_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Auch in der zum Mainboard gerichteten Seite befinden sich Öffnungen, durch die warme Luft durch den Lüfter hinausgeblasen wird. Es darf darüber gestritten werden, wo die warme Luft der Grafikkarte abgeführt werden soll. Die Ideallösung ist, dass die komplette Abluft aus dem Gehäuse geblasen wird. Im Falle der GeForce GTX 580 verbleibt ein Teil im PC-Gehäuse und muss durch eine Durchlüftung desselbigen abgeführt werden.


GTX580_01_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Auf der Oberkante hat NVIDIA jeweils einen 6-Pin und einen 8-Pin-PCI-Express-Stromanschluss platziert. Zusammen mit den 75 Watt, die über den Slot zur Verfügung gestellt werden können, ergibt dies eine maximale Leistungsaufnahme von 300 Watt. Mit einem angegebenen maximalen Verbrauch von 244 Watt liegt NVIDIA also deutlich unterhalb der PCI-Express-Spezifikationen.

GTX580_01_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Wie alle modernen Karten von NVIDIA, ist auch die GeForce GTX 580 dank zweier SLI-Anschlüsse in der Lage, im SLI oder 3-Way-SLI betrieben zu werden. Auch der Einsatz in einem 4-Way-SLI ist möglich, allerdings bewirbt NVIDIA diesen Modus nicht aktiv.

GTX580_01_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Auf der Slotblende finden sich keine größeren Besonderheiten im Vergleich zur GeForce GTX 480. Zwei Dual-Link-DVI-Ausgänge dürften auch heute noch für die meisten Displays eine gute Ausstattung sein. Bei der neuen GeForce GTX 580 sind wir etwas verwundert, dass NVIDIA noch immer am mini-HDMI-Ausgang festhält. Ein entsprechender Adapter wird nicht von jedem Hersteller der Karte beigelegt. Der Anschluss selbst bedient nun allerdings die HDMI-1.4-Spezifikation und nicht mehr nur HDMI 1.3. Noch immer nicht vorhanden ist allerdings die Unterstützung für Blu-ray 3D, die erst mit der Spezifikation 1.4a eingeführt wurde. Es gibt also große Diskrepanzen zwischen der GF110-GPU und den Vertreten der Vorgänger-Generation GF104 und GF106. 

Maximal können die neuen NVIDIA-Karten zwei Displays ansteuern. Der Anwender hat die Wahl für die Ausgabe über zweimal DVI oder DVI und mini-HDMI. Im Vergleich zur den AMD-Modellen, die bis zu sechs Displays ansteuern können, ein deutlicher Nachteil für NVIDIA. Uns ist natürlich bewusst, dass die wenigsten Anwender das Geld und den Platz für drei Displays und mehr haben. Warum eine Grafikkarte allerdings eine technische Begrenzung auf zwei Displays pro Karte haben sollte, wird uns nicht klar. Laut eigener Aussage hätte NVIDIA die GF100-GPU weiter umbauen müssen, als man diese mit der GF110-GPU getan hat.

GTX580_09_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Der direkte Vergleich zwischen GeForce GTX 580 (unten) und GTX 480 (oben) lässt die Verwandtschaft deutlich erkennen. In Größe und Form sind beide Karten identisch, der GeForce GTX 580 fehlt allerdings der große Metallkühler an der Front.


GTX580_10_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Mit über fast zwei Dutzend Schrauben ist der Kühler auf der GeForce GTX 580 befestigt. Wird dieser abgenommen, zeigt sich obiges Bild. Im Vergleich zur GeForce GTX 480 sind kleinere Detail-Änderungen erkennbar, gerade bei der Spannungs- und Stromversorgung.

GTX580_09_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Bereits mit der Einleitung führten wir den Codenamen der GeForce-GTX-580-GPU ein - GF110. Dieser ist auch auf der GPU selbst vermerkt.

GTX580_09_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Beim Speicher setzt NVIDIA auf Chips von Samsung, die mit 1000 MHz arbeiten. Insgesamt sind 12 Speicherchips verbaut, die jeweils eine Kapazität von 128 MB haben. Aufsummiert ergibt dies eine Kapazität von 1536 MB.

GTX580_09_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Die 12 Speicherchips sind auf drei Seiten um die GPU herum angeordnet. So sind die Signallaufzeiten in etwa vergleichbar und NVIDIA kann die Chips mit einem höheren Takt betreiben.

GTX580_09_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Aufgrund des niedrigeren Verbrauchs sowie der Überwachung von Strom und Spannung hat sich auch bei der Spannungs- und Stromversorgung der GeForce GTX 580 etwas getan.

GTX580_09_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Bereits ausführlich behandelt haben wir die Real-Time Überwachung der Spannungs- und Stromversorgung. Die markierten Chips sind hier von besonderer Bedeutung.


GTX580_15_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Schaut man sich den Kühler etwas genauer an, wird sichtbar, welche Komponenten durch diesen abgedeckt werden. Nur die GPU selbst sitzt direkt auf einem Kupferkühler. Die Speicherchips sowie einige weitere Komponenten kühlt die Metallplatte bzw. der Boden des Kühlers.

GTX580_15_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Hier abgebildet ist der eigentliche Kühlblock, welcher die Abwärme von der GPU abführen soll. Wie zu sehen ist, besteht dieser Block aus Kupfer und beinhaltet die ebenfalls bereits erwähnte Vapor-Chamber.

GTX580_15_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Natürlich muss auch die Vapor-Chamber die Abwärme irgendwie weitergeben können. Dies geschieht über Kühllamellen aus Aluminium, die dicke Metalleinlagen beinhalten.

GTX580_15_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

In Längsrichtung wird durch den Lüfter die kühle Luft durch den Kühlblock geblasen. Um Störgeräusche durch Vibrationen zu vermeiden, sind Schaumstoffstreifen zu sehen, welche den Block fest im Kühler sitzen lassen.

GTX580_15_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Ebenfalls bereits erwähnt haben wir den 80-mm-Radiallüfter. Dieser ist hier noch einmal im Detail zu sehen.


Mit der GeForce GTX 580 präsentiert NVIDIA auch neue Tech-Demos. Diese beschäftigen sich hauptsächlich mit dem Thema Tesselation.

Den Anfang macht "Endless City", eine Tech-Demo, die NVIDIA bereits auf der GTC 2010 präsentierte. In dieser Demo dargestellt ist eine futuristische Stadt mit 1,4 Milliarden Polygonen. Alleine durch Tesselation wird ein erhöhter Detailgrad möglich, denn hier werden bis zu 80 GB pro Sekunde an geometrischen Daten verarbeitet, was über den PCI-Express-Bus technisch gar nicht mehr möglich wäre. Die Daten müssen also innerhalb der Grafikkarte bzw. der GPU verarbeitet werden.

City_00_rs

City_06_rs City_05_rs
 
City_04_rs City_03_rs 
City_02_rs City_01_rs

 

Eine zweite Demo trägt den Namen "Alien vs. Triangles", angelehnt an Alien vs. Predator. Auch hier kommt natürlich massiv Tesselation zum Einsatz, allerdings aus mehreren Gründen. Zum einen dient es auch hier der detaillierteren Darstellung, macht aber auch einen fließenden Übergang zwischen mehreren Darstellungsebenen möglich. So besitzt das Alien eine Map des Körpers für die Standard-Darstellung sowie mit Panzerung und der Vergiftung. Zwischen diesen kann gewechselt werden, ohne dass ein einfacher Austausch der Texturen erfolgt. Auch hier sagen Bilder bzw. ein Video mehr als tausend Worte.

AvT_Image2_rs  AvT_Image1_rs 
AvT_Image2_rs AvT_Image2_rs 
AvT_Image2_rs AvT_Image2_rs
AvT_Image2_rs AvT_Image2_rs

 


Um die Treiber-Generationen anzugleichen, aber auch um die Hardware auf ein neues Level vorzubereiten, haben wir das Testsystem etwas umgestellt. Der Intel Core i7 Extreme 965 wird von 3,2 GHz auf 3,875 GHz übertaktet, um Limitierungen durch den Prozessor weitestgehend auszuschließen. Folgende Systemkomponenten kommen dabei zum Einsatz:

Testsystem
Prozessor Intel Core i7 Extreme 965 3,2 GHz übertaktet auf 3,875 GHz
Mainboard ASUS P6T6 WS Revolution
Arbeitsspeicher Corsair XMS3 Dominator 4 GB PC3-12800U CL 7-7-7-20
Festplatte Seagate Barracuda 7200.11 320 GB
Netzteil Corsair HX1000
Betriebssystem Windows 7 64 Bit
Grafikkarten
NVIDIA NVIDIA GeForce GTX 580 (772/1544/1000 MHz, 1536 MB)
NVIDIA GeForce GTX 480 (700/1401/924 MHz, 1536 MB)
NVIDIA GeForce GTX 470 (608/1215/838 MHz, 1280 MB)
NVIDIA GeForce GTX 465 (608/1215/802 MHz, 1024 MB)
NVIDIA GeForce GTX 460 (675/1350/900 MHz, 1024 MB)
NVIDIA GeForce GTS 450 (783/1566/902 MHz, 1024 MB)
AMD ATI Radeon HD 6870 (900/900/1050 MHz, 1024 MB)
ATI Radeon HD 6850 (775/775/1000 MHz, 1024 MB)
ATI Radeon HD 5870 (850/850/1200 MHz, 1024 MB)
ATI Radeon HD 5850 (725/725/1000 MHz, 1024 MB)
ATI Radeon HD 5830 (800/800/1000 MHz, 1024 MB)
Treiber:
NVIDIA GeForce 262.99
AMD ATI Catalyst 10.10d

Für alle NVIDIA-Grafikkarten kam der GeForce 260.89 zum Einsatz. Für alle AMD-Grafikkarten der Catalyst 10.10d.

Treibereinstellungen NVIDIA:

Textureinstellungen AMD:

Folgende Benchmarks kommen mit den genannten Settings zum Einsatz:

Futuremark 3DMark06:
- 1680x1050 8xAA 16xAF
- 1920x1200 8xAA 16xAF
- 2560x1600 8xAA 16xAF
 
Futuremark 3DMark Vantage (PhysX aus):
- Performance
- High
- Extreme
 
Resident Evil 5 (Motion Blur - an, Shadow Detail - High, Texture Detail - High, Overall Quality - High):
- 1680x1050 8xAA 16xAF
- 1920x1200 8xAA 16xAF
- 2560x1600 8xAA 16xAF
 
H.A.W.X. 2 (DirectX 11, alles hoch bzw. ein):
- 1680x1050 4xAA 16xAF
- 1680x1050 8xAA 16xAF
- 1920x1200 4xAA 16xAF
- 1920x1200 8xAA 16xAF
- 2560x1600 4xAA 16xAF
- 2560x1600 8xAA 16xAF
 
Far Cry 2 (DirectX 10, Performance - Very High, Overall Quality - Optimal, alles andere High):
- 1680x1050 4xAA 16xAF
- 1680x1050 8xAA 16xAF
- 1920x1200 4xAA 16xAF
- 1920x1200 8xAA 16xAF
- 2560x1600 4xAA 16xAF
- 2560x1600 8xAA 16xAF
 
Unigine Heaven 2.0 (DirectX 11, Shader - High, Tesselation - Normal):
- 1680x1050 4xAA 16xAF
- 1680x1050 8xAA 16xAF
- 1920x1200 4xAA 16xAF
- 1920x1200 8xAA 16xAF
- 2560x1600 4xAA 16xAF
- 2560x1600 8xAA 16xAF
 
Metro 2033 (DirectX 11, Quality - High, DOF - an, PhysX - deaktiviert):
- 1680x1050 4xAA 16xAF
- 1680x1050 8xAA 16xAF
- 1920x1200 4xAA 16xAF
- 1920x1200 8xAA 16xAF
- 2560x1600 4xAA 16xAF
- 2560x1600 8xAA 16xAF
 
Mafia II (alles High bzw. ein, ohne Apex):
- 1680x1050 kein AA 16xAF
- 1680x1050 8xAA 16xAF
- 1920x1200 kein AA 16xAF
- 1920x1200 8xAA 16xAF
- 2560x1600 kein AA16xAF
- 2560x1600 8xAA 16xAF
 
STALKER (2560x1600, DirectX 11, Preset - Extreme, 4x MSAA, SSAO Mode - Default, SSOA Quality - Medium, enable Tesselation)
- Day
- Night
- Rain
- Sun
 
Anno 1404 (alles an/hoch, Kampagne starten und die ersten 60 Sekunden):
- 1680x1050 4xAA 16xAF
- 1920x1200 4xAA 16xAF
- 2560x1600 4xAA 16xAF
 
Crysis Warhead (DirectX 10, Enthusiast):
- 1680x1050 4xAA 16xAF
- 1920x1200 4xAA 16xAF
- 2560x1600 4xAA 16xAF
 
Framediagramme:
 
Medal of Honor (2560x1600, Grüße aus Bagram - die ersten 60 Sekunden)
Metro 2033 (2560x1600, DirectX 11, Quality - High, DOF - an, PhysX - deaktiviert)

Futuremark 3DMark06 (Standardeinstellungen):

Futuremark 3DMark Vantage (PhysX aus):

Resident Evil 5 (Motion Blur - an, Shadow Detail - High, Texture Detail - High, Overall Quality - High):

H.A.W.X. 2 (DirectX 11, alles hoch bzw. ein):

Far Cry 2 (DirectX 10, Performance - Very High, Overall Quality - Optimal, alles andere High):

Unigine Heaven 2.0 (DirectX 11, Shader - High, Tesselation - Normal):

Metro 2033 (DirectX 11, Quality - High, DOF - an, PhysX - deaktiviert):

Mafia II (alles High bzw. ein, ohne Apex):

S.T.A.L.K.E.R. - Call of Pripyat (2560x1600, DirectX 11, Preset - Extreme, 4x MSAA, SSAO Mode - Default, SSOA Quality - Medium, enable Tesselation)

Anno 1404 (alles an/hoch, Kampagne starten und die ersten 60 Sekunden):

Crysis Warhead (DirectX 10, Enthusiast, Frost Flythrough):

Framediagramme:


strom1

NVIDIA hat in der Therorie von einem geringeren Idle-Stromverbrauch bei der GeForce GTX 580 gesprochen und kann dies in der Praxis auch einhalten. Noch immer verbrauchen die NVIDIA-Grafikkarten aber deutlich mehr als die Modelle von AMD. Da sich ein System in den meisten Fällen im Idle-Zustand befindet, ist dies natürlich besonders schmerzlich.

strom2

Wie auch schon beim Idle-Verbrauch, hat NVIDIA von einem besseren Performance-pro-Watt-Verhältnis gesprochen und erreicht dies wohl durch zwei Faktoren. Zum einen soll die Leistung gesteigert worden sein. Zum anderen aber ist auch der Last-Verbrauch niedriger als bei der GeForce GTX 480.

strom3

Sowohl AMD als auch NVIDIA erkennen den Furmark über den Treiber und reduzieren inzwischen den maximalen Verbrauch ihrer Karten. Daher besitzt dieses Diagramm nur noch bedingt Aussagekraft.

temp1

Durch die optimierte Kühlung der GeForce GTX 580 kann NVIDIA die Idle-Temperatur der GPU um 2 °C senken. Eigentlich nicht der Rede wert, soll dies großen Einfluss auf die Last-Temperatur haben.

temp2

Und präsentiert sich die NVIDIA GeForce GTX 580 hier auch mit einem ausgezeichneten Wert. Während die GeForce GTX 480 und 470 hier noch um die 90 °C erreichten, verbleibt die GeForce GTX 580 bei etwas über 86 °C.

laut1

Niedrigen Temperaturen sind erst von Belang, wenn daraus auch eine geringe Umdrehungszahl bzw. Lautstärke des Lüfters resultiert. Sicher hätte NVIDIA die GPU-Temperatur noch weiter nach unten drücken können, dies wäre aber auf Kosten der Lautstärke gegangen. Mit 51.1 dB messen wir bei der GeForce GTX 580 einen Wert, wie wir ihn für eine High-End-Karte von NVIDIA lange nicht mehr betrachten durften.

laut2

Fast schon unangenehm laut werden die GeForce GTX 480 und die Radeon HD 5870, erst dahinter bildet sich ein erträgliches Mittelfeld, in dem sich auch die GeForce GTX 580 befindet.


Futuremarks 3DMark 06 gilt trotz seines gehobenen Alters in der Gamer- und Benchmark-Szene als der Leistungsvergleich schlechthin. Neben zahlreichen Konfigurationsmöglichkeiten - um unterschiedlichste Leistungsbereiche der Grafikkarten zu bewerten - bietet der Grafikkarten-Benchmark imposante und detailreiche Grafik-Sequenzen. Um die Grafikpracht auch auf dem Bildschirm umzusetzen bedienten sich die Entwickler zum Beispiel an hochauflösenden Texturen, dem Einsatz von High Dynamic Range Rendering und der aktuellen Shader-3.0-Technik. Wir nutzen 3DMark 06 in verschiedenen Einstellungen und Auflösungen, um den Leser praxisnahe Ergebnisse zu präsentieren.

 

 
 

Zum kostenlosen Download von Futuremarks 3DMark 06 gelangt man über diesen Link.

3dmark1

3dmark1

3dmark1


Mit den ersten Performance-Messungen beginnen wir im 3DMark06 und Vantage. Der 3DMark Vantage als neueste Version ist sehr Grafikkarten-lastig und damit ideal für unsere Zwecke geeignet. Um die 3D-Grafikpracht flüssig zu genießen, ist aber auch eine schnelle CPU notwendig. Der Download von 3DMark Vantage ist wie immer in unserer Download-Area möglich.


vantage1

vantage1

vantage1


Die letzte Version aus der Horror-Reihe Resident Evil erschien nicht nur für diverse Konsolen, sondern auch für den PC. Die integrierte Benchmark-Funktion lädt dann natürlich geradezu ein, Grafikkarten auf Herz und Nieren im Grusel-Ambiente zu testen. Wir wählten den zweiten, weil deutlich kürzeren, Benchmark-Durchlauf.

ResidentEvil1_rsResidentEvil2_rs
ResidentEvil3_rs ResidentEvil4_rs

Zur Vollversion von Resident Evil 5 in unserem Preisvergleich gelangt man über diesen Link.

resi1

resi1

resi1


Bei Far Cry 2 handelt es sich um einen First-Person-Shooter aus dem Hause Ubisoft. Der Nachfolger des legendären Spieleklassikers basiert auf der eigens entwickelten Dunia Engine, wodurch beispielsweise dynamisches Wetter, Tag- und Nachtzyklen und eine dynamische Vegetation realisierst werden. Das Spiel nutzt Mehrkernprozessoren, unterstützt sowohl DirectX-9 als auch -10 und besitzt eine integrierte Benchmark-Funktion, mit zahlreichen Einstellungsmöglichkeiten.


Zur Vollversion von Far Cry 2 in unserem Preisvergleich gelangt man über diesen Link.

far1

far1

far1

far1

far1

far1


Immer wieder für grafische Highlights verantwortlich zeichnen sich die Macher von Crysis. Die als Basis dienende Cry-Engine sorgt immer wieder dafür, dass selbst aktuelle High-End-Systeme den Anforderungen nicht mehr gewachsen sind. Daher eignet sich Crysis Warhead ideal für unsere Benchmarks. Wir verwendeten Crysis im DirectX-10-Modus, alle Details auf Maximum.

Crysis1_rsCrysis2_rs
Crysis3_rs Crysis4_rs

Zur Vollversion von Crysis Warhead in unserem Preisvergleich gelangt man über diesen Link.

crysis1

crysis1

crysis1


Die Fortsetzung der berühmten und mehrfach ausgezeichneten Aufbaustrategie-Serie kommt im neuen Gewand daher und heißt Anno 1404. 2009 erschienen, fesselt Ubisofts Anno 1404 den Spieler erneut und lässt ihn den Orient im 15. Jahrhundert erkunden. Das Motto hier - siedeln in Perfektion. Sämtliche Gebäude wurden noch einmal detaillierter dargestellt, das Meer bewegt sich noch realistischer, Flora und Fauna sind eine richtige Augenweide. Selbst die Mühlen hört man knarzen, Vögel fliegen umher und Rauch steigt von Feuerstellen empor. Weiterhin stehen dem Spieler größere Inseln denn je zuvor zur Verfügung, wo er eine mächtige Zivilisation errichten und neue Technologien erforschen kann. Wird der Schieberegler für die Details und Effekte ganz nach rechts geschoben, fordert Anno 1404 das System ordentlich und zeigt, was in ihm steckt.

Anno1404_4_rs Anno1404_3_rs
Anno1404_2_rs Anno1404_1_rs

anno1

anno1

anno1


Unigine Heaven 2.1 beinhaltet zahlreiche Änderungen gegenüber dem Vorgänger. Darunter sind beispielsweise eine verstärke Nutzung von Tesselation. Des Weiteren wurden neue Objekte hinzugefügt, die den Einsatz neuer Effekte notwendig machen. Dazu gehören dynamische Lichtquellen sowie physikalisch korrekt berechnete Flaggen.

unigine2_1_rsunigine2_2_rs
unigine2_3_rs unigine2_4_rs

Unigine Heaven 2.0 ist ein kostenloser Benchmark, der unter www.unigine.com zu beziehen ist.

uni1

uni1

uni1

uni1

uni1

uni1


S.T.A.L.K.E.R.: Call of Pripyat ist nun schon der dritte Teil der sagenumwobenen S.T.A.L.K.E.R.: Shadow of Tschernobyl-Reihe und bildet einen einzigartigen Mix aus einem actionreichen First-Person-Shooter und einem komplexen Rollenspiel. Call of Pripyat besticht vor allem durch seine grandiose Atmosphäre in der Szene rund um Tschernobyl. Mit Call of Pripyat wurde die X-Ray-v.1.5-Engine noch einmal um die neusten technischen Möglichkeiten aufgestockt. Ab sofort wird zeitgemäß auch eine DirectX-11-Unterstützung geboten, die viele neue Grafikeffekte mit sich bringt. Mit Unterstützung von Tesselation gibt es neben komplett überarbeiteten Levels und einer erheblich verbesserten KI auch wieder sehr viele optische Leckerbissen. S.T.A.L.K.E.R.: Call of Pripyat kann wieder einmal als Augenweide bezeichnet werden.


Zur Vollversion von S.T.A.L.K.E.R.: Call of Pripyat in unserem Preisvergleich gelangt man über diesen Link.

stalker1

stalker1

stalker1

stalker1


Die Überreste des U-Bahn-Netzes im postapokalyptischen Moskau sind Handlungsort von Metro 2033. In diesem packenden Untergrund-Überlebenskampf liegt das Schicksal der Menschheit in Ihren Händen. Im Jahr 2013 wurde die Welt von einer apokalyptischen Katastrophe verwüstet, die fast die komplette Menschheit ausgelöscht und die Erdoberfläche in eine giftige Einöde verwandelt hat. Eine Handvoll Überlebender suchte Unterschlupf in den Tiefen der Moskauer Unterwelt, und für die menschliche Zivilisation begann ein düsteres Zeitalter. Wir schreiben das Jahr 2033. Eine gesamte Generation ist unter der Erde geboren und aufgewachsen, und die bevölkerten Städte der Metro-Stationen kämpfen um das Überleben - untereinander, und gegen schreckliche Mutanten, die in der Außenwelt lauern. Wir testen sowohl die DirectX-10- wie auch DirectX-11-Version der Engine.

Metro_1_rs Metro_2_rs
Metro_3_rs Metro_4_rs

metro1

metro1

metro1


Der Luftkampf hat sich weiterentwickelt, ebenso wie die Grafik-Engine, die nun massiven Gebrauch von Tesselation macht. Der Spieler muss jedes Element des modernen Luftkampfs meistern. Zuerst dringt er unentdeckt in feindlichen Luftraum ein, führt einen tödlichen Stoß aus und verschwindet, noch bevor der Gegner reagieren kann. Er nutzt überlegene Technologie, um den Gegner aus der Ferne zu schwächen und erledigt ihn dann in spannenden Dogfights. Nächtliche Überfälle und Auftanken in der Luft, sowie viele weitere Aufgaben warten auf den Spieler.

HAWX2_1_rs HAWX2_2_rs
HAWX2_3_rs HAWX2_4_rs

hawx1

hawx1

hawx1

hawx1

hawx1

hawx1

Rund um den Benchmark ist allerdings auch eine neue Diskussion entstanden. Laut einigen US-Medien hat sich AMD an diese gewendet und darum gebeten H.A.W.X. 2 nicht mit den in der Vergleich der neuen Radeon-HD-6800-Serie mit aufzunehmen. Grund sei eine fehlende Unterstützung seitens AMD und Ubisoft habe sich geweigert die nötigen Optimierungen vorzunehmen. So scheinen nur NVIDIA-Grafikkarten in der Lage Tesselation effizient nutzen zu können, was sich deutlich auf die Performance niederschlägt. Auch wir informierten AMD über die schlechten Ergebnisse, bekamen bisher aber keine offizielle Bestätigung dafür. Wir behalten die Benchmarks mit diesem Hinweis im aktuellen Artikel.


2K Czech, die Entwickler des ersten Mafia Spiels sorgen auch in Mafia II für eine riesige Spielwelt voller liebevoller Details. Mit den 40ern und 50er Jahren erstreckt sich Mafia II über zwei der wohl schillerndsten Dekaden des 20. Jahrhunderts. Über 50 Autos im Stil der jeweiligen Epoche mit individuellem Fahrverhalten können gefahren werden. So lässt sich die Stadt zum Sound von Elvis Presley und Frank Sinatra erkunden – Über 120 original lizensierte Songs aus den 40ern und 50ern ertönen aus den Lautsprechern des Autoradios

Mafia4_rs Mafia3_rs
Mafia2_rs Mafia1_rs

mafia1

mafia1

mafia1

mafia1

mafia1

mafia1


Bei den Verlaufsdiagrammen beginnen wir mit dem neuesten Titel aus der Medal-of-Honor-Reihe. Bei diesem starten wir die Mission "Grüße aus Bagram" und lassen Fraps die ersten 60 Sekunden bei einer Auflösung von 2560x1600 Pixeln aufzeichnen.

Frameverlauf_MoH_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Gleiches Verfahren wenden wir auch bei Metro 2033 an. AMD-Grafikkarten haben bei derart hohen Auflösungen aber schon Probleme eine zweistellige Anzahl an Frames dazustellen, sodass wir uns auf wenige NVIDIA-Modelle konzentrieren.

Frameverlauf_Metro_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Weitere Frameverläufe erstellen wir mit dem FarCry-2-Benchmark, der nachfolgende Grafiken selbstständig erstellt.

FarCry2_GTX580_rs

NVIDIA GeForce GTX 580

FarCry2_GTX480_rs

NVIDIA GeForce GTX 480

FarCry2_GTX580_rs

NVIDIA GeForce GTX 470

FarCry2_GTX580_rs

NVIDIA GeForce GTX 465

FarCry2_GTX580_rs

NVIDIA GeForce GTX 460

FarCry2_GTX580_rs

NVIDIA GeForce GTS 450

FarCry2_GTX580_rs

AMD Radeon HD 6870

FarCry2_GTX580_rs

AMD Radeon HD 6850

FarCry2_GTX580_rs

AMD Radeon HD 5870

FarCry2_5850_rs

AMD Radeon HD 5850

FarCry2_GTX580_rs

AMD Radeon HD 5830


Wenn auch nicht derart aggressiv beworben wie bei vorangegangenen Modellen, so spielt für NVIDIA dennoch das Overclocking eine entscheidende Rolle. Auch wir haben uns an der GeForce GTX 580 versucht.

GTX580_OC1_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Mithilfe des MSI Afterburner erreichten wir einen GPU-Takt von 906 MHz - immerhin 131 MHz mehr, als NVIDIA vorsieht. Die an diesen Takt gekoppelten Shader-Prozessoren arbeiten dann mit 1812 MHz anstatt 1544 MHz. Dem Speicher konnten wir 1137 MHz zumuten, eine Steigerung von 137 MHz.

GTX580_OC2

Sicher werden in den kommenden Tagen aber Werte erster durch Wasser oder gar Stickstoff gekühlter GeForce GTX 580 auftauchen, die unsere Werte blass aussehen lassen. Man darf also gespannt sein.

In den Benchmarks wirkte sich das wie folgt aus:

oc1

oc1

oc1

oc1

Natürlich hat das Overclocking auch Auswirkungen auf den Stromverbrauch. Folgendes Diagramm stellt die Verhältnisse dar:

oc5

 


Wir haben euch zahlreiche Benchmarks präsentiert, in verschiedenen Auflösungen und Qualitätseinstellungen und auch wenn den ein oder anderen ein bestimmtes Spiel bzw. eine bestimmte Engine interessiert, wollen wir an dieser Stelle ein Performance-Rating präsentieren, welches die GeForce GTX 580 in Relation zu den Konkurrenten zeigt.

performance1

In diesem Rating nicht enthalten sind die synthetischen Benchmarks (Futuremark 3DMark06 und Vantage). Daher ergibt sich auch ein größerer Abstand im Rating, als dies in der Praxis meist der Fall ist. Über alle Messungen ist die GeForce GTX 580 um 17,3% schneller als die GeForce GTX 480.

Sowohl für NVIDIA, aber auch für AMD immer wichtiger wird allerdings die Performance pro Watt. Hier geben die Hersteller immer gerne eigene Diagramme an, wir wollen uns aber nur auf die eigenen Messungen verlassen.

performance2

Anders als im Performance-Rating sind die Radeon-Modelle von AMD der GeForce GTX 580 hier schon deutlich dichter auf den Fersen.


Abgesehen von der Tatsache, dass NVIDIA pro GPU bzw. Grafikkarten nur zwei Monitore ansteuern kann, ergaben sich in der Vergangenheit immer wieder interessante Verbrauchswerte beim Betrieb von mehr als einem Ausgabegerät. Wir haben uns dem Thema einmal etwas genauer angenommen.

Der Idle-Verbrauch einer GeForce GTX 580 mit angeschlossenem 30"-Display welches 2560x1600 Pixel darstellt liegt bei 171,4 Watt für das gesamte System. Die GPU arbeitet dann mit 50,6 MHz und der Speicher mit 67,5 MHz.

takt1

Wird nun zusätzlich auch noch ein 24"-Display mit einer Auflösung von 1920x1200 Pixeln angeschlossen, liegt der Verbrauch bei 230,3 Watt, also gut 60 Watt mehr. GPU und Speicher arbeiten mit dem vollen Takt. Entfernt man das zweite Display wieder, kehren GPU und Speicher in die Idle-Taktung zurück.

takt2

NVIDIA gibt an, dass die GeForce GTX 580 ihre Idle-Taktung bei zwei Displays nur erreicht, wenn beide mit der gleichen Auflösung und Bildwiderholfrequenz angesteuert werden. Wir konnten dies allerdings nicht nachstellen, denn auch mit 2x 1920x1200 Pixeln lag der Verbrauch bei rund 230 Watt und die Karte lief mit den vollen Taktraten.

Es steckt also noch etwas Arbeit im Multi-Monitor-Support für NVIDIA. Eine Erklärung für den hohen Verbrauch in unseren Tests konnte NVIDIA nicht finden. Man vermutet Probleme durch unterschiedliche Horizontalfrequenzen.


Die NVIDIA GeForce GTX 580 mit ihrer GF110-GPU hätte man gerne schon vor einem Jahr präsentiert. Nicht nur musste man bei NVIDIA noch ein paar Monate warten, bis dann die GF100-GPU auf der GeForce GTX 480 an den Start gehen konnte, auch mit den Werten für den Verbrauch konnte man nicht zufrieden sein.

Für die GeForce GTX 580 hat sich NVIDIA wieder einmal als Ziel gesetzt, die schnellste Single-GPU-Grafikkarten am Markt zu stellen. Dies ist auch gelungen, allerdings nicht um jeden Preis, wie man es vor 6-7 Monaten getan hat. In allen Benchmarks hat die GeForce GTX 580 die Nase vorn, einzige Ausnahme bildet S.T.A.L.K.E.R. - Call of Pripyat. Natürlich muss man auch immer im Hinterkopf behalten, dass bestimmte Spiele bzw. Engines der einen oder andere GPU-Architektur entgegen kommen.

{jphoto image=4090}

NVIDIA hat deutlich am Idle-Verbrauch geschraubt, auch wenn man noch immer mehr verbraucht, als die Konkurrenz. Unter Last geht die enorme Performance dann aber auch mit einem hohen Verbrauch einher. Dieser liegt allerdings unterhalb der GeForce GTX 480 und hinterlässt daher einen positiven Eindruck. Doch nicht nur durch die Reduzierung des Verbrauchs wollte NVIDIA einen Hauptmakel der GeForce GTX 480 ausmerzen, sondern auch durch eine verbesserte Kühlung. Die Vapor-Chamber scheint hier momentan die beste Lösung zu sein. Die GeForce GTX 580 kommt gänzlich ohne Heatpipe aus und der Lüfter bleibt sowohl im Idle- wie auch Last-Betrieb in angenehmen Dezibel-Regionen.

Ein Punkt darf bei aller Euphorie nicht vergessen werde - der Preis. NVIDIA gibt eine Preisempfehlung für die GeForce GTX 580 von 479 Euro an. Ein stolzer Preis, für den zwar auch eine gewisse Performance geliefert wird, der sich aber auch vor dem eigenen Gewissen rechtfertigen muss. Zum Vergleich: eine Radeon HD 5870 ist für 250 Euro zu haben. Die Radeon HD 6870 für knapp 200 Euro.

In den kommenden Wochen und Monaten werden uns noch weitere Modelle einer überarbeiteten Fermi-Architektur begegnen, die GeForce GTX 580 macht den Anfang und soll die High-Performance-Single-GPU-Fahne für NVIDIA oben halten, bis in der zweiten Jahreshälfte 2011 Kepler, die nächste GPU-Generation, erwartet wird.

Wir sind gespannt wie AMD reagieren wird. Immerhin hat man für November die Radeon-HD-6900-Serie angekündigt, auch wenn sich derzeit die Gerüchte vermehren, dass es hier zu Verzögerungen kommen könnte.

Positive Aspekte der NVIDIA GeForce GTX 580:

Negative Aspekte der NVIDIA GeForce GTX 580:

Weitere Links: