NVIDIA GeForce GTX 480 im Test - NVIDIAs Comeback?

Veröffentlicht am: von

GTX480LogoNach monatelanger Gerüchteküche ist es nun endlich soweit und die Fakten kommen auf den Tisch: NVIDIA bekennt Farbe und will zeigen, dass sich das Warten der Gaming-Community auf die ersten GF100-Grafikkarten gelohnt hat. Am heutigen Tage können wir einen ersten Blick auf die NVIDIA GeForce GTX 480 werfen. Dabei wollen wir natürlich auch einmal einen Blick auf die Architektur der GF100-GPU werfen. Für die Anwender und potenziellen Käufer aber weitaus interessanter dürfte die Performance der neuen NVIDIA-Generation sein.

Kurz nachdem AMD seine 5800er-Serie veröffentlichte, präsentierte NVIDIA auf einer Computing-Messe erste Details zur Fermi-Architektur. Danach ist es sehr still geworden und nur einzig der Codename der Desktop-Version "GF100" wurde von NVIDIA bekannt gegeben. Anschließend verzögerte sich die Markteinführung des neuen GPU-Flaggschiffs immer wieder - dafür entwickelte sich um die neue Generation ein wahrer Hype in den Foren.

Natürlich sind auch wir als Hardware-Redakteure sehr gespannt, was NVIDIA für seine nächste GPU-Generation plant und so ist es auch nicht verwunderlich, dass über Wochen und Monate Spekulationen darüber durch das Internet geistern. NVIDIA selbst hatte erst zur CES zur Ruhe aufgerufen. Die ersten GF100-Grafikkarten seien erst für das 1. Quartal 2010 geplant gewesen und an diesem Zeitplan hält man auch weiterhin fest. Mit dem heutigen Tag hat man dieses Ziel, wenn auch knapp, erreicht.

GTX480_10_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Beginnen wollen wir den Test mit der lang erwarteten Vergleichstabelle der - nun endlich fixierten - technischen Daten gegenüber dem Vorgänger aus eigenem Hause sowie der aktuellen Konkurrenz:

NVIDIA GeForce GTX 285 NVIDIA GeForce GTX 470

NVIDIA GeForce GTX 480

ATI Radeon HD 5850

ATI Radeon HD 5870 ATI Radeon HD 5970
GPU GT200b GF100 GF100 RV870 RV870 2x RV870
Fertigung 55 nm 40 nm 40 nm 40 nm 40 nm 40 nm
Anzahl Transistoren 1,4 Milliarden 3,2 Milliarden 3,2 Milliarden 2,15 Milliarden 2,15 Milliarden 4,3 Milliarden
Die-Größe 490 mm² - - 334 mm² 334 mm² 2x 334 mm²
GPU-Takt 648 MHz 607 MHz 700 MHz 725 MHz 850 MHz 2x 725 MHz
Speichertakt 1242 MHz 837 MHz 924 MHz 1000 MHz 1200 MHz 2x 1000 MHz
Speichertyp GDDR3 GDDR5 GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 1024 MB 1280 MB 1536 MB 1024 MB 1024 MB 2048 MB
Speicherinterface 512 Bit 320 Bit 384 Bit 256 Bit 256 Bit 2x 256 Bit
Speicherbandbreite 159 GB/Sek. 133,92 GB/Sek. 177,408 GB/Sek. 128 GB/Sek. 153,6 GB/Sek. 2x 128 GB/Sek.
Shader Model 4.0 5.0 5.0 5.0 5.0 5.0
DirectX 10.1 11 11 11 11 11
Shader-Einheiten 240 (1D) 448 (1D) 480 (1D) 288 (5D) 320 (5D) 640 (5D)
Shader-Takt 1476 MHz 1215 MHz 1401 MHz 725 MHz 850 MHz 2x 725 MHz
Texture Units 80 56 60 72 80 160
ROPs 32 40 48 32 32 64
Pixelfüllrate 20,7 Gigapixel - - 23,2 Gigapixel 27,2 Gigapixel 46,4 Gigapixel
maximale Leistungsaufnahme 183 Watt 215 Watt 250 Watt 170 Watt 188 Watt -
minimale Leistungsaufnahme 30 Watt 30 Watt 50 Watt 27 Watt 27 Watt -
CrossFire/SLI SLI/3-Way-SLI SLI/3-Way-SLI/4-Way-SLI SLI/3-Way-SLI/4-Way-SLI CrossFireX CrossFireX CrossFireX

Zusammengefasst ergibt sich Folgendes: Von den ursprünglich in der Fermi-Architektur geplanten 512 Shader-Prozessoren oder CUDA-Cores, wie NVIDIA sie nennt, sind bei der GeForce GTX 480 genau 480 übrig geblieben. Bei der GeForce GTX 470 sind es 448. Die CUDA-Cores sind in Blöcken mit jeweils 32 Shader-Prozessoren in Streaming-Multiprozessoren (SM) zusammengefasst. Bei der GeForce GTX 480 ist also ein Shader-Block, bei der GTX 470 sind zwei Shader-Blöcke deaktiviert. Wiederum vier dieser Streaming-Multiprozessoren sind in einem Graphics-Processing-Cluster (GPC) zusammengeschlossen worden. Aus der Anzahl von 15 Streaming-Multiprozessoren bei der GeForce GTX 480 bzw. 14 bei der GeForce GTX 470 ergeben sich auch die 60 Texture-Units und 48 ROPs bei der GeForce GTX 480 bzw. 56 und 40 bei der GeForce GTX 470. Auf die genauen Details der Architektur gehen wir in den kommenden Seiten etwas näher ein.

GPU-Z_GTX480

NVIDIA hat bis in letzter Sekunde an den Taktraten geschraubt. Heraus gekommen ist ein GPU-Takt von 700 MHz für die GeForce GTX 480 und 607 MHz für das kleinere Modell GeForce GTX 470. Beim Speicher sind aufgrund der breiteren Anbindung keine ganz so hohen Taktungen wie bei AMD nötig. Der Speicher auf der GeForce GTX 480 arbeitet mit 924 MHz. Die GeForce GTX 470 kommt auf 837 MHz. Die Shader-Prozessoren oder CUDA-Cores laufen maximal mit 1401 MHz auf der GeForce GTX 480. 1215 MHz sind es für die GeForce GTX 470. Im Idle-Betrieb fährt der GF100 auf 150 MHz GPU-Takt und 101 MHz Speicher-Takt zurück, um Strom zu sparen. Ob dies gelingt, werden wir in den entsprechenden Messungen untersuchen.

GPU-Z_GTX470

Den maximalen Stromverbrauch gibt NVIDIA für die GeForce GTX 480 mit 250 Watt an. Bei der GeForce GTX 470 sind es 215 Watt. Vergleicht man diese Werte mit denen der ATI Radeon HD 5870, wird bereits hier deutlich, dass NVIDIA zumindest beim maximalen Stromverbrauch die Nase vorne hat. Ob sich dies dann auch auf die Benchmarks niederschlägt, werden wir später sehen. Den Idle-Verbrauch gibt NVIDIA für die GeForce GTX 480 mit 50 Watt an. Bei der GeForce GTX 470 sollen es 30 Watt sein. Auch ohne den direkten Nachweis führen zu können, verbraucht die neue Karte von NVIDIA somit fast doppelt soviel an Leistung, wenn gar keine Berechnungen durchzuführen sind. 


Mit der GT200-GPU läutete NVIDIA das GPU-Computing-Zeitalter ein und optimierte seine Architektur in dieser Hinsicht. Der GF100 soll noch einen Schritt weiter gehen. So soll auch der letzte Teil Fixed-Function-Hardware verschwinden und die Architektur sozusagen komplett offen und flexibel gestaltet werden. Zwei Fixed-Function-Units namens PolyMorph Engine und Raster Engine sind auch neu hinzugekommen.

GF100_08_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Um das erste Ziel zu erreichen, wurde die dritte Generation der Streaming-Multiprozessoren eingeführt und deren Anzahl verdoppelt. Ebenfalls verdoppelt hat sich die Anzahl der ROPs. Die Bildqualität will man mit 32xCSAA auf eine neue Ebene bringen. Für eine realistischere Geometrie zeichnen sich Tesselation und Displacement Mapping verantwortlich. Zu guter Letzt soll die effiziente GF100-GPU auch noch beim Computing einen deutlichen Schritt nach vorne gemacht haben.

GF100_01_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Auf einige der erwähnten Technologien und DirectX-11-Features sind wir bereits im Rahmen des Launches der AMD-Radeon-HD-5800er-Serie genauer eingegangen. An dieser Stelle wollen wir uns aber auch den Eigenheiten der GF100-Architektur etwas genauer widmen.

 


Bereits nach der Vergleichstabelle behandelten wir die Anzahl der Shader-Prozessoren und andere Details in absoluten Zahlen. Nun aber soll es um die Zusammenarbeit aller Komponenten gehen. 

Grundsätzlich besteht die GF100-GPU aus vier Graphics Processing Clustern, 16 Streaming-Multiprozessoren und sechs Speichercontrollern. Je nach Ausbeute und Ausrichtung am Markt werden sich die Grafikkarten anhand der Anzahl der Komponenten unterscheiden, um die verschiedenen Preis-Segmente abdecken zu können. Offensichtlich hatte NVIDIA große Probleme bei der Fertigung. Denn von den hier erwähnten 16 Streaming-Multiprozessoren sind bei der GeForce GTX 480 nur 15 übrig geblieben. Oder plant man eine GTX 490 zu einem späteren Zeitpunkt mit allen Shader-Einheiten?

GF100_02_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Die CPU-Kommandos werden von der GPU über das Host-Interface gelesen. Die GigaFetch-Engine nimmt sich dann die notwendigen Daten aus dem Arbeitsspeicher und kopiert diese in den Grafikspeicher. Die Speicheranbindung setzt sich aus sechs 64-Bit-Speichercontrollern zusammen. Insgesamt ist das Speicherinterface somit 384 Bit breit und kann bis zu 6 GB GDDR5-Speicher anbinden. Je nach Ausbaustufen können also 1,5, 3 oder die vollen 6 GB verbaut werden. Die GeForce GTX 480 deckt mit 1536 MB also die erste Stufe ab. Bei der GeForce GTX 470 ist einer der 64 Bit Speichercontroller deaktiviert, somit sind hier 1280 MB verfügbar. Die GigaThread-Engine erstellt und verteilt Thread-Blöcke und gibt diese an den Streaming-Multiprozessoren-Scheduler, wo alle anfallenden Operationen auf die Shader-Prozessoren  und andere Einheiten verteilt werden.

Graphics-Processing-Cluster:

Ein Graphics-Processing-Cluster besteht aus einer Raster-Engine und bis zu vier Streaming-Multiprozessoren. Die GPCs bilden den wichtigsten Block innerhalb der GF100-GPU, denn sie bilden die Basis für die wichtigsten Operationen. Das GPC arbeitet effizienter als vorangegangenen Architekturen, da es Vertex-, Geometrie-, Textur- und Pixel-Operationen vereint und gleichzeitig mit den Anforderungen skaliert.

GF100_03_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht


PolyMorph-Engine:

Eine der zwei neuen Fixed-Function-Units - und auch die Wichtigste - ist die PolyMorph-Engine. Sie ist maßgeblich verantwortlich für Vertex-Fetch, Tessellation, Attribute-Setup, Viewport-Transform und den Stream-Output. Tesselation ist eines der wichtigsten Features in DirectX 11 und daher für die Performance und Darstellung entsprechender Inhalte besonders wichtig.

GF100_04

Jede SM-Einheit besitzt eine PolyMorph Engine, insgesamt kann die GF100 also auf 16 zurückgreifen. Für die GeForce GTX 480 und 470 gilt hier wieder die Reduzierung auf 15 bzw. 14. Sind die SM-Einheit und die PolyMorph Engine durchlaufen, wird das Ergebnis an die Raster Engine weitergeleitet. In einem zweiten Schritt beginnt dann der Tesselator mit der Berechnung der benötigten Oberflächen-Positionen, die dafür sorgen, dass je nach Abstand der nötige Detailgrad ausgewählt wird. Die korrigierten Werte werden wiederum an die SM-Einheit gesendet, wo der Domain-Shader und der Geometrie-Shader diese dann weiter ausführen. Der Domain-Shader berechnet die finale Position jedes Dreiecks indem er die Daten des Hull-Shaders und des Tesselators zusammensetzt. An dieser Stelle wird dann auch das Displacement-Mapping durchgeführt. Der Geometrie-Shader vergleicht die errechneten Daten dann mit den letztendlich wirklich sichtbaren und sendet die Ergebnisse wieder an die Tesselation-Engine, für einen finalen Durchlauf.

GF100_07_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Im letzten Schritt dann führt die PolyMorph-Engine die Viewport-Transformation und eine perspektivische Korrektur aus. Letztendlich werden die berechneten Daten über den Stream-Output ausgegeben, indem der Speicher diese für weitere Berechnungen freigibt. Während diese Schritte als Fixed-Function-Operationen bisher in einer Pipeline verarbeitet wurden, können sie auf der GF100 parallel berechnet werden, was die Geschwindigkeit der Berechnung deutlich erhöhen soll.

Die folgenden Messungen gibt NVIDIA für die Tesselation-Performance an:

GF100_06

Raster-Engine:

Vier parallele Raster-Engines sorgen auf der GF100-GPU nach der PolyMorph-Engine für eine möglichst detailreiche Darstellung der errechneten Werte. Dazu ist die Raster-Engine in drei Stufen aufgeteilt.

GF100_05

Im Edge-Setup werden nicht sichtbare Dreiecke bestimmt und durch ein "Back Face Culling" entfernt. Jedes Edge-Setup kann pro Takt einen Punkt, eine Linie oder ein Dreieck berechnen. Der Rasterizer zeichnet sich für die Bestimmung der durch Antialiasing berechneten Werte verantwortlich. Jeder Rasterizer kann pro Takt acht Pixel berechnen, insgesamt ist die GF100-GPU also in der Lage 32 Pixel pro Takt zu berechnen. Zum Abschluss vergleicht die Z-Cull-Unit die gerade errechneten Pixel mit bereits im Framebuffer existierenden. Liegen die gerade berechneten Pixel geometrisch hinter denen die sich bereits im Framebuffer befinden, werden sie verworfen.


Tesselation im Detail:

Tesselation kann bei einer festen Anzahl an Polygonen, die ein Objekt darstellen, einfach weitere Detailgrade berechnen, die dann zu mehr Polygonen und einer detaillierteren Darstellung eines Objektes führen.

Unigine_Tesselation_1_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Hier ist einmal Unigine Heaven ohne Tesselation bei einer Auflösung von 1920x1200 zu sehen. Der Abstand und die Größe der Dreiecke ist bei fast allen Objekten gleich und so wurden sie auch vom Designer erstellt.

Unigine_Tesselation_2_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Mit der Aktivierung von Tesselation werden dafür bestimmte Bereiche detailreicher. Dies wird besonders anhand des Drachens deutlich. Ebenfalls sichtbar ist es aber auch am Boden und den meisten anderen Objekten.

Tesselation_Unigine_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Bei den Benchmarks werden wir auch direkt vergleichen, wie sich die NVIDIA GeForce GTX 480 und die ATI Radeon HD 5870 unter der Verwendung von Tesselation schlagen.


Special-Function-Units:

Sogenannte Special-Function-Units (SFUs) übernehmen Berechnungen, die keiner Multiplikation oder Addition entsprechen. Vier dieser SFUs stehen in der GF100-GPU zur Verfügung. Jede SFU kann pro Takt und Thread eine Berechnung durchführen. Größere Befehle können über bis zu acht Takte ausgedehnt werden. Damit die Dispatch-Unit in dieser Zeit nicht auf die SFUs warten muss und weiterhin die übrigen Shader-Prozessoren versorgen kann, arbeiten die SFU-Pipelines getrennt von dieser.

16 Load/Store-Units:

Zu den SMs und SFUs gesellen sich noch Load/Store-Units. Jeder Streaming-Multiprozessor verfügt über 16 Load/Store Units, die für 16 Threads pro Takt die Quell- und Ziel-Adressierung im Speicher und Cache berechnen.

Dual-Warp-Scheduler:

Die Streaming-Multiprozessoren des GF100 verfügen über jeweils zwei Warp-Scheduler und Instruction-Dispatch-Units. Ein Warp ist eine Zusammenstellung von 32 parallelen Threads, die sich die gleiche Pipeline innerhalb der SIMT-Architektur (Single-Instruction, Multiple-Thread) teilen. Der Warp-Scheduler wählt sich zwei Warps und verteilt die zu berechnenden Funktionen auf bis zu 16 Shader-Prozessoren, 16 Load/Store-Units oder die vier SFUs.

GF100_09_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Texture-Units:

Jede SM-Einheit verfügt über vier Texture-Units. Jede Texture-Unit berechnet Texture-Adressierungen und kann bis zu vier Texturen pro Takt verarbeiten. Das Ergebnis kann dann entweder gefiltert oder ungefiltert zurückgegeben werden. Bekannt sind hier die Filter-Modi Bilinear, Trilinear und das anisotropische Filtern. Soweit entspricht das Vorgehen aber noch dem aus der bekannten GT200-Architektur. NVIDIA hat die Texture-Unit allerdings in die SM-Einheiten verpflanzt, um dort die Effizienz durch die Verwendung des Texture-Caches und den höheren Taktraten zu verbessern. Bei der GT200-Architektur mussten sich drei SM-Einheiten eine Texture-Einheit teilen. Nun verfügt jede SM-Einheit über ihre eigene Texture-Unit und auch über dedizierten L1-Texture-Cache. Zudem arbeiten sie nicht mehr auf den Taktraten der GPU, sondern auf denen der Shader-Prozessoren.

GF100_11_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Neben dem dedizierten L1-Texture-Cache, sorgt auch der L2-Cache für eine bessere Performance, denn damit ist der Gesamtspeicher dreimal größer als bei der GT200-Architektur. Zusätzlich unterstützt die GF100-GPU auch noch die BC6H- und die BC7-Texture-Kompression aus der DirectX-11-Spezifikation. Ebenfalls in DirectX-11 vorgesehen ist ein Feature namens Jittered-Sampling durch "Four-Offset-Gather4". Hierbei können aus einem 128x128-Pixel-Feld vier Texel pro Instruction entnommen werden, was die Berechnung von Soft-Shadows, Ambient-Occlusion und dem weiteren Post-Processing erleichtert.

GF100_10


64 kB shared-Memory und L1-Cache:

In der GF100-GPU stehen 64 kB shared-Memory pro Streaming-Multiprozessor zur Verfügung. 48 kB sind dabei frei konfigurierbar, 16 kB werden dann als L1-Cache verwendet. Es besteht aber ebenfalls die Möglichkeit 16 kB shared-Memory zu verwenden, dann sind 48 kB L1-Cache verfügbar.

GF100_12

Ein shared-Memory sorgt dafür, dass Daten, die von mehreren Threads verwendet werden, nicht mehr vom Speicher in die GPU und zurückgeschrieben werden müssen, sondern sozusagen auf der GPU verbleiben können. Dadurch können Berechnungen deutlich schneller ausgeführt werden.

L2-Cache:

Für den schnellen Datenaustausch innerhalb der GPU ebenfalls wichtig ist der L2-Cache. Dieser ist bei der GF100-GPU 768 kB groß. Er vereint Speicher-Systeme aus früheren Architekturen. So ersetzt er den L2-Texture-Cache, ROP-Cache und die On-Chip-FIFOs. Zudem ist er der zentrale Anlaufpunkt für alle Algorithmen, die auf Daten zurückgreifen müssen, die zu Beginn ihrer Berechnungen noch gar nicht vorlagen. Beispiele sind hier Physik-Berechnungen und Ray-Tracing. Zudem war es in früheren Architekturen üblich bestimmte Schreib- und Lesepfade einzupflegen. So gab es einen write-only ROP-Pfad oder aber einen read-only Texture-Pfad. Der L2-Cache besitzt so genannte "unified read/write" Pfade und ist damit deutlich flexibler, da gewisse Lese- oder Schreibzugriffe nicht mehr so oft blockiert sein können.

GF100_13_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht


ROP-Units:

Die ROP-Units der GF100-GPU wurden entscheidend überarbeitet, um sowohl den Durchsatz als auch die Effizienz zu steigern. In der GF100-GPU sind acht ROP-Units zu einer ROP-Partition zusammengefasst. Jede ROP-Unit kann einen 32 Bit Integer-Pixel pro Takt ausgeben. Ebenfalls möglich ist ein FP16-Pixel über zwei Takte oder ein FP32-Pixel über vier Takte.

Die zusätzlichen ROP-Units sowie die verbesserte Kompression sollen die 8xMSAA-Performance des GF100 deutlich verbessert haben. Gleichzeitig ist man aber auch in der Lage deutlich genauer zu arbeiten, sodass man in beiden Bereichen, sowohl in der Qualität als auch in der Performance einen großen Sprung nach vorne gemacht haben will.

GF100_14

Neu hinzugekommen ist ein 32x Coverage-Sampling-Antialiasing (CSAA), das die derzeit beste darstellbare Bildqualität zutage fördern soll. Auch wenn die APIs vieler Engines derzeit Einschränkungen bei der maximalen Qualität machen, will NVIDIA mithilfe von "Alpha-to-Coverage" hier weiter für Verbesserungen sorgen. Dabei wird die Texture in noch kleinere Blöcke unterteilt, die dann durch die GPU neu berechnet werden. Schränkt die Engine die Texture also auf vier oder acht Samples ein, kann es besonders bei Texturen die sehr nah dargestellt werden, zu unschönen Effekten, wie einer Streifenbildung kommen. Mit 32x CSAA macht die GPU insgesamt 32 Texture-Samples verfügbar und mindert diesen Effekt deutlich ab.

GF100_15_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Auch das Transparency-Multisampling (TMAA) profitiert vom Coverage-Sampling-Antialiasing. Betroffen sind hier DirectX-9-Spiele, die noch kein Alpha-to-Coverage ausführen können, da dies nicht in der API vorgesehen ist. Dort muss noch ein Alpha-Test durchgeführt werden, der bei transparenten Texturen allerdings zu unschönen Effekten führt. TMAA konvertiert den Shader-Code der DirectX-9-Engine und wendet darauf Alpha-to-Coverage an, was zusammen mit CSAA die Bildqualität dann deutlich verbessert.


Ray-Tracing:

NVIDIA sieht die Zukunft der Computer-Grafik im Ray-Tracing. Bisher war aber keine GPU in der Lage aufwendige Ray-Tracing-Szenen in Echtzeit darzustellen. Dies soll sich mit der GF100-GPU nun aber ändern. Die Herausforderungen dabei sind vor allem die Tatsache, dass Rays kaum vorhersehbare Richtungen einnehmen und zudem eine Menge an zufälligen Speicherzugriffen nach sich ziehen. GPUs sind bisher allerdings auf lineare Zugriffe im Speicher ausgelegt.

GF100_17_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Der schon behandelte L1- und L2-Cache sind bei der GF100-GPU also maßgeblich für die verbesserte Ray-Tracing-Performance verantwortlich. Doch NVIDIA geht noch einen Schritt weiter und spricht bereits von Path-Tracing. Im Path-Tracing sind eine große Anzahl an Rays vonnöten, um Informationen zur Beleuchtung der darzustellenden Szene zu sammeln. Laut eigenen Angaben arbeitet Path-Tracing bis zu vier mal schneller auf der GF100-GPU als auf der GT200. Für die ideale Performance sieht NVIDIA aber derzeit eher einen Hybrid-Modus als realisierbar. So könnte das normale Ray-Tracing die Szene in ihrer Grundstruktur berechnen. Dann werden die Pixel identifiziert, die für Reflexionen sorgen. Diese können dann mit Path-Tracing weiter berechnet werden.

GF100_16


Smoothed Particle Hydrodynamics:

Noch immer eine Herausforderung für jede Engine ist die Darstellung von Flüssigkeiten. Auch in Filmen wird diese Anwendung immer öfter verwendet und stellt selbst heute bei Filmen wie 2012 noch eine große Herausforderung dar. 2003 wurde ein Algorithmus namens Smoothed Particle Hydrodynamics (SPH) entwickelt, der die interaktive Darstellung von Flüssigkeiten ermöglicht. Damals wurde eine Demo präsentiert, die aus 5.000 Partikeln bestand, die mit fünf Bildern pro Sekunde berechnet wurde. NVIDIA implementierte den Algorithmus in die PysX-API und so fand er auch in Cryostasis Verwendung. Dort konnten dann schon 30.000 Pixel bei 30 Bildern pro Sekunde dargestellt werden.

GF100_21_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Auf der GF100-GPU sollen nun 128.000 SPH-Partikel pro Frame berechnet werden können. So ist es jetzt möglich nicht nur eine kleine Menge "Flüssigkeit", sondern gleich eine komplette Szene mit Regentropfen, Pfützen und abfließenden Wassers darzustellen. Durch Veränderung der Parameter ist dann auch die Darstellung von flüssigen Metallen oder Blut möglich. Da sich alle Flüssigkeiten grundsätzlich gleich verhalten, sind zahlreiche Einsatzgebiete vorstellbar. Aufgrund dessen, dass der SPH-Algorithmus den shared-Memory nicht verwendet, kann auch keine Saturierung der Speicherbandbreite stattfinden, eine große Gefahr bei der Berechnung derart vieler Einzelkomponenten.

GF100_18_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht


3D Vision Surround:

Bereits auf der CES stellte NVIDIA 3D Vision Surround vor. Dabei handelt es sich um eine Weiterentwicklung von 3D Vision um die Option, das Bild auf mehreren Monitoren darzustellen. Wie ebenfalls bereits auf der CES näher ergründet, ist dies in einer SLI-Konfiguration von zwei oder mehr GF100-Karten möglich. Bis zu 746 Millionen Pixel können so maximal dargestellt werden, was selbstverständlich nach einer potenten Grafikkarte verlangt, die NVIDIA mit der GF100 gefunden haben will.

GF100_19_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Um drei Displays ansteuern zu können, müssen allerdings auch zwei Karten vorhanden sein, denn die neuen Karten können nur jeweils maximal zwei Displays ansteuern.

GF100_20_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Ähnlich wie auch AMD, plant NVIDIA mit dem ersten GeForce-Treiber der 256er-Reihe auch eine Bezel-Korrektur.


Die neuen Tech-Demos wollen wir uns an dieser Stelle einmal anschauen:

Supersonic Sled:

SupersonicSled1_rs SupersonicSled2_rs
SupersonicSled3_rs SupersonicSled4_rs

Supersonic Sled soll alle derzeit verfügbaren Grafik-Technologien vereinen. Dazu gehören vor allem PhysX und Tesselation. Beides lässt sich in dieser Tech-Demo beliebig justieren und anwenden. In einem Video haben wir versucht, diese Effekt hervorzuheben. NVIDIA hat Supersonic Sled aber nicht nur als Tech-Demo konzipiert, sondern will einen spielerischen Charakter ansprechen.


RagingRapidsRide:

Ride1_rs Ride2_rs
Ride3_rs Ride4_rs

RagingRapidsRide soll die Unterschiede in der Performance der Berechnung von Physik-Effekten zwischen dem Prozessor und der NVIDIA GeForce GTX 480 aufzeigen. Durch ein Tal fließen Wasser und darin treiben auch einige Baumstämme. Sowohl Wasser als auch die Baumstände werden realistisch berechnet. Ein Boot durchfährt diese Wasserstraße und wird ebenso abhängig von der Umgebung korrekt berechnet. Werden die Berechnungen von der CPU übernommen, bricht die Framerate sofort ein.


Design Garage:

Raytracing1_rs Raytracing3_rs
Raytracing4_rs Raytracing2_rs

Ray-Tracing spielte bereits für Intel im Zusammenhang mit Larabee eine entscheidende Rolle. NVIDIA hat dies aufgenommen und legt ebenfalls einen großen Wert auf diese Technologie. NVIDIAs Design Garage erlaubt es, fotorealistische Szenen zu rendern und dabei Einfluss auf die Gestaltung zu nehmen.


Character Hair:

Hair1_rs Hair2_rs
Hair3_rs Hair4_rs

Tausende von Haare realistisch darzustellen, ist eine große Herausforderung, selbst für moderne Grafikkarten. Die Realistic-Hair-Demo kombiniert Physik-Effekte und Tesselation. Die Physik-Effekte sorgen für eine realistische Bewegung der Haare im Wind. Über Tesselation werden aus wenigen hundert Haarsträhnen tausende.


Water&Terrain:

Water1_rs Water2_rs
Water3_rs Water4_rs

Auch in der Water&Terrain-Demo spielt Tesselation eine entscheidende Rolle. Aus möglichst wenigen Geometrie-Informationen berechnet die Fermi-Tesselation-Engine einen höheren Detailgrad.


Nach vielen Seiten Theorie wollen wir aber nun zu den harten Fakten kommen und beginnen damit uns die GeForce GTX 480 einmal genauer anzuschauen - und natürlich schrauben wir das teure Stück Hardware auseinander.

GTX480_01_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Bereits aus einigen Bildern, die auf der CeBIT gemacht wurden, ist das grundsätzliche Design bekannt. Allerdings können und dürfen wir nun etwas mehr ins Detail gehen. Die Länge der Karte misst 26,5 cm und damit ist die GeForce GTX 480 in etwa so lang wie die ATI Radeon HD 5870. NVIDIA ist seinem Kühlkonzept in groben Zügen treu geblieben und verbaut am Ende der Karte einen Radiallüfter. Zu fast 2/3 besteht die Front der Karte aus dem Kühler selbst. NVIDIA verwendet also nicht mehr ein komplett geschlossenes Gehäuse. Dieses Design ist sicher der hohen Verlustleistung geschuldet, die irgendwie abgeführt werden muss. 

GTX480_02_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Auch die Rückseite ist bereits längst bekannt. Anhand der Lötpunkte und benötigten Widerstände ist sehr schön die Position der GPU sowie der darum verteilten Speicherchips zu erkennen.

GTX480_03_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Ein genauer Blick auf das hintere Ende der Karte gibt auch eine Öffnung preis, die wir bereits von der GeForce GTX 295 kennen. An dieser Stelle kann der Lüfter nicht nur kühle Luft von der Front ansaugen, sondern auch auf der hier abgebildeten Rückseite.

GTX480_04_rs 

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Wie alle modernen Karten von NVIDIA, ist auch die GeForce GTX 480 dank zweier SLI-Anschlüsse in der Lage, im SLI oder 3-Way-SLI betrieben zu werden. Wir werden uns in den nächsten Tagen und Wochen bemühen hier schnellstmöglich einen Vergleich zwischen SLI und 3-Way-SLI der GeForce GTX 480 gegen einen CrossFire-Verbund aus ATI Radeon HD 5870 anzustellen.

Gleich vier dicke Kupfer-Heatpipes, die vernickelt wurden, ragen an der Oberseite aus der Karte heraus. Über sie wird die an der GPU anfallende Wärme direkt in den Kühler geleitet. Bisher war eine solche aufwendige und umfangreiche Kühlung auf den wenigsten Grafikkarten im Referenzdesign zu bewundern.

GTX480_05_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Auch beim Stromverbrauch ist etwas mehr notwendig, allerdings rechnet NVIDIA hier sehr knapp:

GTX480_06_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Auf der Oberkante hat NVIDIA jeweils einen 6-Pin und einen 8-Pin-PCI-Express-Stromanschluss platziert. Zusammen mit den 75 Watt, die über den Slot zur Verfügung gestellt werden können, ergibt dies eine maximale Leistungsaufnahme von 300 Watt. Mit einem angegebenen maximalen Verbrauch von 250 Watt liegt NVIDIA also nicht nur knapp unterhalb der PCI-Express-Spezifikationen, sondern ebenfalls nur knapp unter der theoretischen Leistung, die an die Karte gebracht wird.

GTX480_08_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Am hinteren Ende der Karte hat NVIDIA eine Öffnung im Kühlergehäuse gelassen, wo ein Teil der warmen Luft entweichen kann. Ein Großteil des Luftstroms wird allerdings in Richtung der GPU und Slotblende geführt.

GTX480_09_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Bereits beim ersten Blick auf die Karte wird die massive Metalloberfläche sichtbar. Über diese versucht NVIDIA einen weiteren Teil der Abwärme abzuführen.

GTX480_07_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Auf der Slotblende finden sich keine größeren Besonderheiten. Zwei Dual-Link-DVI-Ausgänge dürften auch heute noch an den meisten Displays zum Einsatz kommen. Etwas verwundert sind wir über den Einsatz eines Mini-HDMI-Ausgangs. Dieser wurde erst mit HDMI 1.3 eingeführt und zeichnet sich durch seine platzsparenden Abmessungen aus. Vermutlich werden die Hersteller dazu übergehen, den Karten einen entsprechenden Adapter beizulegen. Natürlich ist uns bewusst, dass der Platz auf der Slotblende begrenzt ist und offensichtlich hat NVIDIA den weiteren Platz der Dual-Slot-Blende für die Öffnungen des Kühlers benötigt.

Maximal können die neuen NVIDIA-Karten zwei Displays ansteuern. Der Anwender hat die Wahl für die Ausgabe über zweimal DVI oder DVI und mini-HDMI.


Nun greifen wir zum Schraubenzieher und basteln den schweren Kühlkörper von der Karte:

GTX480_11_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Wird die Karte vom Kühler befreit, zeigt sich obiges Bild. NVIDIA verpackt seine GPU immer in einem überdimensional groß wirkenden Gehäuse. Dieses sticht, dank der Farbgebung, vom ansonsten dunkel gehaltenen PCB sowie den übrigen Komponenten heraus.

GTX480_12_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Rings um die GPU hat NVIDIA die Speicherchips verteilt. Diese stammen aus dem Hause Samsung und tragen die Bezeichnung K4G10325FE-HC04 mit 0,4 ns, was auf einen Speicher-Takt von 1200 MHz schließen lässt. Insgesamt kommen 12 Chips mit jeweils 128 MB zum Einsatz, was in einer Gesamtkapazität von 1536 MB resultiert. Jeweils zwei sind an einem der sechs 64-Bit-Speichercontroller angebunden. Die Positionierung der Chips rund um die GPU ist vor allem einer kurzen und möglichst gleichmäßigen Signallaufzeit geschuldet.

GTX480_13_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Am hinteren Ende des PCBs sind die wichtigsten Komponenten zu finden, wenn es um die Spannungs- und Stromversorgung der GeForce GTX 480 geht.

GTX480_14_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Bei einem Blick auf den Kühler zeigt sich auch, welche Komponenten und Bauteile dieser mit abdeckt. In der Mitte ist eine quadratische Öffnung zu sehen, durch welche die GPU direkt auf den Kühlkörper geführt wird. Dort befinden sich dann auch die vier Heatpipes, welche die Wärme aufnehmen. Die Speicherchips und einige Komponenten der Spannungsversorgung werden durch den massiven Metallkühler abgedeckt.

GTX480_15_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Der 70-mm-Radiallüfter versteckt sich im Kühlergehäuse. Dort zieht er die Luft durch die große Öffnung an der Front sowie den Aussparungen im PCB an und bläst sie nach vorne in Richtung GPU.


Mit der Vorstellung der ersten DirectX-11-Grafikkarten haben wir uns dazu entschlossen auch unser Testsystem leicht umzustellen. Wir führen alle Benchmarks nun unter Windows 7 aus, was uns dazu zwingt alle bisher bereits getesteten Karten ebenfalls unter Windows 7 noch einmal durch den Parcours zu jagen. Folgende Systemkomponenten kommen dabei zum Einsatz:

  • Intel Core i7 Extreme 965 (4x 3,2 GHz)
  • ASUS P6T6 WS Revolution
  • Corsair XMS3 Dominator DIMM Kit 6GB PC3-12800U CL7-7-7-20 (DDR3-1600)
  • Coolermaster 1000 Watt Netzteil

Folgende Treiber kamen dabei zum Einsatz:

  • GeForce 197.17
  • Catalyst 10.2
  • Catalyst 10.3a

Weiterhin haben wir nach jedem Benchmark das System neu gestartet und, wenn möglich, mit aktuellen Softwareversionen und Patches getestet.

Download des NVIDIA GeForce 197.17:


Wenn ein Hersteller bereits eine hohe Stromaufnahme für seine Grafikkarte angibt, sind wir natürlich gespannt, wie sie sich in den Messungen verhält.

Strom_1

NVIDIA gibt einen Idle-Stromverbrauch für die GeForce GTX 480 von 50 Watt an. Bedenkt man, dass die ATI Radeon HD 5870 bei 27 Watt liegen soll, ordnet sich die neue NVIDIA-Karte in etwa richtig ein. Allerdings sind wir etwas überrascht, dass es NVIDIA nicht geschafft hat, den Verbrauch noch etwas nach unten zu drücken. Im Vergleich zu den bisherigen Top-Karten mit einer GPU (GTX 285) steigt der Verbrauch sogar um fast 20 Watt an.

Strom_2

Unter Last dreht die GeForce GTX 480 dann so richtig auf. Mit 395 Watt liegt man sogar über der ATI Radeon HD 5970, die immerhin zwei GPUs besitzt. Ob hier für Overclocking also noch viel Raum ist, wird sich zeigen. Um den hohen Verbrauch zu rechtfertigen, muss die Karte auf jeden Fall in den Benchmarks eine sehr gute Leistung zeigen - ansonsten stimmt das Performance-pro-Watt-Ratio nicht mehr.

Im Extremtest zeigt sich die hohe Abwärme dann erneut - Furmark liefert einen neuen Rekord:

Furmark

Dem eher praxisnahen Verbrauchstest folgt hier der direkte Vergleich zwischen ATI Radeon HD 5870 und GeForce GTX 480 im Furmark. Beide Karten laufen also mit absoluter Volllast. Die Werte liegen noch einmal höher als bei der ersten Messung. Mit 470 Watt ist die GeForce GTX 480 sicher kein Sparwunder.

Temp_1

Im Idle-Betrieb hat der Kühler die GeForce GTX 480 noch im Griff. Mit 48 °C liegt man zwar etwas höher als viele andere Karten, wirklich störend sind die Temperaturen hier aber noch nicht.

Temp_2

Mit 96 °C messen wir an dieser Stelle die höchste Last-Temperatur. Dabei arbeitet der Lüfter auf voller Drehzahl, kann die Temperatur aber nicht nach unten drücken. Die GPU-Temperatur sollte also im Sommer bei 30 °C Raumtemperatur die 100 °C knacken.

Laut_1

Der Kühler der NVIDIA GeForce GTX 480 arbeitet im Idle-Betrieb sehr leise. Natürlich ist eine Karte dieses Kalibers kein Leisetreter, die Werte können aber überzeugen und auch im Hörtest liegt die Karte auf einem Niveau mit den restlichen Modellen.

Laut_2

Die hohe Last-Temperatur und der voll aufdrehende Lüfter sorgen für eine ordentliche Geräuschkulisse. Wer allerdings auf seinen Kopfhörern ein 3D-Game hört, muss sich um den lauten Lüfter meist keinerlei Gedanken machen. Im Vergleich zur GTX 295 schafft es NVIDIA auch, den Lüfter etwas leiser zu gestalten.

Das Zusammenspiel von Auslastung, Temperatur und Lüftersteuerung lässt sich sehr schön mit Hilfe des MSI Afterburners darstellen.

Furmark_Afterburner

Hier sehen wir, wie die GeForce GTX 480 aus dem Idle-Zustand heraus im Furmark voll belastet wird. Die GPU-Auslastung springt sofort auf fast 100 Prozent. Fast zeitgleich ändern sich auch die Taktraten. Zwar werden falsche Werte für den GPU- und Speichertakt angezeigt, dennoch ist der Wechsel auf die höheren Taktraten sichtbar. Ebenfalls sehr schön zu sehen ist der Anstieg der Temperatur und damit verbunden die immer höher werdende Lüfterdrehzahl. Dieser kann bei einem Maximum die Temperatur kurz noch einmal um wenige Grad nach unten drücken, bevor sie dann aber wieder leicht ansteigt und in diesem Fall bei  97 bis 98 °C stehen bleibt.


Futuremark 3DMark Vantage

Mit den ersten Performance-Messungen beginnen wir im 3DMark06 und Vantage. Der 3DMark Vantage als neueste Version ist sehr Grafikkarten-lastig und damit ideal für unsere Zwecke geeignet. Um die 3D-Grafikpracht flüssig zu genießen, ist aber auch eine schnelle CPU notwendig. Der Download von 3DMark Vantage ist wie immer in unserer Download-Area möglich.

Vantage_1

Vantage_2

Vantage_3


Resident Evil 5

Die letzte Version aus der Horror-Reihe Resident Evil erschien nicht nur für diverse Konsolen, sondern auch für den PC. Die integrierte Benchmark-Funktion lädt dann natürlich geradezu ein, Grafikkarten auf Herz und Nieren im Grusel-Ambiente zu testen. Wir wählten den zweiten, weil deutlich kürzeren, Benchmark-Durchlauf.

ResidentEvil1_rs ResidentEvil2_rs

ResidentEvil3_rs ResidentEvil4_rs

Zur Vollversion von Resident Evil 5 in unserem Preisvergleich gelangt man über diesen Link.

Resident_1

Resident_2

Resident_3

Resident_4

Resident_5

Resident_6


Street Fighter IV

Wohl die bekannteste Prügelspiel-Reihe ist Street Fighter. Mit Street Fighter IV kehrt die legendäre Kampfsportserie zu ihren Wurzeln zurück. Dabei sorgt die Kombination der beliebten Moves und Techniken aus dem Originalspiel Street Fighter II mit Capcoms Technologie der nächsten Generation für ein wahrhaft außergewöhnliches Spielerlebnis, das der Welt die altehrwürdige Kunst virtueller Kampfsportarten aufs Neue näherbringt. Auch hier verwenden wir wieder die integrierte Benchmark-Funktion.

StreetFighter4_1_rs StreetFighter4_2_rs

StreetFighter4_3_rs StreetFighter4_4_rs

Zur Vollversion von Street Fighter IV in unserem Preisvergleich gelangt man über diesen Link.

Street_1

Street_2

Street_3

Street_4

Street_5

Street_6


H.A.W.X.

Die Erwartungen an das Gameplay konnte H.A.W.X. nicht erfüllen und auch der Namenszusatz "Tom Clancy's" hat seine Wirkung größtenteils bereits verloren. Dennoch kann H.A.W.X. durch eine beeindruckende Darstellung des Geländes überzeugen. Komplette Städte samt zugehöriger Hochhäuser wurden erstellt, aufwendige Geländetexturen komplettieren den realistischen Eindruck. Wir verwenden die integrierte Benchmark-Funktion um den Grafikkarten auf den Zahn zu fühlen.

HAWX1_rs HAWX2_rs

HAWX3_rs HAWX4_rs

Zur Vollversion von H.A.W.X. in unserem Preisvergleich gelangt man über diesen Link.

HAWX_1

HAWX_2

HAWX_3

HAWX_4

HAWX_5

HAWX_6


Far Cry 2

Bei Far Cry 2 handelt es sich um einen First-Person-Shooter aus dem Hause Ubisoft. Der Nachfolger des legendären Spieleklassikers basiert auf der eigens entwickelten Dunia Engine, wodurch beispielsweise dynamisches Wetter, Tag- und Nachtzyklen und eine dynamische Vegetation realisierst werden. Das Spiel nutzt Mehrkernprozessoren, unterstützt sowohl DirectX-9 als auch -10 und besitzt eine integrierte Benchmark-Funktion, mit zahlreichen Einstellungsmöglichkeiten.

Zur Vollversion von Far Cry 2 in unserem Preisvergleich gelangt man über diesen Link.

Farcry_1

Farcry_2

Farcry_3

Farcry_4

Farcry_5

Farcry_6


Crysis Warhead

Immer wieder für grafische Highlights verantwortlich zeichnen sich die Macher von Crysis. Die als Basis dienende Cry-Engine sorgt immer wieder dafür, dass selbst aktuelle High-End-Systeme den Anforderungen nicht mehr gewachsen sind. Daher eignet sich Crysis Warhead ideal für unsere Benchmarks. Wir verwendeten Crysis im DirectX-10-Modus, alle Details auf Maximum.

Crysis1_rs Crysis2_rs

Crysis3_rs Crysis4_rs

Zur Vollversion von Crysis Warhead in unserem Preisvergleich gelangt man über diesen Link.

Crysis_1

Crysis_2

Crysis_3

Crysis_4

Crysis_5

Crysis_6


BattleForge

BattleForge ist ein Next Gen Echtzeitstrategie-Spiel, bei dem ihr mit euren Freunden in epischen Schlachten gegen das Böse schlagen könnt. Das Besondere an BattleForge ist, dass du deine Armee selbst zusammenstellen kannst. In BattleForge werden deine Einheiten, Gebäude und Zauber durch Sammelkarten repräsentiert, die du mit anderen Spielern tauschen kannst.

BattleForge1_rs BattleForge2_rs

BattleForge3_rs BattleForge4_rs

BattleForge ist kostenlos auf www.BattleForge.com zu beziehen.

Battle_1

Battle_2

Battle_3

Battle_4

Battle_5

Battle_6


BattleForge DirectX 11:

Battle11_1

Battle11_2

Battle11_3

Battle11_4

Battle11_5

Battle11_6


Unigine Heaven

Einer der ersten DirectX-11-Benchmarks ist der Unigine Heaven. Er verwendet alle wichtigen Features wie DirectCompute, Shader Model 5.0, Tessellation oder Screen-Space Ambient Occlusion. Da es sich um einen reinen DirectX-11-Benchmark handelt, können auch nur entsprechend kompatible Karten darauf getestet werden.

UnigineHeaven1_rs UnigineHeaven2_rs

UnigineHeaven3_rs UnigineHeaven4_rs

Unigine Heaven ist ein kostenloser Benchmark, der unter www.unigine.com zu beziehen ist.

Unigine_1

Unigine_2

Unigine_3

Unigine_4

Unigine_5

Unigine_6


S.T.A.L.K.E.R.: Call of Pripyat

S.T.A.L.K.E.R.: Call of Pripyat ist nun schon der dritte Teil der sagenumwobenen S.T.A.L.K.E.R.: Shadow of Tschernobyl-Reihe und bildet einen einzigartigen Mix aus einem actionreichen First-Person-Shooter und einem komplexen Rollenspiel. Call of Pripyat besticht vor allem durch seine grandiose Atmosphäre in der Szene rund um Tschernobyl. Mit Call of Pripyat wurde die X-Ray-v.1.5-Engine noch einmal um die neusten technischen Möglichkeiten aufgestockt. Ab sofort wird zeitgemäß auch eine DirectX-11-Unterstützung geboten, die viele neue Grafikeffekte mit sich bringt. Mit Unterstützung von Tesselation gibt es neben komplett überarbeiteten Levels und einer erheblich verbesserten KI auch wieder sehr viele optische Leckerbissen. S.T.A.L.K.E.R.: Call of Pripyat kann wieder einmal als Augenweide bezeichnet werden.

Zur Vollversion von S.T.A.L.K.E.R.: Call of Pripyat in unserem Preisvergleich gelangt man über diesen Link.

Stalker_1

Stalker_2

Stalker_3

Stalker_4


Neu in diesem Vergleich sind die nun folgenden Verlaufsdiagramme. Dabei haben wir uns den Frameverlauf von vier Anwendungen etwas genauer angeschaut um so auch die minimale und maximale Framerate beurteilen zu können.

BattleField - Bad Company 2:

Verlauf_BattleField_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

In BattleField - Bad Company 2 liegen beiden Karten auf einem hohen Niveau, die GeForce GTX 480 ist allerdings etwas schneller. Einbrüche und Spitzen sind allerdings bei beiden Karten gleichermaßen vorhanden.

Metro 2033:

Verlauf_Metro_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Metro 2033 ist ein neues 3D-Spektakel der Macher von Stalker. Wir nahmen eine Intro-Szene des ersten Levels um möglichst gleichbleibende Ergebnisse zu erzielen. NVIDIAs GeForce GTX 480 berechnet die Szene mit ein paar FPS mehr.

S.T.A.L.K.E.R.: Call of Pripyat:

Verlauf_Stalker_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Der Frameverlauf bei Stalker wirkt sehr wüst. Beide Karten bringen keinen stetigen Frameverlauf zustande. Bereits in den Benchmarks mit Angabe der Durchschnittswerte war dieses Ergebnis abzusehen. 

Unigine Heaven:

Verlauf_Unigine_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Unigine Heaven ist ein weiterer DirectX-11-Benchmark, der besonders starken Gebrauch von Tesselation macht. In eben diesen Szenen zeigt die NVIDIA GeForce GTX 480 die stärkste Performance.


32x CSAA Bildvergleich und Performance:

Wie bereits in der Theorie besprochen hat NVIDIA eine neue Antialiasing-Stufe namens 32x Coverage-Sampling-Antialiasing eingeführt. Diese wollen wir uns nun etwas näher anschauen.

Beginnen wollen wir mit einem Bildvergleich in Battlefield - Bad Company 2:

BFBC_1_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Wir wählten eine Auflösung von 1920x1200 Pixeln und 8x Antialiasing für obigen Screenshot. Die Bildqualität und der Detailgrad sind hier bereits atemberaubend. Wenn man etwas näher an die Äste und Blätter der Bäume heranzoomt, werden sehr harte Kanten im Kontrast zum Himmel deutlich.

BFBC_2_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Diese harten Kanten sind bei 32x Coverage-Sampling-Antialiasing geglättet. Das Bild gewinnt allerdings nur bei sehr genauem Hinschauen an Qualität.

Weiter geht es mit einem Vergleich in Crysis Warhead:

Crysis_AA_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Schon etwas deutlicher, wenngleich auch hier nur bei sehr genauem Hinsehen, wird der Effekt von 32xCSAA bei Crysis Warhead. Obiger Screenshot wurde mit 8xAA erstellt.

Crysis_CSAA_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Mit 32xCSAA soll die derzeit maximal darstellbare Bildqualität wieder nach oben korrigiert werden. Auch in diesem direkten Vergleich ist der Effekt minimal, aber vorhanden.

Allerdings benötigt das 32x Coverage-Sampling-Antialiasing auch eine entsprechende Performance. Wir wollen an dieser Stelle einen Vergleich mittels Far Cry 2 heranführen.

Bench_CSAA

Um fast ziemlich genau die Hälfte bricht die Performance ein. Kein Wunder, denn es müssen ja auch 32 Texture-Samples berechnet werden.

Noch deutlicher wird dies anhand der Frameverläufe. Links ist der Verlauf unter 8xAA zu sehen, rechts mit 32xCSAA.

FarCry_AA_rs FarCry_CSAA_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht


Wenn es um eine Grafikkarte einen derartigen Hype gibt, wie um die NVIDIA GeForce GTX 480, ist eine Enttäuschung eigentlich sicher. Ein Hype führt meistens dazu, dass man sich eine eierlegende Wollmilchsau wünscht - ein Produkt, welches ideale Leistungswerte bei niedrigem Stromverbrauch, bestem Preis-Leistungsverhältnis und leisester Kühlung mitbringt. Doch wie Apples iPad kann auch die GeForce GTX 480 diese hohen Erwartungen nicht erfüllen.

Aufgrund der langen Wartezeit waren die Ansprüche hoch. Die Karte erscheint gut sechs Monate nach der ATI Radeon HD 5870 und so wäre eine geringere Leistung sicher nicht zu rechtfertigen gewesen. Dies dürfte auch der Grund sein, warum NVIDIA bis in letzter Sekunde am Treiber und dem BIOS gearbeitet hat. Und so hat es NVIDIA geschafft, die schnellste Single-GPU-Karte auf den Markt zu bringen - mit oftmals 20, 30 oder sogar 40% mehr Performance als ATI bieten kann. Besonders hervorzuheben ist dabei die Tesselation-Performance: Da aktuelle und auch zukünftige Spiele-Engines sicher vermehrt davon Gebrauch machen werden, ist dies bestimmt ein guter Punkt für NVIDIA. In vielen Bereichen sieht es allerdings auch nicht so rosig aus und die Karte liegt nur knapp vor dem ATI-Modell.

Das Ziel, die schnellste GPU zu bringen, hat man sich teuer erkauft: Der Stromverbrauch schmerzt, denn was bringt eine Strom sparende CPU, ein Strom sparendes 80-Plus-Gold-Netzteil und eine Strom sparende SSD, wenn dann die Grafikkarte im Idle-Betrieb bereits sämtliche Einsparungen wieder auffrisst. Genauso sieht es unter Last aus, wo die Karte mit schon nur einer GPU die Dual-GPU-Karte von ATI übertrumpft.

GTX480_10_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Wo genau die Schwierigkeiten für NVIDIA zu suchen sind, ist für aussenstehende Personen nicht zu ergründen. Vermutlich kommt hier eine Kombination aus der GF100-Architektur und der Fertigung in 40 nm bei TSMC zum tragen, die anhand der Verfügbarkeit der ATI Radeon HD 5870 auch dort nicht reibungslos läuft. Nicht umsonst hat Intel das Tick-Tock-Modell eingeführt: Eine neue Architektur führt der Chiphersteller immer unabhängig von einem neuen Fertigungsprozess ein, damit nicht zwei riskante Faktoren aufeinandertreffen. Auch NVIDIA hat hiermit schon Erfahrung: Die GeForce FX ist hier ein weiteres negatives Beispiel.

Leider mussten wir auf Overclocking-Tests verzichten, da die Karte nur kurz bei uns im Testlabor zubringen konnte. Am Abend des Tages, als die Karte wieder zurück zu NVIDIA ging, wurde erst eine aktualisierte Version von nTune zur Verfügung gestellt. Zu spät für uns - aber wieder einmal zeigte sich, mit welch heißer Nadel NVIDIA da noch in den letzten Minute Tools und Sonstiges zusammenstrickte - und wie wenig Karten es zum Launch in Deutschland gab. Zu gegebenem Zeitpunkt werden wir das aber sicher nachholen - wir sind gespannt, was sich aus der Karte noch herausholen lässt.

Letztendlich muss die Leistung auch über den Preis beurteilt werden. NVIDIA hat für die GeForce GTX 480 einen Preis von 499 US-Dollar angegeben. Damit liegt man durchaus auf dem Niveau der ATI Radeon HD 5870, wobei der eingependelte Marktpreis hierzulande erst einmal abgewartet werden muss. Über die GeForce GTX 470 erlauben wir uns noch kein Urteil. Bisher hatten wir noch nicht die Gelegenheit diese zu betrachten. Einzig die technischen Daten und der Preis sind uns bekannt. Dieser liegt bei 349 US-Dollar und damit könnte sich die Karte als Preis-Tipp darstellen.

Lieferbar sind die neuen Karten erst in etwa zwei Wochen. Über die Verfügbarkeit können wir keinerlei Angaben machen, NVIDIA hält sich dazu auch zurück. Wenige Tage und Stunden vor dem Launch aber wurde der Termin immer weiter nach hinten verschoben. Inzwischen ist von einer sofortigen Verfügbarkeit schon nicht mehr die Rede. Wir rechnen damit, dass erste Karten erst nach Ostern in den Markt gelangen. Von einer breiten Verfügbarkeit kann dann aber noch nicht gesprochen werden.

Positive Aspekte der NVIDIA GeForce GTX 480:

  • beste Single-GPU-Performance
  • hohe Tesselation-Performance

Negative Aspekte der NVIDIA GeForce GTX 480:

  • hoher Verbrauch unter Last
  • hoher Verbrauch im Idle-Betrieb
  • hohe Lautstärke unter Last
Und wann kann man die Karte kaufen? Ersten Berichten der Boardpartner zu Folge soll die Verfügbarkeit ab Mitte April gewährleistet sein. Wenn sich vorher einige wenige GeForce GTX 480 am Markt einfinden, muss man wohl schon sehr viel Glück haben, um eine der raren Karten zu ergattern.

Weitere Links: