NVIDIA GeForce 8800 GTX

Veröffentlicht am: von

Sanft euphorisierend. Diese, oder eine ähnliche Zustandsbeschreibung spiegelt die Gefühlslage eines Grafikkartenredakteurs beim Öffnen des Pakets wieder, dass nur ein ganz besonderes Sample enthalten kann. NVIDIAs top aktuelle Grafikkartengeneration basiert auf dem neu entwickelten G80-Chip und ist viel mehr als eine bloßes Taktratenupdate. 681 Millionen Transistoren, CUDA, Unified Shader und DirectX 10 sind nur vier der Schlagwörter, die eine GeForce 8800 von der 79er Generation und der Konkurrenz abheben.

Die neueste Ausgabe der Hardwareluxx [printed], die am 15.11. in den Handel kommt (Ausgabe 01/2007), enthält ein 6-seitiges Special über NVIDIAs Flaggschiff. Dort wird detailliert die Technik des Grafikprozessors beschrieben, weiterhin haben wir Benchmarks und Details zu Cuda, den NVIDIA-Demos und DirectX 10. Dieser Online-Artikel wird sich ergänzend, vorrangig mit dem Thema Bildqualität und G80-SLI befassen. Ein kompletter Benchmark-Satz darf dabei natürlich trotzdem nicht fehlen.

Im ewigen Performance-Wettstreit ging es bisher immer munter hin und her. Einmal war NVIDIA in Benchmark A um 10 Frames schneller, einmal rechnete ATI in Benchmark B etwas flotter. Was allerdings unentwegt als permanentes pro-ATI-Argument zitiert wurde, war die bessere Bildqualität bei gleicher Leistung. Lange Zeit wurden NVIDIA-Karten auf dem Treiberpreset "High Quality" getestet, um bei Kollation mit der kanadischen Konkurrenz ein vergleichbares Bild zu erhalten. Diesem Umstand soll der G80 ein Ende bereiten und mit hochwertigem anisotropem Filter, CSAA und HDRR mit gleichzeitigem Antialiasing überzeugen.

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Zunächst einmal die technischen Daten der NVIDIA 8800GTX , der 8800 GTS und dem Konkurrenz-Umfeld:

Um der neuen Bilderpracht auch einen fundierten Antrieb zur Verfügung zu stellen, hat NVIDIA das Prozessordesign von Grund auf überarbeitet. Allein die Rohdaten beeindrucken bereits enorm. 575 MHz (500 MHz bei der GTS) und 900 MHz Speichertakt sorgen für regen Datenverkehr. 128 (96) mit 1350 MHz (1200 MHz) getaktete "Stream Prozessoren" können auf 786 MB (640 MB) GDDR3-Grafikspeicher zurück greifen. Dieser ist über ein 384 Bit (320 Bit) breiten Speicherbus angebunden. Daraus resultiert eine theoretische Speicherbandbreite von 86,4 GB/s (64 GB/s). Der G80 ist zwar bereits auf die Unterstützung von GDDR4 Speicher ausgelegt, allerdings werden auf dern Karten derzeit, wohl aus Kosten- und Verfügbarkeitsgründen, vorerst nur GDDR3-Chips verbaut. Dies eröffnet auch die Möglichkeit, mit einer "GeForce 8850 GTX" in naher Zukunft noch einmal einen Performancesprung zu tätigen.

Allerdings hat sich sehr viel mehr geändert, als pure Zahlen. Einen kurzen Einblick in die Architektur wollen wir neben dem ausführlichen Artikel in der [printed] 01/2007 auf der nächsten Seite geben:

    
Aktuelle GPUs besitzen u.a. zwei dedizierte Verarbeitungseinheiten, Vertex- und Pixelprozessoren. Grob zusammengefasst kann man sagen, dass die Vertex-Einheiten die Position von Vertices (Eckpunkte von Dreiecken) berechnen, wohingegen die Pixelprozessoren die entstandenen Dreiecke mit Texturen überziehen. Bereits in der Grafikeinheit der Xbox 360 findet ein alternatives System Verwendung, die Unified Shader Architektur. NVIDIA nennt die Unified-Shader-Einheiten "Stream Prozessoren". Die GeForce 8800GTX verfügt über 128 Stück (1350 MHz) davon, die GeForce 8800GTS über 96 (1200 MHz). Der Vorteil der Vereinheitlichung liegt auf der Hand: Während früher verschiedene Aufgaben explizit von Pixel- oder Vertexshadern ausgeführt wurden, kann ein Unified Shader beide Arten von Berechnungen durchführen. Bei einem ungleichen Verhältnis von Pixel- zu Vertexoperationen, kann es in einer nicht vereinheitlichten Architektur schnell vorkommen, dass etwa die Pixelshader ausgelastet werden, aber die Vertexeinheiten zum Großteil keine Berechnungen durchführen müssen. Die Stream-Prozessoren können solche Lastverhältnisse dynamisch ausgleichen und die Operationen auf eine große Anzahl an verarbeitenden Einheiten aufteilen. So entsteht eine gleichmäßige Lastverteilung

Die G80 Architektur als Schema

Der G80 bietet eine native DirectX-10-Unterstützung und auch eine volle Kompatibilität zu Shader Model 4.0. Die Spezifikationen von Microsofts neuer API enthalten auch den Anspruch an eine neue, programmierbare Shaderstufe. Die Stream-Prozessoren sind in der Lage, neben den Vertex- und Pixeloperationen zusätzlich auch Geometrieoperationen durchzuführen. Bisherige Geometriekalkulationen wurden unter zuhilfenahme der CPU mit den Vertexprozessoren berechnet. Ein Geometryshader ist nun in der Lage, die Koordinaten und Geometriedaten, die bisher die CPU anlieferte, selbst zu erzeugen und zu verändern und das sogar schneller als es eine CPU könnte. Außerdem entfällt der Übertragungsweg über den PCI-Express Bus, was sich auch in einem Geschwindigkeitsvorteil niederschlagen könnte. Aktuelle Spiele unterstützen dieses Feature natürlich nocht nicht, hier muss auf DirectX 10 gewartet werden. Auf dem Editor's Day zeigte NVIDIA den anwesenden Pressevertreter allerdings eine Techdemo, die die Fähigkeiten der Geometriemanipulatoren eindrucksvoll darstellte. Der Protagonist der "Frog Demo" ist ein Frosch, dessen Körperbau man nach Lust und Laune malträtieren kann. Alle Modifikationen werden natürlich in Echtzeit und mit den Geometryshadern berechnet.

 

 

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Die Unified Shader Architektur ermöglicht es auch, die Prozesspalette um zusätzliche Bereiche zu erweitern. So profitieren vor allem Fließkomma-Berechnungen von der Geschwindigkeit der Grafikeinheiten. NVIDIA hebt hier besonders die Möglichkeit für Physik-Berechnungen hervor. Die aus der Taufe gehobene "Quantum-Effects™-Physik-Engine soll Naturgesetze effektiv und schnell berechnen, sowie einfach zu programmieren sein. Zusätzliche PPU-Karten könnten es in Zukunft noch schwerer haben. Doch auch völlig andere Anwendungen sind denkbar. Die "CUDA™ genannte Schnittstelle macht aus dem G80 eine GPGPU (General Purpose Graphic Processing Unit). ATI Karten führen seit einigen Monaten Berechnungen zur Faltung von Proteinen aus. In Zukunft soll dank CUDA noch eine Vielzahl weiterer Operationen auf den Grafikprozessoren verarbeitet werden. Wie CUDA funktioniert und welche Unterschiede es aufgrund der GPU zur ATI-Lösung gibt, zeigen wir ebenso im neuen Heft.


Die NVIDIA GeForce 8800 GTX offenbart sich äußerlich als ein großer schwarzer Kasten. Bei dem stattlichen Längenmaß von 27 cm kommen manche Gehäuse schon an ihre Fassungsgrenze. Besonders, wenn Festplatten in der Nähe der PCI-Express-Slots verbaut sind, kann es durchaus passieren, dass diese umgesetzt werden müssen, um die Grafikkarte überhaupt einbauen zu können. Auf dem schwarzen PCB thront unübersehbar der ebenso schwarze Lüfterkasten, welcher mit 3,2 cm Höhe auch den darunter liegenden Slot beansprucht. Dafür kühlt der Brummer den G80-Prozessor aber auch recht anständig und relativ geräuscharm. Neben den im Strömungsrichtung orientierten Kühlfinnen, leitet eine Heatpipe die Wärme schnell vom GPU Richtung Hinterausgang. Der von einem gut 2 cm hohen Radiallüfter erzeugte Luftstrom wird durch ein schickes, dunkles und natürlich geschlitztes Doppel-Slotblech nach Außen befördert - das Gehäuse wird also nicht aufgeheizt. Der Aluminiumkörper des Kühlers bedeckt neben der Grakfikeinheit, auch die Speicherchips und den HDCP/Video-Chip. Auch die Spannungswandler werden mitgekühlt. Die massive Kühllösung ist durchaus berechtigt, die Bauteile geben viel Wärme an den Alu-Block ab und dennoch konnten wir auf dem PCB-Temperaturen von über 71°C messen.

 

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Die meisten Retail-Hersteller setzen bisher ebenso auf das schwarze Design und zugegeben - es macht einiges her. Zusammen mit der imposanten Größe der GeForce 8800GTX kann schon von einem schwarzen Riesen gesprochen werden. Für die Individualisierung ihrer Produkte, haben sich die Hersteller teils recht ansehnliche Designkonzepte für die Kühler einfallen lassen, was etwa im Vergleich zum ATI X1950XTX Einheitsbrei positiv hervorsticht. Unterschiede bei den Taktraten sucht man allerdings dieses Mal vergebens.

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

 

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Unter dem Kühler versteckt sich der riesige Grafikprozessor G80. Auf den Bildern kann man erkennen, welche Ausmaße das Bauteil einnimmt. Der eigentliche Die versteckt sich allerdings unter dem matt silbernen Heatspreader. Weiterhin lassen sich 12 der 900 MHz GDDR3 Chips von Samsung ausmachen. Diese fassen 512 Mbit und bilden zusammen die 768 MB Framebuffer. Der grüne Chip in der Nähe des Slotblechs ist für die Verarbeitung der Videosignale und des HDCP-verschlüsseltem Videomaterials verantwortlich.

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Für einige das Wichtigste: Die Bildqualität wurde deutlich verbessert - die AF-Qualität schauen wir uns auf der nächsten Seite an.


Die Bildqualität von NVIDIA-Karten, insbesondere die Abbildungsleistung des anisotropen Filters, war lange Zeit der Konkurrenz nicht ebenbürtig. Um Performance zu sparen, wurde auf einen winkelunabhängien Filtermechanismus verzichtet. Das Resultat war ein im Detailgrad inhomogenes Bild. ATI ermöglichte mit der High-Quality-Einstellung ihres anisotropen Filters erstmals eine weitgehend winkelunabhängige Filterung von Texturen, was die Bildqualität enorm verbesserte. Die GeForce 8800GTX soll nun mit diesem Misstand aufräumen und dank ausreichender Leistung die Winkel aus den Berechnungen verbannen. Für einen genauen Vergleich verwenden wir das Tool "D3D AF Tester". Dieses rendert einen runden Tunnel (das "Schachbrettmuster") und wendet auf diesen einen eingestellten AF-Index an. Die auf den Screenshots sichtbaren Farben stellen die Mipmaps dar. Auf einem perfekten Ergebnis -in Bezug auf die Bildqualität und maximalen Detailgrad- wären keine Farben mehr sichtbar, da zur Abbildung nur die Basistextur und keine, im Detaillevel reduzierte, Mipmap zum Einsatz käme. In der Praxis sind jedoch Mimaps weiterhin nötig und man muss sich mit einer anständigen Filterung dieser zufrieden geben. Etwaige Zacken in den Farbkreisen (z.b. bei der GeForce 7900GTX sichtbar) sind ein Zeichen für eine winkelabhängige anisotrope Filterung. An einem Zacken wird nicht mit dem vollen Filterindex gefiltert, sondern aus Performancegründen auf niedrigere Indizes zurück gegriffen. Hier müssen höhere Mip-Level (kleiner und detailärmer) Texturen verwendet werden.

2x Anisotroper Filter, ATI X1950XTX Default, NVIDIA 8800GTX Quality Modus (Default)

Bei zweifacher Filterung haben beide Karten noch genug Performance um weitgehend winkelunabhängig zu filtern.

8x Anisotroper Filter, ATI X1950XTX Default, NVIDIA 8800GTX Quality Modus (Default)

Bereits bei 8-fachem Anisotropen Filter trennt sich die Spreu vom Weizen. Der G80 filtert fast vollkommen winkelunabhängig und sorgt für eine homogene Mipmap-Verteilung in sämtliche Richtungen. Darüber hinaus greift der R580+ noch etwas tiefer in die Miplevel-Kiste und führt zwei weitere Miplevel ein.

16x Anisotroper Filter, ATI X1950XTX Default, NVIDIA 8800GTX Quality Modus (Default)

Nun sind minimale Abweichungen von der Kreisform beim G80 zu erkennen. Der ATI R580+ zeigt allerdings das deutlich inhomogenere Bild.

2x Anisotroper Filter, ATI X1950XTX HQ, NVIDIA 8800GTX HQ

Auch auf hoher Qualität haben beide Chips genug Power um 2x anisotrop zu Filtern.

8x Anisotroper Filter, ATI X1950XTX HQ, NVIDIA 8800GTX HQ

Die bessere AF-Qualität des ATI HQ-Modus im Vergleich zum Standardverfahren ist deutlich zu erkennen, die GeForce 8800GTX zeigt uns aber trotzdem immernoch die schönere Abbildung.

16x Anisotroper Filter, ATI X1950XTX HQ, NVIDIA 8800GTX HQ

Beide Kreisscharen sind relativ homogen. Allerdings führt der ATI-Chip eine weitere Mipmap ein (gelb im Zentrum des Kreises), wo NVIDIA noch mit einem Miplevel niedriger vorlieb nimmt.

Anschließend folgen die Vergleiche zwischen der GeForce 7900GTX und der 8800GTX, denn auch hier sind teils deutlichere Fortschritte zu erkennen. Hier hat die neue Generation der alten einiges voraus, aufgrund des fehlenden winkelunabhängigen AF bei der GeForce 7900GTX (AF Stufen größer als 2) ist der Qualitätsgewinn auf den ersten Blick ersichtlich.

2x Anisotroper Filter, NVIDIA GeForce 7900GTX Quality Modus (Default), NVIDIA 8800GTX Quality Modus (Default)

8x Anisotroper Filter, NVIDIA GeForce 7900GTX Quality Modus (Default), NVIDIA 8800GTX Quality Modus (Default)

16x Anisotroper Filter, NVIDIA GeForce 7900GTX Quality Modus (Default), NVIDIA 8800GTX Quality Modus (Default)

2x Anisotroper Filter, NVIDIA GeForce 7900GTX HQ, NVIDIA 8800GTX HQ

8x Anisotroper Filter, NVIDIA GeForce 7900GTX HQ, NVIDIA 8800GTX HQ

16x Anisotroper Filter, NVIDIA GeForce 7900GTX HQ, NVIDIA 8800GTX HQ

Klares Fazit: Endlich hat es NVIDIA geschafft, einen sehr guten anisotopen Filter zu realisieren, was bei - wie man sehen wird sehr guter Performance - der Bildqualität deutlich zu Gute kommt.


Ein weiteres Manko bezüglich der Bildqualität von NVIDIA Karten war stets die mangelnde Fähigkeit, High Dynamic Range Rendering gleichzeitig mit Antialiasing (MSAA) berechnen zu können. Der G80 Chip ermögtlicht dies nun und sorgt für HDRR und Kantenglättung, wie in dem Beispielscreenshot von Oblivion. Dieses Manko trat vor allen Dingen optisch zu Tage, wenn aufgrund des fehlenden Antialiasings Spiegelungen pixelig erschienen. Beim Aktivieren von Antialiasing hingegen waren HDR-Effekte nicht mehr sichtbar.

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Als weiteres Feature bietet NVIDIA nun CSAA (Coverage Sampling AntiAliasing). CSAA ist eine Möglichkeit, annähernd dieselbe grafische Qualität wie Multisampling zu erhalten, dabei aber deutlich weniger Speicher zu verbrauchen. Durch diesen Effekt ist es möglich, auch höhere Multisampling-Stufen mit annehmbarer Geschwindigkeit darstellen zu können (z.B. 16xAA). Dies wird erreicht, indem redundante Informationen komprimiert werden. Die Einsparungen zeigt die unten stehenden Grafik:

CSAA arbeitet hervorragend mit bestehenden Renderingtechniken zusammen, auch mit HDR oder Stencil-Algorithmen. Die Shader- und Textur-Hardware wird effizient genutzt, Speicherplatz wird gespart. Mit CSAA ist es möglich, 16xQ mit annehmbarer Performance (ungefähr wie 4xAA) auch bei höheren Auflösungen laufen zu lassen. Die Bildqualität von CSAA werden wir uns in einem gesonderten Artikel ansehen.


Natürlich unterstützen die GeForce 8800-GTX- und GTS-Karten auch den SLI-Betrieb. Ein entsprechendes Mainboard vorausgesetzt (z.B: nForce 590 SLI für AMD oder nForce 680i bei Intel) teilen sich zwei der Boliden die Arbeit und erhöhen die Leistungsfähigkeit teils signifikant. Allerdings gehört dazu auch ein performanter Unterbau. Um mit einem G80-SLI-System aus dem Vollen zu schöpfen, muss ein schneller Prozessor für Input sorgen. In unserem Testaufbau mit einem Intel Core 2 Extreme 6800 gelang es diesem nicht immer, den Datenhunger der Grafikchips gerecht zu werden. Viele Spiele, darunter auch einige unserer Benchmarks, können die Leistung, die in zwei G80-Prozessoren steckt nicht umsetzen. Mit zukünftigen DirectX-10-Titeln und massivem Einsatz von Geometryshadern oder Physik-Berechnungen wird aber auch irgendwann ein solches Gespann ausgelastet werden können.

Zwei GeForce 8800GTX im SLI Modus
Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Beim G80 PCB ist so einiges doppelt vorhanden - neben zwei Stromanschlüssen, befinden sich auch zwei SLI-Steckverbinder auf der Platine. Die zweite dient dazu, in Zukunft eine dritte Grafikkarte mit in den Verbund zu gliedern, um dort weitere Berechnungen auslagern zu können, etwa Physik- oder andere General-Purpose-Anwendungen.

Die zwei Brücken
Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Die SLI-Benchmarkwerte für die Spiele sind in den jeweiligen Kapiteln zu finden. Hier wollen wir dennoch auf die 3DMark06 Score eines 8800 GTX SLI-Gespannes eingehen. Wir erzielten ein Ergebnis von 13350 Punkten, was einem Leistungsgewinn gegenüber einer Single-Karte von gut 25 Prozent entspricht. Knapp 600 Euro für ein Viertel mehr Leistung auszugeben, klingt natürlich hart. Jedoch kann man 3DMark Punkte nicht direkt in Performance ummünzen: Wie bei vielen anderen Benchmarks limitiert hier nur die CPU - ein SLI-System benötigt deutlich mehr CPU-Rechenzeit, als eine Einzelkarte. Eine übertaktete CPU sollte sogleich deutlich bessere Ergebnisse liefern. Ein G80-SLI wurde scheinbar nicht für die aktuell verfügbare Prozessorgeneration entwickelt ;)

Auch Overclocking gelang uns mit dem aktuellen Treiber noch nicht - Tests mit einem übertakteten SLI-System werden wir noch nachreichen.


Um ihr volles Potential auszuschöpfen benötigen moderne Grafikkarten ein leistungsfähiges System als Basis. Besonders die CPU ist gefordert, liegt es doch an ihr, die Grafikkarte mit Eingabewerten zu beschicken, die das Rendern von 3D-Bildern überhaupt erst initiieren. Ist der Prozessor nicht in der Lage, die Daten schnell genug an die 3D-Hardware weiter zu reichen, wird er schnell zum Flaschenhals und bremst das gesamte System. Obwohl wir einen Intel Core 2 Extreme x6800 Prozessor in unserem Testsystem einsetzen, können einige Benchmarkergebnisse von einer CPU-Limitierung beeinflusst worden sein. Besonders niedrige Auflösungen und Benchmarks mit Crossfire- oder SLI-Systemen unterliegen diesem Effekt. Aktuell ist ein solches Verhalten allerdings nur bei niedrigen, unmodifizierten Bildausgaben von Half-Life 2: Lost Coast zu beobachten. In naher Zukunft werden wir diesen Benchmark durch einen anderen Vertreter der Source Engine ersetzen.

Als Betriebssystem-Untersatz dient Microsoft Windows XP mit Service Pack 2, inkl. der aktuellen Security Patches des Herstellers. Durch Modifikationen an Windows können im ein oder anderen Test durchaus bessere Werte erzielt werden, jedoch soll unser Test möglichst realitätsnah bleiben und besonders beim Betriebssystem die Gegebenheiten beim Durchschnitts-Nutzer nachbilden. Neben den Benchmarkprogrammen und einigen Diagnose- und Monitoringtools befindet sich allerdings keine weitere Software auf der Festplatte des Rechners. Bis auf wenige Ausnahmen (evtl. Inkompatibilitäten oder sonstige Probleme) testen wir mit den neuesten Grafiktreibern, welche in stabilen Versionen verfügbar sind. Da wir häufig auch Grafikkarten bekommen, die noch keinen technischen Endkundensupport genießen, können manche Tests auch mal mit Beta-Treibern oder sonstigen Vorabversionen durchlaufen werden.

Die Kombination der Treibereinstellungen, mit denen die Benchmarks durchgeführt werden orientiert sich ebenso an dem Grundsatz, möglichst realistische Szenarien zu simulieren. Das Finden des richtigen Setups ist fast schon eine Philosophie. Wir testen mit den folgenden Treibereinstellungen:

Treibereinstellungen: NVIDIA-Grafikkarten

Treibereinstellungen: ATI-Grafikkarten

Hardware:

Software:

Benchmarks:

Battlefield 2 testen wir dieses Mal nicht mit: Bei diversen Auflösungen lieferte das Benchmark-Programm Fehler, weil es mit der hohen Anzahl an Frames nicht zurechtkam und abstürzte...


Eigentlich eher funktioneller Natur, zeigen sich die zwei PCI-Express-Stromanschlüsse zu Achtern der Karte. Laut NVIDIA würde bei dem normalen Stromverbrauch der Karte auch ein einzelner Stecker ausreichen - gerade so wie bei einer X1950XTX. Bei minderwertigen Netzteilen oder ungünstigen Konstellationen könnte allerdings die Karte auch einmal mehr Strom ziehen, als die PCI-Express-Spezifikation es für einen einzelnen PCIe-Stromanschluss vorsieht. Deshalb setzt man vorsichtshalber auf zwei Anschlüsse.

Dessen ungeachtet bergen sie für viele Käufer wohl ein großes Prestigepotential und die Netzteilhersteller reiben sich ohnehin schon die Hände: Für einen sicheren Betrieb einer GeForce 8800 GTX empfiehlt NVIDIA eine mindestens 450 Watt starke Stromversorgung, mit 30 Ampere auf der 12-Volt-Leitung. Eine GeForce 8800 GTS zeigt sich etwas genügsamer und ist bereits mit einem 400-Watt-Netzteil und 26 Ampere zufrieden.

Der Schrecken jedes Durchschnittsnetzteils: Zwei GeForce 8800GTX wollen über vier PCI-E Stromanschlüsse versorgt werden. Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Der Stromhunger eines G80 SLI Systems bringt dann allerdings die meisten Netzteile an ihre Belastungsgrenze.NVIDIA gab uns eine Liste mit SLI zertifizierten Netzteilen an die Hand, die alle bereits stark in Richtung 1 Kilowatt Leistung tendieren. NVIDIA verlangt darüber hinaus vier dedizierte PCI-E Stromstecker, allerdings konnten wir für unseren Test auch mit Molex/PCI-E-Adaptern aushelfen. Allerdings war das Netzteil aus dem Testsystem mit 750 Watt Nominalleistung bereits eher unterdimensioniert. Wer wirklich auf SLI setzen möchte, wird sicherlich auch noch Geld für eines der zertifizierten Netzteile übrig haben.

Stromverbrauch idle

Die GeForce 8800 GTX langt ims SLI auch im Idle-Betrieb ordentlich zu. 283 Watt für das Gesamtsystem garantieren dem Gespann konkurrenzlos den ersten Platz. Auch eine einzelne Karte im Idle-Betrieb ist recht stromfressend - hier gibt NVIDIA aber an, dass die Stromsparfunktionen der GPU im aktuellen Treiber noch nicht 100%ig implementiert sind.

Stromverbrauch Last

Unter Vollast setzt sich der Trend im Energieverbrauch weiter fort. Eine einzelne Karte kratzt schon knapp an der 300-Watt-Marke. Ein SLI-Duett könnte mit einem Kentsfield locker über 500 Watt unter Lastbedingungen verbrauchen - respektabel, aber natürlich nicht kompatibel zu einer niedrigen Stromrechnung. Wenn man hingegen den Performance-per-Watt-Gedanken mit in die Berechnungen aufnimmt, liegt die Karte deutlich besser als ATIs X1950XTX.

Auch wenn der G80 bereits unter Standardtakt die Konkurrenz in große Bedrängnis bringt: Ein paar MHz Takt gehen immer! NVIDIA hat sich entschieden, ab der Treiberversion 95 die Übertaktungsfunktionen in das Programm nTune auszulagern. Zum Test stand die Software in Version 5.05 bereit. Die OC-Erfolge hielten sich leider in Grenzen, jedoch sind bei Spannungserhöhung und dem Einsatz einer Wasserkühlung sicherlich bessere Ergebnisse zu erzielen. Wir übertakteten mit dem Standardkühler und den Standardspannungen.

Die paar MHz mehr bringen nochmal etwas mehr Performance. In naher Zukunft werden wir uns dem Thema G80-Overclocking auch noch einmal ausführlich widmen.


Call of Duty 2 - 1.280 x 1.024 (Activision)

Call of Duty 2 ist der Nachfolger des im Jahre 2003 erschienen Shooters Call of Duty. In den linearen, aber dennoch spannenden Levels kämpft man auf den verschiedensten Erdteilen. Die Atmosphäre ist packend und durch die geskripteten Ereignisse kommt es zu überraschenden Wendungen. Anders als der Vorgänger setzt Infiniy Ward eine eigens entwickelte Grafik-Engine ein, die das Geschehen gekonnt in Szene setzt. Die Grafikeffekte sind auf dem aktuellen Stand und fordern auch die neuesten Grafikkarten. Es werden viele Shader-Effekte, komplexe Texturen und beeindruckede Rauch- und Nebeleffekte eingesetzt, um den Spieler mitten ins Geschehen zu versetzen. Wir verwenden eine im Multiplayer-Modus aufgenommene Timedemo. Im Spiel wurden die höchstmöglichen Grafikeinstellungen ausgewählt.

Die GeForce 8800GTX setzt sich sofort an die Spitze der Single-GPU Karten und erreicht in etwa 80% der Leistung eines ATI X1950XTX Crossfire Gespanns. Diese Bild wird bei vielen Benchmarks präsent sein. Der SLI Verbund erreicht 88,8 FPS. Das die Benchmarkwerte bei 1280 x 1024 4xAA/16xAF und 1600 x 1200 in einem ähnlichen Bereich liegen, deutet sehr auf eine CPU Limitierung hin. Dieses Bild werden wir ebenso später wieder sehen.

Call of Duty 2 - 1.280 x 1.024, 4x AA, 16x AF

Call of Duty 2 - 1.600 x 1.200

Call of Duty 2 - 1.600 x 1.200, 4x AA, 16x AF

Call of Duty 2 - 1.920 x 1.440

Call of Duty 2 - 1.920 x 1.440, 4x AA, 16x AF

Call of Duty 2 - 2.048 x 1.536

Call of Duty 2 - 2.048 x 1.536, 4x AA, 16x AF

Call of Duty 2 - Performance - 1.280 x 1.024 (Quotient aus Benchmarkwert von 1.280 x 1.024 und 1.280 x 1.024, 4xAA, 16x AF)

Call of Duty 2 - Performance - 1.600 x 1.200 (Quotient aus Benchmarkwert von 1.600 x 1.200 und 1.600 x 1.200, 4xAA, 16x AF)

Call of Duty 2 - Performance - 1.920 x 1.440 (Quotient aus Benchmarkwert von 1.920 x 1.440 und 1.920 x 1.440, 4xAA, 16x AF)

Call of Duty 2 - Performance - 2.048 x 1.536 (Quotient aus Benchmarkwert von 2.048 x 1.536 und 2.048 x 1.536, 4xAA, 16x AF)

Je höher die Auflösung, je besser kommt die GeForce 8800 GTX in Fahrt - bei 2.048 x 1.536, 4x AA, 16x AF schlägt sie schlussendlich fast als Single-Karte das X1950XTX-CrossFire-Gespann von ATI. Die SLI-Werte bleiben praktisch an der CPU-Limitierung bis zu derselben Auflösung.


F.E.A.R. - 1.280 x 1.024 (Sierra)

Wem Doom 3 gefällt, wird an Fear sicherlich auch gefallen finden. Auch in diesem Spiel setzt man auf Schocker-Effekte, die durch die hervorragende Grafik unterstützt wird. Neben sehr gutem Bump-Mapping werden haufenweise Shader, detaillierte Texturen sowie beeindruckende Schatten- und Partikeleffekte eingesetzt. Zum Benchmarken verwenden wir die Vollversion mit der darin enthaltenen Benchmark-Funktion. Alle Grafikeinstellungen wurden auf das Maximum gesetzt, lediglich der Eintrag "Soft Shadows" wurde auf "aus" belassen.

F.E.A.R. - 1.280 x 1.024, 4x AA, 16x AF

F.E.A.R. - 1.600 x 1.200

F.E.A.R. - 1.600 x 1.200, 4x AA, 16x AF

F.E.A.R. - 1.920 x 1.440

F.E.A.R. - 1.920 x 1.440, 4x AA, 16x AF

F.E.A.R. - 2.048 x 1.536

F.E.A.R. - 2.048 x 1.536, 4x AA, 16x AF

F.E.A.R. - Performance - 1.280 x 1.024 (Quotient aus Benchmarkwert von 1.280 x 1.024 und 1.280 x 1.024, 4xAA, 16x AF)

F.E.A.R. - Performance - 1.600 x 1.200 (Quotient aus Benchmarkwert von 1.600 x 1.200 und 1.600 x 1.200, 4xAA, 16x AF)

F.E.A.R. - Performance - 1.920 x 1.440 (Quotient aus Benchmarkwert von 1.920 x 1.440 und 1.920 x 1.440, 4xAA, 16x AF)

F.E.A.R. - Performance - 2.048 x 1.536 (Quotient aus Benchmarkwert von 2.048 x 1.536 und 2.048 x 1.536, 4xAA, 16x AF)

Auch hier ein heftiges Ergebnis: Bei 1600x1200 mit 4xAA und 16xAF erreicht die Karte ein fast doppelt so gutes Ergebnis wie die 7900 GTX von NVIDIA - sie schlägt die ATI-Karten ebenso und lässt sogar die 7950 GX2 deutlich hinter sich. Letztendlich knabbert sie auch an den guten Werten des X1950XTX-CrossFire-Gespanns. Das SLI-Setup macht dann die Sache wieder klar und spielt den Rest deutlich an die Wand.


Half Life 2: Lost Coast - 1.280 x 1.024 (Valve)

Half Life 2 ist der Nachfolger des sehr populären Half Life und setzt die Story des Vorgängers fort. Dank der Source-Engine werden Außen- und Innenlevel in vollster Grafikpracht auf den Bildschirm gezaubert. Half Life 2 macht starken Gebrauch des Shader Model 2.0, sodass beeindruckende Grafikeffekte auf den Bildschirm gebracht werden. Nach einigen Monaten wurde die Technologie-Demo "Lost Coast" veröffentlicht, die (ein abgespecktes) "High Dynamic Range Rendering" unterstützt, wodurch die Lichteffekte noch besser aussehen. Dabei werden die Grafikkarten stark gefordert. Zum Benchen verwenden wir die integrierte Benchmark-Funktion.

Die Source Engine läuft auf jeder halbwegs aktuellen Grafikkarte ausreichend performant. Dem SLI-Gespann ist es schlichtweg oversized, welche Auflösung und welche Fitlerstufen es für Half-Life 2 berechnen muss. Mit gut über 170 Frames zeigt sich wieder die CPU als einziger Flaschenhals.

Half Life 2: Lost Coast - 1.280 x 1.024, 4x AA, 16x AF

Half Life 2: Lost Coast - 1.600 x 1.200

Half Life 2: Lost Coast - 1.600 x 1.200, 4x AA, 16x AF

Half Life 2: Lost Coast - 1.920 x 1.440

Half Life 2: Lost Coast - 1.920 x 1.440, 4x AA, 16x AF

Half Life 2: Lost Coast -2.048 x 1.536

Half Life 2: Lost Coast - 2.048 x 1.536, 4x AA, 16x AF

Half Life 2: Lost Coast - Performance - 1.280 x 1.024 (Quotient aus Benchmarkwert von 1.280 x 1.024 und 1.280 x 1.024, 4xAA, 16x AF)

Half Life 2: Lost Coast - Performance - 1.600 x 1.200 (Quotient aus Benchmarkwert von 1.600 x 1.200 und 1.600 x 1.200, 4xAA, 16x AF)

Half Life 2: Lost Coast - Performance - 1.920 x 1.440 (Quotient aus Benchmarkwert von 1.920 x 1.440 und 1.920 x 1.440, 4xAA, 16x AF)

Half Life 2: Lost Coast - Performance - 2.048 x 1.536 (Quotient aus Benchmarkwert von 2.048 x 1.536 und 2.048 x 1.536, 4xAA, 16x AF)

In dem CPU-limitierten Lost-Coast-Level, einer der graphisch aufwändigsten Source-Engine-Bereiche, kommt erst bei höchsten Auflösungen Leben ins Spiel. Eigentlich lohnt hier nur der Blick auf 2.048 x 1.536, 4x AA, 16x AF, da bei niedrigeren Auflösungen das Spiel von der CPU ausgebremst wird. Hier lässt eine einzelne GeForce 8800 die 7950 GX2 und die X1950 XTX CrossFire-Dual-Lösung deutlich hinter sich.


Prey - 1.280 x 1.024 (2k Games)

Prey ersetzt unseren, schon leicht in die Jahre gekommenen Doom 3 und Quake 4 Test. Letzteres ist zwar noch nicht ganz so alt, jedoch basieren beide, inklusive Prey auf der selben Engine. Jedoch holen die Jungs von 2k Games noch einiges aus der Doom 3 Engine heraus. Aufwendige- Shader und Schatteneffekte testen die Hardware auf ihre OpenGL Performance.

Prey - 1.280 x 1.024, 4x AA, 16x AF

Bei über 200 Frames pro Sekunde bleibt kaum Zeit, die Timedemo zu genießen. So schnell renderte noch keiner zuvor.

Prey - 1.600 x 1.200

Prey - 1.600 x 1.200, 4x AA, 16x AF

Prey - 1.920 x 1.440

Prey - 1.920 x 1.440, 4x AA, 16x AF

Prey - 2.048 x 1.536

Prey - 2.048 x 1.536, 4x AA, 16x AF

Prey - Performance - 1.280 x 1.024 (Quotient aus Benchmarkwert von 1.280 x 1.024 und 1.280 x 1.024, 4xAA, 16x AF)

Prey - Performance - 1.600 x 1.200 (Quotient aus Benchmarkwert von 1.600 x 1.200 und 1.600 x 1.200, 4xAA, 16x AF)

Prey - Performance - 1.920 x 1.440 (Quotient aus Benchmarkwert von 1.920 x 1.440 und 1.920 x 1.440, 4xAA, 16x AF)

Prey - Performance - 2.048 x 1.536 (Quotient aus Benchmarkwert von 2.048 x 1.536 und 2.048 x 1.536, 4xAA, 16x AF)

Lupenreiner Sieg für NVIDIA: Auch hier kann die GeForce 8800 GTX alle Karten hinter sich lassen. Prey zeigt bei 2.048 x 1.536, 4x AA, 16x AF, dass die Karte höchstens von einem X1950-XTX-CrossFire-Setup geschlagen werden kann. Im SLI-Betrieb sehen wir hingegen bislang unerreichte Frameraten.


Serious Sam 2 - 1.280 x 1.024 (Croteam)

Serious Sam 2 bietet ein grafisches Feuerwerk. Durch die Verwendung der neuen Serious Engine 2 werden aktuelle Grafikkarten bis an ihre Grenzen gefordert. Die Engine macht vor allem von den Vertex- und Pixel-Shadern Gebrauch. Dabei werden die aktuellsten Grafik-Features wie dem Shader Modell 3.0 eingesetzt. Wir verwenden die Vollversion, mit einem Benchmarktool und der im Spiel enthaltenen Timedemo "Greendale". Alle Grafikeinstellungen wurden auf maximal gestellt. HDR Rendering wird nur ohne gleichzeite Bildverbesserer wie Antialiasing oder anisotroper Filterung aktiviert.

Wo der G80 schon tolle Werte erreicht setzt ein zweiter Chip nochmal einiges an Frames oben drauf. Selbst bis hin zu Auflösungen von 2048 x 1536 und 4x Antialiasing und 16x anisotroper Filterung werden Frameraten von über 100 FPS erzielt.

Serious Sam 2 - 1.280 x 1.024, 4x AA, 16x AF

Serious Sam 2 - 1.600 x 1.200

Serious Sam 2 - 1.600 x 1.200, 4x AA, 16x AF

Serious Sam 2 - 1.920 x 1.440

Serious Sam 2 - 1.920 x 1.440, 4x AA, 16x AF

Serious Sam 2 - 2.048 x 1.536

Serious Sam 2 - 2.048 x 1.536, 4x AA, 16x AF

Serious Sam 2 - 1.280 x 1.024 (Quotient aus Benchmarkwert von 1.280 x 1.024 und 1.280 x 1.024, 4xAA, 16x AF)

Serious Sam 2 - Performance - 1.600 x 1.200 (Quotient aus Benchmarkwert von 1.600 x 1.200 und 1.600 x 1.200, 4xAA, 16x AF)

Serious Sam 2 - Performance - 1.920 x 1.440 (Quotient aus Benchmarkwert von 1.920 x 1.440 und 1.920 x 1.440, 4xAA, 16x AF)

Serious Sam 2 - Performance - 2.048 x 1.536 (Quotient aus Benchmarkwert von 2.048 x 1.536 und 2.048 x 1.536, 4xAA, 16x AF)

Auch hier wieder dasselbe Spiel: Mit AA und AF kann höchstens die X1950XTX im Dualgespann einer GeForce 8800 GTX Konkurrenz machen. Das SLI-Setup überflügelt mal wieder alles.






NVIDIA hat mit der GeForce 8800GTX ein wahres Monster geschaffen. Unglaublich groß, unglaubliche Features und unglaublich schnell. Besonders mit einem SLI-System stößt man schnell an die Grenzen der eigenen Hardware. In unseren Benchmarks waren wir weitaus häufiger mit einer CPU-Limitierung konfrontiert, als sonst - und das, obwohl der Intel Core2 Extreme X6800 im Moment der schnellste Gaming-Prozessor am Markt ist. Wer also SLI einsetzt, braucht entweder anspruchsvollere Spiele oder muss seinen Prozessor übertakten, um die Grafikkarten voll auslasten zu können.

Allerdings hat das gute Stück auch einen exorbitanten Preis. Mindestens 550 Euro wollen die Hersteller für eine GeForce 8800 GTX sehen - vom Preis-Leistungsverhältnis ist dies allerdings durchaus gerechtfertigt, denn in vielen Bereichen erreicht die Karte 60 bis 80% mehr Performance als eine GeForce 7900 GTX oder eine Radeon X1950 XTX. Häufig wird zu diesem Kaufpreis auch noch ein neues Netzteil fällig sein. Wer seine Stromrechnungen statistisch auswertet, wird wohl genau den Zeitpunkt des Grafikkarteneinbaus nachvollziehen können, denn auch im Stromverbrauch schießt die schwarze Karte an die Spitze unserer Leistungsvergleiche. Der Unterschied zu der X1950XTX von ATI ist jedoch im Vergleich noch gering - und da 681 Millionen Transistoren in dem Pixelmonster arbeiten, ist der Stromverbrauch pro Transistor gerechnet vergleichsweise human. Auch erhält man im Gegenzug die derzeit schnellste Grafikkarte, die ihre Konkurrenz eher in den CrossFire-Lösungen der Mitstreiter findet, als in Modellen mit ebenbürtiger Prozessorzahl.

Die Karten sind jetzt also da - nun fehlen nur noch die entsprechenden Spiele, um auch Spaß damit zu haben. Wir haben uns in diesem Spiel ausschließlich den bestehenden Games am Markt gewidmet - mit Windows Vista, DirectX 10 und den neuen Spielen steht dann eine neue Grafikpracht ins Haus. Wir sind gespannt, wie sich die GeForce 8800 GTX dort schlägt. Erste Demos von "Adriana", dem neuen Model von NVIDIA für die G80-Serie, die dem brasilianischen Model Adriana Curry nachempfunden ist, beweisen die Leistungsfähigkeit der Karte.

Positive Punkte NVIDIA GeForce 8800 GTX:

Negative Punkte der NVIDIA GeForce 8800 GTX:

In unserem Heft, der Ausgabe 01/2007 zum 15.11., bieten wir weitere Informationen zur Architektur der Karte. Denn auch diese müsste eigentlich auf der Liste der positiven Features aufgeführt werden, auch wenn man als Consumer von der Architektur eigentlich nicht direkt etwas spürt - die Grafikkarte soll ja schließlich nur gut und schnell funktionieren.

Weitere Links:


Am frühen Nachmittag erreichte uns noch in letzter Minute noch ein Paket von MSI: Der kostbare Inhalt entpuppte sich als NVIDIA GeForce 8800GTS. Wir haben mächtig Gas gegeben, um die Karte noch rechtzeitig durch den Benchmarkparcours zu schicken, um auch diese Werte in diesem Test mit aufzunehmen.

Die kleine Schwester des schwarzen Monsters muss sich mit etwas gesenkten Taktraten zufrieden geben. 500 MHz GPU und 800 MHz Speichertakt sorgen allerdings immernoch für gute Performance. Des Weiteren ist der 640 MB große Framebuffer "nur" über ein 320 Bit breites Interface angebunden und die um 32 auf 96 Stück reduzierten Stream Prozessoren takten mit 1200 MHz. Dafür vernichtet die Karte aber deutlich weniger Energie, wie wir in unseren Strommessungen feststellen konnten und benötigt nur einen PCI-E-Stromstecker. Ein ausführlicher Test der Grafikkarte folgt in einem Test in Hardwareluxx [printed] Ausgabe 02/2007 zum 08. Januar.

In den Benchmarks landete die Karte mit Standardtaktraten bereits immer vor der X1950 XTX von ATI, teilweise sogar recht deutlich vor dieser Karte. Dabei war der Lüfter ebenso leise wie bei der GeForce 8800 GTX. Der Abstand in den Benchmarks zur GTX ist jedoch schon deutlich zu sehen. Die Karte ist ca. 3 cm kürzer als die große GTX.

Allerdings ließen wir es und nicht nehmen, die Kleine doch noch etwas zu quälen. So übertakteten wir die GeForce 8800GTS auf das GTX Niveau von 575 MHz Chip- und 900 MHz Speichertakt. Die Ergebnisse sind im folgenden abgebildet. Selbst mit der Standardkühlung, ist die MSI-Karte in der Lage noch etwas mehr als die hier erreichten Taktraten zu leisten. Für ein exaktes Ausloten der Overclocking-Grenze nehmen wir uns aber für den [printed] Test etwas mehr Zeit. 

 

Als erster Eindruck lässt sich festhalten, dass auch die GeForce 8800 GTS sich im Vergleich sehr gut schlägt.