Test: NVIDIA GeForce GTX 690

Veröffentlicht am: von

gtx-690-logoVor etwas mehr als einer Woche erreichte uns ein Paket von NVIDIA, in dem eine Brechstange lag. Sollte es sich dabei um einen Hinweise handeln, in welcher Art und Weise man die GeForce GTX 690 vorstellen wird, so kann man die PR-Aktion durchaus als gelungen bezeichnen. Völlig überraschend präsentierte NVIDIA auf einem Event in Shanghai am Wochenende die GeForce GTX 690 - nannte auch schon einige technische Details. Weder die Presse noch die Boardpartner waren über diesen Schritt informiert. Natürlich lag die GeForce GTX 690 in Form von zahllosen Gerüchten bereits seit geraumer Zeit in der Luft, dennoch wählte NVIDIA einen Launch "mit der Brechstange". Inzwischen haben auch wir ein Sample der GeForce GTX 690 erhalten und wollen uns diese etwas genauer anschauen.

Auf dem NVIDA Gaming Festival 2012 in Shanghai, China, stellte NVIDIAs CEO Jen-Hsun Huang höchstpersönlich die GeForce GTX 690 vor. Die 20-minütige Präsentation könnt ihr euch hier anschauen:

Die GeForce GTX 690 ist NVIDIAs erste Dual-GPU-Grafikkarte auf Basis von "Kepler". Keine Überraschung ist die Tatsache, dass zwei GK104 zum Einsatz kommen. Somit setzt sich die GeForce GTX 690 grundsätzlich aus zwei GeForce GTX 680 zusammen. Auf die Details wollen wir später noch genauer eingehen.

In unserem Preisvergleich sind die ersten Karten bereits zu finden. Der Preis beginnt bei 829 Euro ohne Mwst. die Karte wird also vermutlich bei knapp unter 1000 Euro starten.

Die technischen Daten haben wir tabellarisch zusammengefasst:

NVIDIA GeForce GTX 680 NVIDIA GeForce GTX 690
Straßenpreis ab 475 Euro ab 999 Euro
Homepage NVIDIA-Produktseite NVIDIA-Produktseite
Technische Daten
GPU GK104 2x GK104
Fertigung 28 nm 28 nm
Transistoren 3,54 Milliarden 2x 3,54 Milliarden
GPU-Takt 1006 MHz + Boost (1058 MHz) 915 MHz + Boost (1019 MHz)
Speichertakt 1502 MHz 1502 MHz
Speichertyp GDDR5 GDDR5
Speichergröße 2048 MB 2x 2048 MB
Speicherinterface 256 Bit 2x 256 Bit
Speicherbandbreite 192,2 GB/Sek. 192,2 GB/Sek.
DirectX-Version 11.1 11.1
Shadereinheiten 1536 (1D) 2x 1536 (1D)
Textur Units 128 2x 128
ROPs 32 2x 32
Pixelfüllrate 32,2 Gigapixel 2x 29,3 Gigapixel
Minimale Leistungsaufnahme 15 Watt 15 Watt
Maximale Leistungsaufnahme 195 Watt 300 Watt
SLI/CrossFire SLI SLI

Für die GeForce GTX 590 reduzierte NVIDIA den GPU-Takt von 772 auf 607 MHz, also um etwas mehr als 21 Prozent. Die architektonischen Details blieben in Form von zwei voll ausgebauten Fermi-GPUs identisch. Auch den Speicher-Takt setzte NVIDIA von 1002 auf 854 MHz herunter - um knapp 15 Prozent. Für die GeForce GTX 690 hat sich NVIDIA vorgenommen die volle GTX-680-SLI-Erfahrung zu bieten. Den GPU-Takt senkt NVIDIA dennoch von 1006 auf 915 MHz, aber nur noch um neun Prozent. Den Speicher-Takt hat man sogar bei 1502 MHz belassen. Somit schafft es NVIDIA wirklich fast die volle Performance zweier GeForce GTX 680 zu bieten. Zu verdanken hat dies NVIDIA vermutlich der effizienteren GPU-Architektur und der kleineren Fertigung. Bereits die GeForce GTX 680 präsentierte sich in zahlreichen Reviews als deutlich effizienter im Vergleich zu den "Fermi"-Karten.

Dennoch muss NVIDIA natürlich dem Verbrauch zweier GPUs Tribut zollen und setzt die TDP für die GeForce GTX 690 mit 300 Watt an. Die GeForce GTX 590 kommt auf eine TDP von 365 Watt und AMDs Radeon HD 6990 gar auf 375 Watt (450 Watt im OC-Betrieb). Mit ausreichend Leistung versorgt wird die GeForce GTX 690 über zwei 8-Pin-Anschlüsse, die zusammen mit dem PCI-Express-Steckplatz maximal 375 Watt an die Karte bringen können. Reichte der GeForce GTX 680 noch eine 4-phasige Spannungsversorgung aus, setzt NVIDIA bei der GeForce GTX 690 auf insgesamt 12 Phasen (fünf pro GPU plus jeweils eine für den dazugehörigen Speicher).

Per "GPU Boost" steigert die Karte den Takt der beiden GPUs auf mindestens 1019 MHz, was absolut gesehen fast doppelt so viel ist wie bei der GeForce GTX 680. In manchen Benchmarks konnten wir einen Takt von 1071 MHz auslesen. NVIDIA hat aber das maximale "Power Target" etwas reduziert und erlaubt nur ein Plus von 35 Prozent. Die angegebenen 300 Watt TDP bezieht sich auf die Leistungsaufnahme bei vollem Boost-Takt. Bei einem Default-Takt von 915 MHz zieht die Karte in etwa 263 Watt, sodass wir über das "Power Target" auf etwa 405 Watt kommen.

gtx690-gpuz2

Auf den folgenden Seiten werden wir uns die GeForce GTX 690 nun etwas genauer anschauen.


 

alles

Wie bereits in der Einleitung erwähnt, hat sich NVIDIA etwas Besonderes mit der GeForce GTX 690 einfallen lassen. Gut eine Woche vor dem Launch stellte man den Redaktionen bereits eine Brechstange zu und neben dem Bild des "Launches mit der Brechstange", lässt sich die Holzkiste auch sehr gut mit diesem Werkzeug öffnen. Die Retail-Karten werden natürlich nicht in einer solchen Verpackung ausgeliefert und kommen in einem üblichen Karton mit Lieferumfang daher.

alles

Schaut man sich die Beschriftung der Kiste etwas genauer an, so finden sich hier zahlreiche Schriftzüge und Zeichenketten. "0b" deutet auf den Binärcode hin, die Zahlen "1010110010" besagen im üblichen Zahlensystem "690". Das Geheimnis der weiteren Zahlen konnten wir bisher noch nicht entschlüsseln.

alles

Der erste Blick auf die Karte offenbart das Design des Kühlers mit einem zentralen Axiallüfters mit einem Durchmesser von 85 mm. Die Länge der GeForce GTX 690 beträgt 28 cm, damit ist sie genauso lang wie die GeForce GTX 590. Mit den 11 Zoll (27,94 cm) entspricht sie daher exakt den ATX-Spezifikationen. Im Vergleich zur AMD Radeon HD 6990, die 12 Zoll (30,5 cm) misst, ist sie also deutlich kompakter. In wenigen Wochen werden wir sehen, wie viel Platz AMD für die Radeon HD 7990 benötigt.

alles

Die Rückseite des PCBs lässt die Verwandtschaft zwischen GeForce GTX 590 und 690 am deutlichsten werden. Links und rechts sind die Positionen der GPUs zu erkennen. Dazwischen befindet sich die Spannungsversorgung, auf die wir später noch etwas genauer eingehen werden.

alles

Der zentral platzierte 85-mm-Lüfter der GeForce GTX 690 soll sich durch eine besondere Laufruhe auszeichnen. Durch die weitere Konstruktion der Kühlung spricht NVIDIA auch unter Last von einer im Vergleich zu einem GeForce-GTX-680-SLI-System geringeren Lautstärke. Eine wichtige Rolle soll dabei der Anstellwinkel der Lüfterschaufeln spielen. Verbessert wurde ebenfalls der Algorithmus, der sich um die Steuerung der Lüfterdrehzahl kümmert. So soll es nun keine Sprünge der Drehzahl mehr geben, sondern die Drehzahl wird stufenlos in Abhängigkeit von der Temperatur geregelt.

Unterhalb des Lüfters befindet sich die Bodenplatte des Kühlers, die direkt auf den Bauteilen des PCBs aufsitzt. In diese hat NVIDIA Kanäle fertigen lassen, welche Luft besser zu beiden Seiten ableiten sollen.

alles

Links und rechts neben dem Lüfter sind hinter Plexiglas die vernickelten Aluminium-Kühlrippen zu sehen. Eine leichte Beleuchtung hätte den optischen Effekt sicher noch verstärkt, auch wenn sich der Sinn eines solchen Moddings vielleicht nicht jedem erschließt.

Hier ebenfalls zu erkennen ist das Magnesium-Gehäuse, in das die Heatsinks und der Lüfter eingefasst sind. Durch den Einsatz dieses Materials verspricht sich NVIDIA bessere Wärmeleiteigenschaften, ein geringeres Gewicht und eine Geräuschdämmung.


 

alles

Die Stromversorgung der GeForce GTX 690 erfolgt über den PCI-Express-Steckplatz sowie zwei 8-Pin-Anschlüsse an der hinteren Kopfseite der Karte. Diese stellen jeweils 150 Watt zur Verfügung, sodass insgesamt theoretisch 375 Watt an die Karte gebracht werden können. Einige Netzteilhersteller liefern auch mehr als 150 bzw. 75 Watt durch einen 8-Pin- bzw. 6-Pin-Anschluss, sodass hier zusätzlicher Spielraum vorhanden ist.

alles

Das mittig über dem Lüfter zu sehende GeForce-GTX-Logo ist bei Betrieb der Karte beleuchtet. Ein optischer Effekt, der in einem geschlossenen Gehäuse sicher keine Rolle spielt, dann aber auch nicht weiter stört.

alles

Über den SLI-Anschluss können zwei GeForce GTX 690 in einem Quad-SLI zusammengeschlossen werden. Bei Gelegenheit werden wir sicherlich auch ein solches Quad-SLI-System unter die Lupe nehmen können.

alles

Die Rückseite des PCBs offenbart bereits einige Details der Karte. Hier sind z.B. einige Komponenten der Strom- und Spannungsversorgung zu sehen. NVIDIA verwendet ein PCB mit zehn Lagen, in das rund 62 Gramm Kupfer eingelagert sind. Dies soll die Wärmeabfuhr innerhalb der zahlreichen Schichten verbessern.

alles

Mit den "Kepler"-GPUs hat NVIDIA die Anzahl der unterstützten Displays deutlich gesteigert. Aus Platzgründen finden sich auf der Slotblende allerdings nur 2x Dual-Link-DVI-I, 1x Dual-Link-DVI-D und Mini-DisplayPort. Vielleicht hätte man auf den Einsatz eines DVI-Anschlusses verzichten sollen und statt dessen jeweils einen vollwertigen DisplayPort und HDMI-Anschluss verbauen sollen.

alles

Erst im eingebauten Zustand und bei den entsprechenden Lichtverhältnissen kann das beschriftete GeForce-GTX-Logo sich in seiner vollen Pracht präsentieren.


 

alles

Hier noch einmal ein Vergleich der GeForce GTX 590 (unten) mit der GeForce GTX 690 (oben). Länge und grundsätzliches Kühlprinzip sind identisch. In den Details unterscheiden sich beide Karten, abgesehen von den GPUs etc., aber deutlich voneinander.

alles

Ohne Kühler kann das massive PCB sich erst so richtig entfalten. Dass NVIDIA ein 10-Layer-PCB verwenden musste, ist sicherlich aufgrund der Anzahl der Bauteile verständlich. Im üblichen Housing ist links die GPU0 und rechts die GPU1 zu sehen. Dazwischen befindet sich die Spannungsversorgung.

alles

Rings um die GPU sind die acht GDDR5-Speicherchips mit jeweils 256 MB zu sehen. Rechts neben der ersten GPU befindet sich der PCI-Express-Switch aus dem Hause PLX.

alles

Pro GPU zeichnen sich fünf Phasen für eine stabile Spannungsversorgung verantwortlich. Die jeweils acht Speicherchips werden über eine extra Phase versorgt, sodass die Karte insgesamt auf eine 10+2 phasige Spannungsversorgung kommt.

alles

Um die beiden GPUs miteinander zu verbinden, setzt NVIDIA einen PEX 8747 von PLX Technology ein. Dabei handelt es sich um einen PCI-Express-3.0-Switch-Chip mit 48 Lanes. Über jeweils 16 Lanes bindet er die Grafikkarte über den Steckplatz an das System an. Jeweils 16 Lanes werden für die Anbindung der GPU eingesetzt.

Aufgrund des Wechsels auf PCI-Express-3.0 verwendet NVIDIA nicht mehr den hauseigenen NF200-Chip. Der PEX 8747 kann bis zu fünf PCI-Express-Ports in verschiedenen Konfigurationen bewerkstelligen und verbraucht laut Auskunft des Herstellers in etwa acht Watt. Wer sich näher mit dem Chips beschäftigen möchte, kann dies auf der Produktseite des Herstellers machen.

alles
 
Sind die GPUs der GeForce GTX 680 mit "GK104-400-A2" beschriftet, lautet sie auf den GPUs der GeForce GTX 690 "GK104-355-A2". Architektonisch unterscheiden sich die beiden Chips allerdings nicht. Man darf allerdings davon ausgehen, dass NVIDIA selektierte Modelle für die GeForce GTX 690 einsetzt. Somit kann man nicht nur solche mit niedrigerer Spannung und niedrigerem Verbrauch einsetzen, sondern auch einen höheren "GPU Boost" gewährleisten.
 
alles

Bereits erwähnt haben wir die jeweils acht GDDR5-Speicherchips pro GPU. Diese stammen aus dem Hause Samsung und nicht wie auf der GeForce GTX 680 von Hynix. Der Samsung K4G20325FC ist für eine Spannung von 1,5 Volt und einen Takt von 1500 MHz spezifiziert.

alles

Der Kühler selbst besteht aus einer massiven Metallplatte, die von einem Gehäuse aus Magnesium abgedeckt wird, die dann auch den Lüfter sowie die beiden Heatsinks beinhaltet. Die Position der GPU, Speicherchips und weiteren Bauteile ist sehr schön anhand der Wärmeleitpads zu erkennen.

alles

NVIDIA setzt zur Kühlung der GPUs auf jeweils eine Vapor-Chamber. Diese überträgt die Abwärme auf die Heatsinks, deren Kühlrippen hier ebenfalls zu sehen sind.


Um die Treiber-Generationen anzugleichen, aber auch um die Hardware auf ein neues Level vorzubereiten, haben wir das Testsystem etwas umgestellt. Der Intel Core i7-3960X wird von 3,2 GHz auf 4,2 GHz übertaktet, um Limitierungen durch den Prozessor weitestgehend auszuschließen. Folgende Systemkomponenten kommen dabei zum Einsatz:

Testsystem
Prozessor Intel Core i7-3960X 3,3 GHz übertaktet auf 4,2 GHz
Mainboard ASUS P9X79
Arbeitsspeicher ADATA XPG Gaming Series Low Voltag 4x 2 GB PC3-12800U CL 9-9-9-24
Festplatte ADATA S510 SSD 60 GB
Netzteil Seasonic Platinum Series 1000 Watt
Betriebssystem Windows 7 64 Bit mit SP1
Grafikkarten
NVIDIA NVIDIA GeForce GTX 690 (915/1502 MHz, 4096 MB)
NVIDIA GeForce GTX 680 (1006/1502 MHz, 2048 MB)
NVIDIA GeForce GTX 590 (608/1215/854 MHz, 3072 MB - 1536 MB effektiv) 
NVIDIA GeForce GTX 580 (772/1544/1000 MHz, 1536 MB)
NVIDIA GeForce GTX 570 (732/1464/950 MHz, 1280MB)
NVIDIA GeForce GTX 560 Ti 448 Cores (732/1464/950 MHz, 1280 MB) 
NVIDIA GeForce GTX 560 Ti (820/1640/1000 MHz, 1024 MB)
NVIDIA GeForce GTX 560 (810/1620/1002 MHz, 1024 MB) 
NVIDIA GeForce GTX 550 Ti (900/1800/1026 MHz, 1024 MB)
AMD AMD Radeon HD 7970 (925/925/1375 MHz, 3072 MB) 
AMD Radeon HD 7950 (800/800/1250 MHz, 3072 MB) 
AMD Radeon HD 7870 (1000/1000/1200 MHz, 2048 MB) 
AMD Radeon HD 7850 (860/860/1200 MHz, 2048 MB) 
AMD Radeon HD 7770 (1000/1000/1125 MHz, 1024 MB) 
AMD Radeon HD 7750 (800/800/1125 MHz, 1024 MB)
AMD Radeon HD 6990 (830/830/1250 MHz, 4096 MB - 2048 MB effektiv) 
AMD Radeon HD 6970 (880/880/1375 MHz, 2048 MB) 
AMD Radeon HD 6950 (800/800/1200 MHz, 2048 MB)
AMD Radeon HD 6870 (900/900/1050 MHz, 1024 MB)
AMD Radeon HD 6850 (775/775/1000 MHz, 1024 MB)
AMD Radeon HD 6790 (840/840/1050 MHz, 1024 MB)
AMD Radeon HD 6770 (850/850/1200 MHz, 1024 MB)
Treiber
NVIDIA GeForce 301.33 WHQL
AMD Catalyst 12.3 Preview

Unsere Testsysteme werden ausgestattet von ASUS, Intel, ADATA, Thermaltake und Seasonic. Vielen Dank für die Bereitstellung der Komponenten!

Treibereinstellungen NVIDIA:

Textureinstellungen AMD:

Folgende Benchmarks kommen mit den genannten Settings zum Einsatz:

Futuremark 3DMark 11 (DX11):

LuxMark 2.0 (OpenCL):

Anno 2070 (DX11):

Battlefield 3 (DX11):

Call of Duty: Modern Warfare 3 (DX9):

Crysis Warhead (DX10):

Crysis 2 (DX11):

Rage (OpenGL):

The Elder Scrolls V: Skyrim (DX9):

The Witcher 2 (DX9):

Metro 2033 (DX11):


Beginnen wollen wir unsere Messreihen wie immer mit dem Stromverbrauch:

mess1

Bereits der erste Test eines SLI-Systems bestehend aus zwei GeForce GTX 680 hat gezeigt, dass NVIDIA durch die Effizienz der "Kepler"-GPU beim Idle-Stromverbrauch deutlich nachgebessert hat. Für die GeForce GTX 690 messen wir einen um sieben Watt höheren Verbrauch im Vergleich zum SLI-System. Gerade zur GeForce GTX 590 dürfen wir aber von einer deutlichen Verbesserung sprechen.

mess1

Deutlich über 500 Watt verbrauchte des Gesamtsystem nur mit einem Multi-GPU-Gespann bestehend aus zwei Radeon HD 7970 und GeForce GTX 680 sowie mit der GeForce GTX 590. Die GeForce GTX 690 steht mit ihren 470 Watt erst einmal sehr gut da - muss das Ergebnis aber erst mit einer entsprechenden Performance bestätigen.

mess1

Positiv überrascht sind wir von der niedrigen Idle-Temperatur der beiden GPUs auf der GeForce GTX 690. Die Unterschied zwischen den beiden Chips betrug dabei maximal zwei Grad Celsius. Das Referenzdesign sowie die gute Selektion der Chips scheint sich also auszuzahlen.

mess1

Auch unter Last kommt die GeForce GTX 690 derzeit nicht ins Schwitzen, wie wir das von Dual-GPU-Karten gewohnt sind. Zwar liegen auch die Radeon HD 6990 und GeForce GTX 590 in einem ähnlichen Bereich, erkauften sich dies allerdings auch mit einer hohen Last-Lautstärke. Bei den Temperaturen sehen wir also keinerlei Schwierigkeiten für die GeForce GTX 690.

mess1

Besonders gespannt waren wir auf die Lautstärke-Messungen der GeForce GTX 690. Hier konnten die Vorgänger meist nicht überzeugen. Die GeForce GTX 690 profitiert offenbar von der guten Effizienz der GPUs und auch beim Lüfter scheint NVIDIA einiges richtig gemacht zu haben. Mit 35,4 dB(A) liegen wir nur etwas über der GeForce GTX 680, sind aber bereits leiser als eine Radeon HD 7970. Auch der Vergleich zum SLI-System bestehend aus zwei GeForce GTX 680 kann sich sehen lassen.

mess1

Das Testfeld wird unter Last etwas durcheinandergewirbelt, aber grundsätzlich ändert sich an der hervorragenden Ausgangsposition der GeForce GTX 690 nichts. Sie bewegt sich auf Niveau der Single-GPU-Karten - ein Ergebnis, das wir so nicht erwartet hätten. Gerade der Vergleich zu den Multi-GPU-Systemen, bestehend aus GeForce GTX 680 und Radeon HD 7970 sowie zu den Vorgänger-Karten GeForce GTX 590 sowie Radeon HD 6990, fällt positiv aus.


Auch die neueste Generation des 3DMark wollen wir mit in den Benchmark-Parcour aufnehmen. Beim 3DMark 11 handelt es sich um den ersten vollständigen DirectX-11-Benchmark aus dem Hause Futuremark. Aus diesem Grund macht er auch ausgiebig Gebrauch von Tessellation, Depth of Field, Volumetric Lighting und Direct Compute. Obligatorisch ist natürlich auch die Unterstützung für Multi-Core-Prozessoren mit mehr als vier Kernen. Der Download ist in unserer Download-Area möglich.

3dmark11_2_rs 3dmark11_1_rs
3dmark11_4_rs 3dmark11_3_rs

Zum kostenlosen Download von Futuremarks 3DMark 11 gelangt man über diesen Link.

3dmark1

3dmark1

3dmark1


Sowohl AMD wie auch NVIDIA legen immer größeren Wert auf die Compute-Performance ihrer GPUs. Neben zahlreichen Engines mit OpenCL-Unterstützung wollen wir auch die Performance gesondert betrachten. Dazu nutzen wir den LuxMark 2.0, der in der Testszene "Sala" über RayTracing ein Bild berechnet und als Ausgabe die Samples pro Sekunde ausgibt.

luxmark-1-rsluxmark-2-rs

luxmark-3-rsluxmark-4-rs

Zum kostenlosen Download von LuxMark 2.0 gelangt man über diesen Link.

luxmark


Als Geralt von Riva, dem Helden und Protagonisten des Fantasy-Rollenspiels The Witcher 2, kämpft und zaubert sich der Spieler durch die detailreich inszenierte Spielwelt. Assassins of Kings knüpft als Nachfolger von The Witcher nahtlos an dessen Ereignisse an, wobei der nicht-lineare Handlungsverlauf auch bei mehreren Durchgängen Spannung verspricht. Die eigens für den im Jahr 2010 veröffentlichten Titel entwickelte Red Engine (DX9) hob den Grafikstandard für Rollenspiele an und stieß bei Spielern und der Fachpresse auf hohe Anerkennung. So bezeichneten die Programmierer von CD Projekt RED ihre Engine als "beste Rollenspiel-Engine der Welt".

Crysis1_rsCrysis2_rs
Crysis3_rs Crysis4_rs

Zur Vollversion von The Witcher 2 in unserem Preisvergleich gelangt man über diesen Link.

witcher1

witcher1

witcher1

witcher1

witcher1

witcher1


Die Erfolgsmarke Call of Duty wurde mit Modern Warfare 3 Ende 2011 zum bereits achten Mal mit einer Fortsetzung versehen. Der Egoshooter besticht durch bildschirmfüllende Daueraction ohne echte Verschnaufspausen. Durch die starke und brachiale Inszenierung fühlt sich der Spieler dank der Möglichkeiten der IW Engine 4.0 (DX9) in den Mittelpunkt des Kriegsgeschehens versetzt. Laut Entwickleraussagen zeichnet sich die Engine vor allem durch das vertikale Gameplay und die äußerst detailliert ausgearbeiteten Texturen aus.

ResidentEvil1_rs ResidentEvil2_rs
ResidentEvil3_rs ResidentEvil4_rs

Zur Vollversion von Call of Duty: Modern Warfare 3 in unserem Preisvergleich gelangt man über diesen Link.

cod1

cod1

cod1


Anno 2070 spielt entgegen seiner vier Vorgänger nicht mehr in der Vergangenheit sondern knapp 60 Jahre in der Zukunft. Das Spielprinzip blieb grundsätzlich gleich, das heißt fremde Inseln erkunden, besiedeln, Wirtschaftskreisläufe aufbauen, um die Bedürfnisse der unterschiedlichen Bevölkerungsteile zu befriedigen, und sich in der Diplomatie üben. Neu sind die drei Fraktionen: Die Ecos setzen auf regenerative Energie und erhalten die Natur, während ihr Gegenpart, die Tycoons, durch Schwerindustrie die Umwelt verschmutzen. Die dritte Fraktion, die Techs, ermöglicht es, neue Techniken zu nutzen und auf dem Meeresboden zu siedeln. Die großen Inseln, die lebendige Flora und Fauna und die fantastischen Wassereffekte der eigens von Related Designs entwickelten Engine (DX11) verlangen auf der höchsten Detailstufe der Grafikkarte einiges ab.

 
 

Zur Vollversion von Anno 2070 in unserem Preisvergleich gelangt man über diesen Link.

anno1

anno1

anno1

anno1

anno1

anno1


Die Battlefield-Serie erfuhr mit der Veröffentlichung des dritten Teils den vorläufigen Höhepunkt der virtuell erlebbaren Multiplayer-Action auf weitläufigen Schlachtfeldern. Differenzierte Soldatenklassen, realitätsgetreu modellierte Waffen und Fahrzeuge stellen in Verbindung mit der leistungsstarken Frostbite 2-Engine (DX11) das momentane Nonplusultra des Actiongenres dar. Die grafische Darstellung besticht durch enorme Weitsicht und wirklichkeitsnahe Bewegungsabläufe des eigenen Soldaten. Langzeitmotiviation ist dank des Aufstiegssystems mit unzählig vielen freischaltbaren Waffen und Gadgets garantiert, wobei mit Hilfe des Battlelogs stets die Übersicht gewahrt wird.

ResidentEvil1_rs ResidentEvil2_rs
ResidentEvil3_rs ResidentEvil4_rs

Zur Vollversion von Battlefield 3 in unserem Preisvergleich gelangt man über diesen Link.

bf1

bf1

bf1

bf1

bf1

bf1


Immer wieder für grafische Highlights verantwortlich zeichnen die Macher von Crysis. Die als Basis dienende CryEngine 2 sorgt dafür, dass selbst aktuelle High-End-Systeme den Anforderungen nicht immer gewachsen sind. Daher eignet sich Crysis Warhead ideal für unsere Benchmarks. Wir verwenden Crysis Warhead im DirectX-10-Modus, alle Details auf Maximum.

Crysis1_rs Crysis2_rs
Crysis3_rs Crysis4_rs

Zur Vollversion von Crysis Warhead in unserem Preisvergleich gelangt man über diesen Link.

crysis1-1

crysis1-1

crysis1-1

crysis1-1

crysis1-1

crysis1-1


Das auf der CryEngine 3 (DX11) basierende Crysis 2 entführt den Spieler in das apokalyptisch inszenierte New York. Die Ceph, die dem Insider bekannte Alienrasse aus dem ersten Teil, setzen auch im zweiten Teil alles daran, die Menschheit zu vernichten. Der Hauptcharakter namens Alcatraz, der zu Beginn durch unglückliche Umstände in Besitz des Nano-Suits gelangt, setzt sich fortan mit Waffengewalt und übermenschlichen Fähigkeiten, die der Anzug seinem Träger verleiht, gegen die Invasion zur Wehr. Im Gegensatz zum ersten Teil kommen auch Besitzer schwächerer PCs im optionalen Direct-X-9 Modus in den ruckelfreien Spielgenuss. Dies ist vor allem dem technischen Kompromiss geschuldet, den die Entwickler hinsichtlich der Konsolenportierung eingehen mussten. Die entsprechend vorhandene Hardware vorausgesetzt, kann als kleines Gimmick sogar im 3D-Modus auf Alienjagd gegangen werden.

Crysis1_rs Crysis2_rs
Crysis3_rs Crysis4_rs

Zur Vollversion von Crysis 2 in unserem Preisvergleich gelangt man über diesen Link.

crysis2-1

crysis2-1

crysis2-1

crysis2-1

crysis2-1

crysis2-1


Der fünfte Teil der The-Elder-Scroll-Reihe spielt in der namensgebenden Provinz Skyrim (dt. Himmelsrand). Die Handlung dreht sich um die Rückkehr der Drachen, wie sie in den "Elder Scrolls" vorhergesagt wurde. Der Spieler übernimmt die Rolle eines "Dovahkiin", eines Individuums mit dem Körper eines Menschen und der Seele eines Drachen. Der Spieler durchstreift bei dem Kampf gegen die Drachen opulente Städte mit verschlungenen Gassen und atemberaubende Landschaften, deren Grenze buchstäblich der Himmel ist. Mit seiner hohen Weitsicht und der detaillierten Vegetation bringt Skyrim so manches System ins Schwitzen.

Crysis1_rs Crysis2_rs
Crysis3_rs Crysis4_rs

Zur Vollversion von Elder Scrolls V: Skyrim in unserem Preisvergleich gelangt man über diesen Link.

skyrim1

skyrim1

skyrim1

skyrim1

skyrim5

skyrim6

 


Eine unwirtliche und verstrahlte Umwelt, Mutanten und ständige Bedrohungen - all diese Elemente nutzen die Ex-S.T.A.L.K.E.R. Entwickler 4A Games Studios, um den Spieler in die Welt von Metro 2033 zu entführen. Im Jahr 2033 hat sich die Menschheit mal wieder bekriegt und durch einen Atomschlag gegenseitig fast in die Luft gebombt. Eine Hand voll Überlebende hat sich in die Systeme der Moskauer U-Bahn zurückgezogen, um dort Zuflucht zu suchen. Zum Leidwesen der Flüchtlinge ist dieser Ort nicht ihre alleinige Heimat, auch feindselige Kreaturen, die sich an die giftige Atmosphäre gewöhnt haben, sind dort anzutreffen. Ihr Ziel: die verbleibenden Menschen ausrotten! Ob sie nun rohe Gewalt oder ausgeklügelte Taktik anwenden, es bleibt ihnen überlassen, wie sie das Ziel erreichen. Wie schon bei ihrem Erstlingswerk schaffen die Entwickler eine Wahnsinnsatmosphäre und lassen mit der A4-Engine (DX11) selbst moderne Grafikkarten an ihre Grenzen kommen.

Metro_1_rs Metro_2_rs
Metro_3_rs Metro_4_rs

Zur Vollversion von Metro 2033 in unserem Preisvergleich gelangt man über diesen Link.

metro1

metro1

metro1

metro1

metro1

metro1


Mikroruckler sind ein immer wieder heiß diskutiertes Thema. Nicht jeder akzeptiert sie, doch eines steht fest: Alleine schon durch den Aufbau eines Multi-GPU-Systems ergibt sich die Problematik von Mikrorucklern. Es gibt mehrere Methoden diesem Problem aus dem Weg zu gehen. Ein Framerate-Metering gibt es schon länger in den GPUs von NVIDIA, mit der "Kepler"-Generation will man dies noch einmal verbessert haben.

Arbeitet eine Karte mit 30 Bildern pro Sekunde, wird alle 33,3 ms ein Bild ausgegeben. In einem Multi-GPU-System teilen sich mindestens zwei GPUs die Arbeit des Renderings. Da nicht jeder Frame den gleichen Rechenaufwand mit sich bringt, benötigen die GPUs auch unterschiedlich lange, um ihren Frame zu verarbeiten. Die Frames kommen also nicht alle 33,3 ms auf dem Display an, sondern es gibt unterschiedlich große Sprünge. Diese Differenz, die mehrere Milliskunden betragen kann, wird vom Nutzer als Ruckler wahrgenommen. Je höher die Framerate ist, desto geringer ist die Chance auf Mikroruckler. Wird eine Szene beispielsweise mit 60 Bilder pro Sekunde verarbeitet, wird alle 16,6 ms ein Bild erzeugt. Folglich sind auch die Schwankungen deutlich geringer und die Unterschiede bei der Zeit, die für das Rendering benötigt wird, werden meist gar nicht mehr wahrgenommen.

NVIDIA will mit der GeForce GTX 690 nun eine Verbesserung der "Bildraten-Dosierung" eingeführt haben.

NVIDIA:

Mit der Kepler-Architektur wird eine Hardware-basierte Bildraten-Dosierung eingeführt – eine Technologie, die zur Minimierung von Ruckeln bei der GeForce GTX 690 beiträgt. Im SLI-Modus teilen sich zwei GPUs die Last, indem sie aufeinanderfolgende Frames berechnen – eine GPU berechnet das aktuelle Bild, während die andere GPU am nächsten Bild arbeitet. Aber da die Arbeitsbelastung der einzelnen Frames unterschiedlich ist, vervollständigen die beiden GPUs ihre Bilder zu verschiedenen Zeiten. Das Senden der Bilder an den Monitor kann daher zu Ruckeln führen.

Die GeForce GTX 690 verfügt über einen Mechanismus, um den Fluss der Bilder regulieren. Durch die Überwachung und Anpassung, wie Bilder an den Monitor gesendet werden, wird die gesamte Bildausgabe flüssiger und gleichmäßiger.

Wir habe in drei Anwendungen einmal die Frametimes mitgeschrieben, um die Differenz zum vorhergehenden Frame zu bilden. Je gleichmäßiger die Differenz zwischen den Frames, desto flüssiger die Darstellung.

frameverlauf1

In Crysis Warhead zeigt sich eine deutliche Glättung der Frametimes bei der GeForce GTX 690 im Vergleich zur GeForce GTX 590. Während des Benchmark-Durchlaufs waren diese nicht nur messbar, sondern auch zu sehen.

frameverlauf2

Weniger Optimierungsbedarf scheint bei Unigine Heaven 3.0 notwendig zu sein. Hier sehen wir keinen qualitativen Unterschied zwischen den beiden Karten.

frameverlauf3

Ein umgekehrtes Bild wie in Crysis Warhead sehen wir in Metro 2033. Schaut man sich das Diagramm an, scheint die GeForce GTX 690 mit mehr Problemen zu kämpfen als die GeForce GTX 590.

Die Mikroruckler lassen sich nicht abschließend klären. Sie werden uns auch weiterhin beschäftigen. Derzeit sehen wir zwei Möglichkeiten, diesem Problem aus dem Weg zu gehen. Zum einen können Settings gewählt werden, welche die Karte bei 50 Bildern pro Sekunde und mehr arbeiten lassen. Somit werden die Zeiten für die Berechnung der einzelnen Frames geringer, was auch für die Schwankungen der Differenz zwischen zwei Frames gilt. Die zweite Möglichkeit ist die Verwendung eines Frame-Limiters. Mit der Einführung der GeForce GTX 680 erlaubt NVIDIA dies via "Adaptiv VSync" bereits direkt aus dem Treiber heraus.


Die Benchmarks haben gezeigt, dass eine GeForce GTX 690 genau wie ein Multi-GPU-System bestehend aus Radeon HD 7970 und GeForce GTX 680 erst bei hohen Auflösungen und Grafik-Settings ihre Stärken ausspielen bzw. erst dann ihr Potenzial völlig ausschöpfen können. Daher haben wir auch wieder drei Displays mit jeweils 1920x1080 Pixeln verwendet, um eine Auflösung von 5760x1080 Pixel zu erreichen.

Sicherlich werden nicht viele Spieler über ein solches Setup verfügen, aber es werden sich sicherlich auch nicht viele eine GeForce GTX 690 anschaffen wollen oder besser können. In vier Spielen haben wir eine solch hohe Auflösung einmal getestet und die Ergebnisse gegen die GeForce GTX 680 und Radeon HD 7970 sowie die Multi-GPU-Systeme verglichen.

3dvision1

3dvision2

3dvision3

3dvision4

In gewissen Settings reicht die Performance eine GeForce GTX 680 oder Radeon HD 7970 nicht aus, um stabile Frameraten bei 5760x1080 zu bewerkstelligen. Hier hilft dann nur der Einsatz eines SLI- oder CrossFire-Gespanns aus zwei GeForce GTX 680 oder Radeon HD 7970. Die GeForce GTX 690 kann im Vergleich gut mithalten, was im Hinblick auf die technische Verwandtschaft zu zwei GeForce GTX 680 aber auch nicht weiter verwundern kann.


Beim Test der AMD Radeon HD 7970 und NVIDIA GeForce GTX 680 stellte sich recht schnell heraus, dass die Unterstützung von PCI-Express 3.0 keinen nennenswerten Einfluss auf die Performance der Karten hat. Auf einigen Mainboards mit X79-Chipsatz hatte die GeForce GTX 680 so ihre Probleme, um mit PCI-Express 3.0 zu funktionieren und fiel auf den 2.0-Standard zurück. Der verbaute PEX 8747 Switch-Chip kann allerdings mit PCI-Express 3.0 umgehen und auch auf dem von uns verwendeten ASUS P9X79 kommunizierte die Karte über den schnellen Standard.

Viele Nutzer stellen sich nun die Frage, ob PCI-Express 3.0 auch einen Einfluss auf die Performance hat im Vergleich zu PCI-Express 2.0. In einigen Benchmarks haben wir dies untersucht:

pcie1

pcie2

pcie3

Auf die Performance der GeForce GTX 690 hat PCI-Express 3.0 also keinen Einfluss. Anders schaut dies mit PCI-Express 1.0 aus - Systeme mit Support für diesen Standard dürften für eine solche Karte aber ohnehin kaum noch zum Einsatz kommen.


Wie in den bisherigen Benchmarks zu sehen war, ist es selbst bei 2560x1600 Pixel recht schwierig eine GeForce GTX 690 richtig auszulasten. Super-Sampling Anti-Aliasing und Multi-Sample Anti-Aliasing sind hier die Stichworte. Besonders The Elder Scrolls V Skyrim und Battlefield 3 sind beliebte Anwendungen, um die Bildqualität über spezielle Anti-Aliasing-Modi bis zu einem möglichen Maximum zu bringen. Hier spielt dann auch der Grafikspeicher eine entscheidende Rolle. Daher haben wir die GeForce GTX 690 einmal gegen die GeForce GTX 680 mit 2 und 4 GB verglichen.

ssaa1

ssaa2

ssaa3

Während in geringeren AA-Modi sich die GeForce GTX 690 noch klassisch nach ein einem SLI-System aus zwei GeForce GTX 680 mit 2 GB ausrichtet, bekommt sie ab 4xMSAA+2xSGSSAA so ihre Probleme und wird dann auch von einer GeForce GTX 680 mit 4 GB geschlagen, da hier auch noch die knapp 3100 MB im Grafikspeicher ihren Platz finden.

Dies soll nur eines von vielen Beispielen sein, wie auch eine GeForce GTX 690 an ihr Limit gebracht werden kann. Über ausgereifte Settings lässt sich auch aus einer Radeon HD 7970 und GeForce GTX 680 ein Maximum an Bildqualität herauskitzeln. Bewegen wir uns an ein Limit, dass vom Grafikspeicher gesetzt wird, kann auch die GeForce GTX 690 nichts mehr ausrichten.


Auch wenn eine GeForce GTX 690 bereits ausreichend Leistung bietet, so verführt die gute Kühlung einfach dazu, auch bei einer solchen Karte einmal an der Taktschraube zu drehen. Dazu verwendeten wir das EVGA Precision Tool in der Version 3.0.2.

gtx690-evga

Einige Einschränkungen hat NVIDIA beim Overclocking jedoch eingebaut. So lässt sich das "Power Target" nur auf 135 Prozent setzen. Dies entspricht einer theoretischen Leistungsaufnahme von 405 Watt. Bei der Spannung erlaubt NVIDIA weiterhin maximal 1,175 Volt - was wir für diesen Test auch auswählten. Theoretisch sollten die GPUs auch in der Lage sein deutlich höhere Spannungen anzunehmen.

Letztendlich erreichten wir einen GPU-Clock-Offset von 106 MHz. Der Referenz-Takt lag also bei 1021 MHz, der "GPU Boost"-Takt bei mindestens 1125 MHz. In einigen Anwendungen stieg der "GPU Boost"-Takt sogar auf 1176 MHz an. Den Speicher konnten wir von 1502 MHz auf 1606 MHz übertakten.

Diese Taktsteigerung wirkte sich in den Benchmarks wie folgt aus:

oc1

oc1

oc1

oc1

Natürlich hat eine Steigerung von Spannung und Takt auch Auswirkungen auf weitere Werte:

oc1

oc1

oc1


Mit der GeForce GTX 680 (Hardwareluxx-Artikel) verschaffte sich NVIDIA eine gute Ausgangsposition. Einige Nachteile der "Fermi"-Generation wie der enorme Stromverbrauch wurden eingedämmt und gänzlich ausgemerzt. Der GeForce GTX 680 konnten wir bereits ein gutes Verbrauchs/Leistungsverhältnis bescheinigen und die ersten Retail-Karten unterstreichen diesen Eindruck.

An eine Dual-GPU-Karte stellt NVIDIA besondere Voraussetzungen: Sie muss beherrschbar bleiben. Mit der GK104-GPU ist eine gute Basis geschaffen worden, die durch Selektion der Chips noch verbessert wird. Damit erreicht NVIDIA die Einhaltung einer Thermal Design Power von 300 Watt. Mit dem niedrigen Standard-Takt sind es sogar nur 263 Watt. Das sind Bereiche, in denen man sich vor nicht allzu langer Zeit noch mit einer GeForce GTX 480 und 580 bewegte. Nun aber sprechen wir von einer mehr als doppelt so hohen Performance. Der direkte Vergleich zur GeForce GTX 590 (365 Watt) und Radeon HD 6990 (375/450 Watt) verdeutlich den positiven Trend eindrucksvoll.

Auf dem Papier hat NVIDIA zwei GeForce GTX 680 auf ein PCB gepackt und die Taktraten etwas reduziert. Für die GPU geht es von 1006 auf 915 MHz herunter. NVIDIA wird aber nicht müde zu betonen, dass der "GPU Boost-"Takt von mindestens 1019 MHz nur vier Prozent unter dem der GeForce GTX 680 mit 1058 MHz liegt. In einigen Spielen liefen die beiden GPUs der GeForce GTX 690 mit 1071 MHz. Zwei GeForce GTX 680 im SLI-Gespann arbeiteten bei 1110 MHz. Somit ist die GeForce GTX 690 einem solchen System offenbar sehr dicht auf den Fersen, zumal der Speichertakt bei 1502 MHz belassen und nicht reduziert wurde.

{jphoto image=23803}

Die Performance spiegelt die nackten Zahlen dann auch recht gut wider. In den meisten Benchmarks liegt die GeForce GTX 690 nicht einmal drei Prozent hinter dem SLI-System bestehend aus zwei GeForce GTX 680 (Test: AMD Radeon HD 7970 CrossFire vs. NVIDIA GeForce GTX 680 SLI). Das alles bei einem um 55 Watt geringerem Last-Verbrauch! Da bereits die GeForce GTX 680 für sich alleine in vielen Benchmarks vor der Radeon HD 7970 lag, kann sich die GeForce GTX 690 als derzeit schnellste Grafikkarte am Markt bezeichnen. Einziger Konkurrent ist ein CrossFire-System bestehend aus zwei Radeon HD 7970 und dies dürfte auch gleich ein Hinweis auf das sein, was uns mit der Radeon HD 7990 erwartet.

NVIDIA GeForce GTX 690
Straßenpreis ab 999 Euro
Homepage NVIDIA-Produktseite
Technische Daten
GPU 2x GK104
Fertigung 28 nm
Transistoren 2x 3,54 Milliarden
GPU-Takt 915 MHz + Boost (1058 MHz)
Speichertakt 1502 MHz
Speichertyp GDDR5
Speichergröße 2x 2048 MB
Speicherinterface 2x 256 Bit
Speicherbandbreite 2x 192,2 GB/Sek.
DirectX-Version 11.1
Shadereinheiten 2x 1536 (1D)
Textur Units 2x 128
ROPs 2x 32
Pixelfüllrate 2x 29,3 Gigapixel
SLI/CrossFire SLI
Lautstärke
Idle-Modus 35,4 dB(A)
Last-Modus 52,4 dB(A)
Leistungsaufnahme
Idle-Modus 119,4 Watt
Last-Modus 470,2 Watt
Temperaturen
Idle-Modus 34 °C
Last-Modus 77 °C

Wer nun den Kauf einer GeForce GTX 690 plant, sollte bereits einige Grundvoraussetzungen erfüllen. Dazu gehören eine möglichst potente CPU sowie die entsprechenden Settings in den Spielen. In 1680x1050 oder 1920x1080 bei Standard-Qualitätseinstellungen ist die GeForce GTX 690 (genau wie bereits eine GeForce GTX 680 und Radeon HD 7970) mehr als unterfordert. Es sind schon Auflösungen wie 2560x1600 mit hohen Anti-Aliasing-Samplings und anisotropischen Filtern notwendig, um die Karte auszulasten.

Bereits erwähnt haben wir den im Verhältnis zur Performance niedrigen Verbrauch, sowie die guten Temperaturen und Lautstärke. Für eine Dual-GPU-Karte setzt die GeForce GTX 690 neue Maßstäbe in diesen Bereichen. Konnten wir bei der GeForce GTX 680 durch die ersten Retail-Designs mit alternativer Kühlung noch deutliche Verbesserungen sehen, hat NVIDIA für die GeForce GTX 690 sicherlich bereits die Möglichkeiten weitestgehend ausgeschöpft. Es ist auch fraglich, ob wir überhaupt alternative Designs sehen werden. Bereits der Vergleich der GeForce GTX 680 mit 2 und 4 GB hat gezeigt, dass auch hier nur spezielle Anforderungen den größeren Grafikspeicher nutzen können. Somit darf man sich auch hier die Frage stellen, ob es Modelle der GeForce GTX 690 mit jeweils 4 GB pro GPU geben wird.

gtx690-quadsli-rs

Kommen wir zur entscheidenden Frage: Was kostet der Spaß? NVIDIA gibt eine unverbindliche Preisempfehlung von 829 Euro zuzüglich MwSt. heraus. Der Endkundenpreis dürfte sich also knapp unterhalb von 1000 Euro bewegen. Zwei GeForce GTX 680 sind schon für 950 Euro zu haben und bieten etwas mehr Performance. NVIDIA verschafft sich mit der Kühlung und dem Fakt, dass es sich eine einzelne Karte handelt, aber etwas Exklusivität, die durchaus ihren Preis haben darf. Den Anspruch ein Preis/Leistungssieger zu werden hatte NVIDIA mit der GeForce GTX 690 ohnehin nicht.

Positive Aspekte der NVIDIA GeForce GTX 690:

Negative Aspekte der NVIDIA GeForce GTX 690:

excellent award

Aufgrund der enormen Performance verleihen wir der
NVIDIA GeForce GTX 690 den "Hardwareluxx Excellent Hardware"-Award.