Test: NVIDIA GeForce GTX 680

Veröffentlicht am: von

gtx680-logoDer Wechsel in eine neue Fertigungstechnologie sowie die Umstellung einer GPU-Architektur gehören zu den spannendsten Themen für einen Hardware-Redakteur. AMD hat diesen Wechsel mit der "Southern Islands"-Generation bereits vollzogen und ist mit seinen 28-nm-GPUs bereits breit aufgestellt. Viel wurde nun im Vorfeld über NVIDIAs nächsten Evolutionsschritt geschrieben und gemutmaßt. Einiges davon hat sich als wahr herausgestellt, in anderen Punkten schmeckte die Gerüchteküche allerdings aus dem falschen Topf ab. Heute nun ist es soweit und NVIDIA präsentiert mit der GeForce GTX 680 die erste Karte der Kepler-Generation. Wir schauen uns die neue Architektur und Technologien genauer an und beleuchten in den Benchmarks, wie sich NVIDIAs Interims-Flaggschiff gegen die Konkurrenz bestehend aus der Radeon HD 7970 schlägt.

NVIDIA hat sich für die GeForce GTX 680 hohe Ziele gesetzt. So soll das Performance/Watt-Verhältnis um den Faktor zwei besser sein als beim Vorgänger. Auch den Vergleich zur Konkurrenz möchte man nicht scheuen und spricht von einer viermal höheren Tessellation-Performance. Natürlich hat NVIDIA auch eigene Benchmarks an der Hand, auf diese verzichten wir allerdings gänzlich und verlassen uns nur auf unsere eigenen Messungen.

Seit 2007 arbeitet ein Team bei NVIDIA an "Kepler" und den dazugehörigen neuen Technologien. SMX, GPU Boost, FXAA, TXAA und Adaptive-VSynch sind nur einige Stichworte, die wir auf den folgenden Seiten genauer behandeln wollen.

gtx680-teaser-web-rs

Bevor wir auf die einzelnen technischen Details näher eingehen, versuchen wir mit der Vergleichstabelle die GeForce GTX 680 der Konkurrenz aus eigenem Hause und AMD gegenüberzustellen.

Die technischen Daten in der Übersicht
NVIDIA GeForce GTX 570NVIDIA GeForce GTX 580NVIDIA GeForce GTX 680AMD Radeon HD 7950AMD Radeon HD 7970
GPU GF110 GF110 GK104 Tahiti PRO Tahiti XT
Fertigung 40 nm 40 nm 28 nm 28 nm 28 nm
Anzahl Transistoren 3 Milliarden 3 Milliarden 3,54 Milliarden 4,3 Milliarden 4,3 Milliarden
Die-Größe 530 mm² 530 mm² 294mm² 365 mm² 365 mm²
GPU-Takt 732 MHz 772 MHz 1006 MHz (Boost-Takt: 1058 MHz) 800 MHz 925 MHz
Speichertakt 950 MHz 1000 MHz 1502 MHz 1250 MHz 1375 MHz
Speichertyp GDDR5 GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 1280 MB 1536 MB 2048 MB 3072 MB 3072 MB
Speicherinterface 320 Bit 384 Bit 256 Bit 384 Bit 384 Bit
Speicherbandbreite 152 GB/Sek. 192 GB/Sek. 192,3 GB/Sek. 240 GB/Sek. 264 GB/Sek.
Shader Model 5.0 5.0 5.0 5.0 5.0
PCI-Express-Interface 2.0 2.0 3.0 3.0 3.0
DirectX 11 11 11.1 11.1 11.1
Shader-Einheiten 480 (1D) 512 (1D) 1536 (1D) 1792 (1D) 2048 (1D)
Shader-Takt 1464 MHz 1544 MHz 1006 MHz 800 MHz 925 MHz
Texture Units 60 64 128 112 128
ROPs 40 48 32 32 32
maximale Leistungsaufnahme 219 Watt 244 Watt 195 Watt 200 Watt 250 Watt
minimale Leistungsaufnahme - 30-32 Watt 15 Watt 2,6 Watt 2,6 Watt
CrossFire/SLI SLI SLI SLI CrossFireX CrossFireX

Neben der kleineren Fertigung hat NVIDIA offensichtlich auch die Architektur aufgebohrt und nicht nur einen Shrink vollzogen. Die Anzahl der Cores hat sich verdreifacht, der Speichertakt ist deutlich gestiegen und auch der GPU-Takt liegt nun über 1000 MHz. Begriffe wie den Boost-Takt und wie NVIDIA den Verbrauch bei einer High-End-Grafikkarte auf 195 Watt reduzieren will, klären wir im Folgenden.

gtx680gpuz

GPU-Z liest in der aktuellen Version bereits alle technischen Daten der GeForce GTX 680 korrekt aus.


Mit "Kepler" hat NVIDIA zahlreiche Änderungen an der Architektur vorgenommen, die wir uns nun anschauen wollen.

7700-pres-5-rs 7700-pres-6-rs

Die Streaming-Multiprozessoren kennen wir schon aus der "Fermi"-Generation. Dort befanden sich in jedem SM 32 Cores. Mit der GeForce GTX 680 bzw. der GK104-GPU setzt NVIDIA nun auf die SMX-Einheiten, die über 192 Cores verfügen. Somit stehen nicht nur insgesamt mehr Cores zur Verfügung, sondern es hat sich auch das Verhältnis von Cores zur Control-Logic deutlich zugunsten der Recheneinheiten gewendet. 

gtx680-pres-03-rs

Die GeForce GTX 680 kommt mit ihren acht SMX also auf 8 x 192 = 1536 Cores.

kepler-blockdiagramm-1-rs

Das Blockdiagramm von "Kepler" zeigt in den äußeren Bereichen das PCI-Express-3.0-Host-Interface sowie die vier Speicher-Controller, die insgesamt auf eine Breite von 256 Bit kommen. Die eigentliche Rechenarbeit wird innerhalb der vier Graphics-Processing-Clustern (GPC), die wiederum aus jeweils zwei SMX-Cluster bestehen, durchgeführt.

Der L2-Cache ist bei "Fermi" 768 kByte groß und erlaubt den Datenaustausch zwischen den Graphics-Processing-Clustern. NVIDIA kann die Größe des L2-Cache bei "Kepler" auf 512 kByte reduzieren, erhöht aber die Bandbreite pro Takt von 384 Byte auf 512 Byte. Innerhalb der SMX-Cluster ist dann noch ein 64 kByte großer L1-Cache bzw. shared Memory zu finden.

kepler-blockdiagramm-2-rs

Ein SMX-Cluster besteht aus 192 Cores, 16 Texture-Units und einer Polymorph-2.0-Engine. Jedes SMX-Cluster besitzt eine PolyMorph-2.0-Engine, insgesamt kann der GK104 also auf 8 zurückgreifen (bei der GeForce GTX 580 waren es noch 16). Die PolyMorph-2.0-Engine ist maßgeblich verantwortlich für Vertex-Fetch, Tessellation, Attribute-Setup, Viewport-Transform und den Stream-Output. Sind die SMX-Cluster und die PolyMorph-2.0-Engine durchlaufen, wird das Ergebnis an die Raster-Engine weitergeleitet. In einem zweiten Schritt beginnt dann der Tessellator mit der Berechnung der benötigten Oberflächen-Positionen, die dafür sorgen, dass je nach Abstand der nötige Detailgrad ausgewählt wird. Die korrigierten Werte werden wiederum an das SMX-Cluster gesendet, wo der Domain-Shader und der Geometrie-Shader diese dann weiter ausführen. Der Domain-Shader berechnet die finale Position jedes Dreiecks, indem er die Daten des Hull-Shaders und des Tessellators zusammensetzt. An dieser Stelle wird dann auch das Displacement-Mapping durchgeführt. Der Geometrie-Shader vergleicht die errechneten Daten dann mit den letztendlich wirklich sichtbaren Objekten und sendet die Ergebnisse wieder an die Tessellation-Engine für einen finalen Durchlauf. Im letzten Schritt dann führt die PolyMorph-2.0-Engine die Viewport-Transformation und eine perspektivische Korrektur aus. Letztendlich werden die berechneten Daten über den Stream-Output ausgegeben, indem der Speicher diese für weitere Berechnungen freigibt.

Während die Polymorph-2.0-Engine in weiten Teilen identisch zur "Fermi"-Architektur ist, hatte NVIDIA wieder einmal die Tessellation-Performance im Auge. Gerade nachdem AMD mit der "Southern-Islands"-Generation die Tessellation-Engine deutlich verbessert hatte, wollte NVIDIA diesem Trend nicht entgegen treten. Laut NVIDIA kommt die GeForce GTX 680 auf eine bis zu viermal höhere Tessellation-Performance im Vergleich zur Radeon HD 7970.

raster-engine

Vier parallele Raster-Engines sorgen bei GK104 nach der PolyMorph-2.0-Engine für eine möglichst detailreiche Darstellung der errechneten Werte. Dazu ist die Raster-Engine in drei Stufen aufgeteilt. Im Edge-Setup werden nicht sichtbare Dreiecke bestimmt und durch ein "Back Face Culling" entfernt. Jedes Edge-Setup kann pro Takt einen Punkt, eine Linie oder ein Dreieck berechnen. Der Rasterizer zeichnet sich für die Bestimmung der durch Antialiasing berechneten Werte verantwortlich. Jeder Rasterizer kann pro Takt acht Pixel berechnen, insgesamt ist die GK104-GPU also in der Lage 32 Pixel pro Takt zu berechnen. Zum Abschluss vergleicht die Z-Cull-Unit die gerade errechneten Pixel mit bereits im Framebuffer existierenden. Liegen die gerade berechneten Pixel geometrisch hinter denen, die sich bereits im Framebuffer befinden, werden sie verworfen.

Die ROP-Units wurden bei "Kepler" im Vergleich zu "Fermi" deutlich in ihrer Anzahl überarbeitet. Pro SMX-Cluster verfügt der GK104 über vier ROP-Units, insgesamt kommt die GPU also auf 32. Zum Vergleich: Bei GF110 setzt NVIDIA noch auf 48 ROP-Units. Acht ROP-Units sind zu einer ROP-Partition zusammengefasst, von denen die GK104-GPU vier besitzt. Jede ROP-Unit kann einen 32 Bit Integer-Pixel pro Takt ausgeben. Ebenfalls möglich ist ein FP16-Pixel über zwei Takte oder ein FP32-Pixel über vier Takte.

Die Anzahl der Textur-Units hat sich zum Vorgänger verdoppelt. Jedes SMX-Cluster verfügt über 16 Texture-Units, somit kommt der GK104 auf der GeForce GTX 680 auf 128.

Auch bei der Speicheranbindung hat sich einiges getan. Jede ROP-Partition ist über ein 64 Bit breites Speicherinterface angebunden. Bei vier ROP-Partitionen kommen wir auf ein 256 Bit breites Speicherinterface. GF110 verfügt über sechs ROP-Partitionen und somit über ein 384 Bit breites Interface.

kepler-die-shot

Mit "Kepler" setzt NVIDIA auf eine neue Gewichtung was das Verhältnis der Cores zum Takt und der Control-Logic betrifft. "Fermi" wurde in 40 nm gefertigt und verfügte über 3 Milliarden Transistoren. Die Shader-Prozessoren wurden mit dem doppelten Takt im Vergleich zur restlichen GPU betrieben, um zwei Berechnungen pro GPU-Takt auszuführen. Nur durch diese "Hotclocks" konnte die nötige Rechenleistung erreicht werden.

Mit "Kepler" setzt NVIDIA auf eine neue Fertigung und kann die Problematik der Chipfläche (aufgrund der Fertigung und hohen Anzahl an Transistoren) wieder etwas entschärfen.


Nun wollen wir die Unterschiede zwischen "Fermi" und "Kepler" noch etwas detaillierter herausstellen.

gtx680-pres-12-rs

NVIDIA hat in einem SMX-Cluster aber nicht einfach nur die Anzahl der Cores erhöht, sondern auch die Abarbeitung von Instruktionen optimiert. Sowohl "Fermi" wie auch "Kepler" verfügen über ähnliche Hardware, um Instruktionen auf bestimmte Recheneinheiten zu verteilen. "Fermi" allerdings setzte zusätzliche Hardware ein, um Instruktionen auf ihre Konsistenz hin zu prüfen. 

In "Kepler" löst der Compiler dieses Problem bereits auf Software-Ebene und NVIDIA spart sich einige komplexe Hardware-Blöcke.

gtx680-pres-11-rs

Den Wegfall des Shader-Taktes bzw. der sogenannten Hotclocks haben wir bereits angesprochen. Begründet wird dies mit der geringen Effizienz einer solchen Lösung. NVIDIA sparte sich durch den doppelten Shader-Takt einiges an Chipfläche, erkaufte sich dies aber über einen höheren Verbrauch. In obigem Beispiel für eine einfache Rechenoperation (eigentlich derer zwei) wird dies deutlich. Während "Fermi" in der gleichen Zeit die doppelte Anzahl an Operationen ausführen konnte, schafft "Kepler" dies nur über die höhere Anzahl an Cores.

Neben dem höheren Verbrauch spielt aber auch die dahinterstehende Logik eine wichtige Rolle. So benötigte NVIDIA für "Fermi" auch doppelt so viele Pipelines, um die Shader mit Daten zu füttern. Aufgrund der kleineren Fertigung kann NVIDIA die größere Chipfläche für die höhere Anzahl an Cores kompensieren.

gtx680-pres-13-rs

Die "Fermi"-Generation bzw. die Shader sind aufgrund einer Limitierung der DirectX-11-API nur in der Lage auf 128 Texturen gleichzeitig zuzugreifen. Mit "Kepler" können die Shader nun direkt auf Texturen im Speicher zugreifen, was die sogenannten "Binding-Tables" (links in grau zu sehen), obsolet macht. Somit können die Shader auf über eine Millionen Texturen zugreifen, was detailiertere und abwechslungsreichere Szenen ermöglicht.

gtx680-pres-14-rs

Die NVIDIA GeForce GTX 680 ist die erste Grafikkarte, die GDDR5-Speicher mit 6 Gbps anspricht. Dazu musste NVIDIA besonderen Wert auf die Anbindung und das physikalische Design legen. Obiges Bild stellt die Signalintegrität dar. Je ausgeprägter und größer die zwei Augen bei der Messung sind, desto höher ist die Signalqualität.


Ein wesentliches Feature der neuen GPU-Generation ist der GPU-Boost.

gtx680-pres-04-rs

Mit der GeForce GTX 680 führt NVIDIA den GPU-Boost ein. Dabei wird ein maximaler Verbrauch anhand der aktuell anspruchsvollsten Spiele gesucht. Das Maximum wurde bei der GeForce GTX 680 bei einem garantierten Boost-Takt von 1058 MHz und einem Basis-Takt von 1006 MHz festgelegt. Der Basis-Takt ergibt sich als PLL und einigen Teilern, wird bei jeder GeForce GTX 680 erreicht und ist das absolute Minimum für den GPU-Takt. Das Minimum für den GPU-Boost einer jeden GeForce GTX 680 ist der Boost-Takt von 1058 MHz. Die meisten GeForce GTX 680 werden allerdings auch deutlich schneller als 1058 MHz arbeiten können. Der Boost-Takt beschreibt die maximale Leistungsaufnahme von 195 Watt. Auf Basis-Takt verbraucht eine GeForce GTX 680 also weniger als die angegebenen 195 Watt.

gtx680-pres-05-rs

Auf der Grafikkarte wird der aktuelle Verbrauch in Realtime gemessen und der Takt kann alle 100 Millisekunden angepasst werden. Weitere Faktoren sind GPU-Temperatur sowie GPU- und Speicherauslastung und zahlreiche weitere Messwerte. Eine eigene Elektronik auf jeder GeForce GTX 680 zeichnet sich für diese Messungen verantwortlich. Grafikkartenhersteller müssen diese Schaltkreise in ihrem Design implementieren. Eine Abschaltung ist auch über Software nicht möglich. GPU-Boost gehört also ab der Kepler-Generation zu einer jeden Grafikkarte von NVIDIA. Somit wird auch klar, dass jede GeForce GTX 680 sich anders verhalten wird. Selbst die gleiche Karte kann unter anderen Voraussetzungen (beispielsweise mit offenem und geschlossenem Gehäuse) unterschiedliche Taktraten erreichen.

gpu-boost-1-rs

Ist die Last entsprechend hoch, garantiert NVIDIA 1058 MHz

Misst die Elektronik trotz Erreichens des Boost-Taktes eine geringere Leistungsaufnahme, kann die Karte auch einen höheren Takt anlegen. Unser Testsample schaffte z.B. 1110 MHz. Die Erhöhung von Takt und Spannung erfolgt in Schritten von 13 MHz und 12,5 Millivolt. Da jede Karte mit anderen Voraussetzungen auskommen muss (bedingt durch die Fertigung der GPU, Kühlung, etc.), werden sich die Karten in diesem Punkt allesamt unterscheiden.

gpu-boost-2-rs

Bietet sich im TDP-Profil noch etwas Luft nach oben, taktet die Karte auf 1110 MHz

GPU Boost funktioniert in beide Richtungen. Wird eine GeForce GTX 680 durch eine Anwendung nicht komplett ausgelastet, taktet die Karte sich automatisch herunter und arbeitet nur auf dem nötigen Takt. Dies sorgt gemeinsam mit einer Reduzierung der Spannung für eine geringere Leistungsaufnahme.

NVIDIA erlaubt der GeForce GTX 680 ihren Takt also zu reduzieren. Wer eine feste Framerate benötigt, kann diese als “Frame Rate Target” festlegen und über die API werden Takt und Spannung reduziert, um die festgelegte Framerate zu erreichen.

GPU Boost soll aber nicht das Overclocking-Potential beeinträchtigen. 1,2 GHz sollen problemlos über einen Takt-Offset möglich sein. Beim Overclocking hebt der Anwender nicht mehr den GPU-Takt auf einen bestimmten Wert, sondern setzt über einen Offset sowohl den Basis- als auch den Boost-Takt um den gewünschten Wert nach oben. Der zweite Weg des Overclockings ist die Erhöhung des Power-Limits. Somit wird der Karte ein höherer Maximalverbrauch gegeben und die Taktraten können ebenfalls entsprechend höher gewählt werden.

evga-precision-1

In den bisherigen Screenshots war immer sehr schön zu sehen, wie die GeForce GTX 680 ihren Takt anpasst. Ebenfalls betrachtet werden kann die Änderung der Spannung. Maximal 1175 Millivolt legt NVIDIA bei unserer Karte an. Im Idle-Betrieb sind es für einen Takt von 324 MHz nur noch 987 Millivolt. Später schauen wir uns auch das Overclocking noch einmal etwas genauer an und gehen näher auf die Regler "Power Target" und "GPU Boost Offset" sein.

Alle GeForce GTX 680 mit der Referenzkühlung werden über einen Basistakt von 1006 MHz und einen Boost-Takt von 1058 MHz verfügen. Hersteller von Grafikkarten mit alternativer Kühlung, die durchaus niedrigere Temperaturen erreichen können, evaluieren über den Offset ihren maximalen Basis- und Boost-Takt direkt im BIOS und liefern die Karten mit diesen Werten aus.


Wer sich genauer mit einer Grafikkarte beschäftigt, für den sind auch immer wieder die P-States, sowie die dazugehörigen Spannungs-Level interessant. NVIDIA bietet dazu ein Tool namens "NVAPITest" an.

NVAPI

NVIDIA sieht für die GeForce GTX 680 vier P-States vor. Diese sprechen noch einmal mehrere Takt-Domains an, die über Teiler dann letztendlich in entsprechenden GPU-, Speicher- und anderen Taktraten resultieren.

P0 ist dabei das Performance-Setting mit vollen Taktraten und Spannungen für GPU und Speicher. Sprich, hier liegen mindestens 1006 MHz GPU- und 1502 MHz Speicher-Takt an. P2 ist das Multi-Monitor-Setting, bei dem die GPU mit 550 MHz und beim VRAM mit 1502 MHz  ebenfalls der maximale Takt anliegt. P5 und P8 reduzieren noch einmal den Takt bei geringer Last. P5 taktet mit 540 MHz GPU- und 405 MHz Speichertakt. Im Idle ist der P8-State aktiv, wo die GPU mit 324 MHz und der Speicher mit 162 MHz angesprochen werden. Die Spannungen von P2 bis P8 liegen jeweils bei 0,987V.

"NVAPITest" liest auch die Spannungs-Level aus und bestätigt die minimalen Schritte von 12,5 Millivolt, die auch GPU-Boost vollzieht. Der Spannungsbereich, der im BIOS der Karte hinterlegt ist, liegt zwischen 0,987V und 1,175V. Das Maximum, was man in Tools wie EVGAs Precision einstellen kann, liegt aber bei 1,150V. Wird letzteres gewählt, so stellen 1,175V die höchste Spannung für den GPU Boost dar. 


NVIDIA hat FXAA entwickelt und damit eine Bildqualität, die mit 4x MSAA vergleichbar ist, eingeführt, die allerdings um 60 Prozent schneller sein soll. FXAA wird derzeit nur von einigen, wenigen Spielen angeboten, soll zukünftig aber über den Treiber in jedem Spiel verfügbar gemacht werden.

7700-pres-5-rs 7700-pres-6-rs 

Mit der GeForce GTX 680 bzw. dem dazugehörigen Treiber führt NVIDIA auch einen neuen Anti-Aliasing-Modus ein. Dabei handelt es sich um TXAA, dessen Bildqualität durchgängig höher als MSAA sein soll. 1x TXAA soll eine bessere Kantenglättung als 8x MSAA ermöglichen und das bei einem Rechenaufwand, der auf Niveau von 2x MSAA liegt.

TXAA kombiniert die Vorteile von MSAA und FXAA. TXAA basiert auf einem temporären Super-Sampling, das allerdings nicht den Speicherbedarf eines klassischen Super-Sampling haben soll. TXAA soll in Engines wie der CryEngine 3, Unreal Engine 4 und weiteren zum Einsatz kommen.

7700-pres-5-rs 7700-pres-6-rs 7700-pres-6-rs

Der direkte Vergleich in einer NVIDIA-Techdemo macht die Unterschiede der verschiedenen Anti-Aliasing-Modi deutlich.

driver-fxaa-rs

FXAA lässt sich nun über alle Spiele hinweg direkt im Treiber einstellen. Wie bereits erwähnt wird der TXAA-Support später folgen.

In einem Bild- und Performance-Vergleich versuchen wir dir Unterschiede der verschiedenen Anti-Aliasing-Modi darzustellen.

gtx680-aa-vergleich-1-rs

kein AA / 8xMLAA / 8xFXAA

Im direkten Vergleich werden die Unterschiede der verschienen Modi deutlich. Natürlich hat dies auch Auswirkungen auf die Performance.

fxaa-vergleich

NVIDIA verspricht mit FXAA eine bessere Bildqualität bei zugleich höherer Performance. Wir haben die Performance in Skyrim in verschiedenen AA-Modi gemessen und obiges Ergebnis erhalten.


VSync ist vielen ein Begriff, stellt einige, die sich damit beschäftigen, aber immer wieder vor Probleme.

gtx680-pres-09-rs

Beim klassischen VSync kommt es zu deutlichen Rucklern, wenn die anvisierte Framerate nicht gehalten werden kann. Dann reduziert sich die Anzahl der Bilder von beispielsweise 60 auf 30. Fällt die zu berechnende 3D-Szene regelmäßig und häufig unter die magische Grenze, sind diese Ruckler störend und sorgen für kein flüssiges Spielvergnügen.

gtx680-pres-10-rs

Mit adaptivem VSync wird die Bildwiderholrate dynamischer angepasst, ohne dass es zu großen Brüchen bei der Bilddarstellung kommt. Dazu wird VSync schlicht und ergreifend abgeschaltet, sobald die FPS unter die voreingestellte Grenze fallen. Ein Ausschalten von VSync führt allerdings zu einem Tearing, bei dem mehr als ein Bild auf dem Monitor dargestellt wird.

driver-adaptive-sync-rs

NVIDIA bietet zwei Modi für das adaptive Sync ein. Zum einen lässt sich die vertikale Synchronisation einschalten und ist dann auf 60 FPS festgelegt. Wer eine andere Wiederholfrequenz am Monitor verwendet, kann sie aber auch auf 30 FPS festlegen.


Mit den neuen "Kepler"-GPUs kann NVIDIA mehr als zwei Displays über eine Grafikkarte ansprechen. Zwar konnten auch schon "Fermi"-Karten mehr als zwei Displays anbinden, allerdings schränkte NVIDIA diese Möglichkeit künstlich ein und so mussten die Hersteller auf spezielle Versionen der Karte zurückgreifen. 3D Vision Surround ist also bereits mit einer Karte möglich. Im Falle der GeForce GTX 680 stehen vier Ausgänge zur Verfügung, die allesamt eine Ausgabe ermöglichen. Die beiden Dual-Link-DVI-Ausgänge erlauben eine maximale Auflösung von 3840 x 2400 Bildpunkte, ebenso wie der DisplayPort und HDMI-Ausgang in der 1.4a-Ausführung.

gtx680-20-rs

Diesen Anblick einer vollen Bestückung der Slotblende dürften nur die allerwenigsten zu Hause erleben.

kepler-3dvisionsurround

Auch an der Software hat NVIDIA gearbeitet. Die Windows Taskleiste kann nun auf einen Monitor beschränkt werden und auch die Handhabung von Fenstern soll einfacher als zuvor sein. Die Kompensation der Displayrahmen ist ebenfalls vereinfacht worden. Ähnlich wie AMD führt auch NVIDIA zahlreiche weitere “Custom”-Auflösungen ein, die durch die Kombination zahlreicher Monitore und die Korrektur der Rahmen entsteht. 


In einigen Techdemos erklärt NVIDIA einige der neuen Features.

Mit der GeForce GTX 680 führt NVIDIA einen neuen Anti-Aliasing-Modus ein. TXAA kombiniert die Vorteile von MSAA und FXAA. TXAA basiert auf einen temporären Super-Sampling, das allerdings nicht den Speicherbedarf eines klassischen Super-Samplings haben soll. In einer Techdemo vergleicht NVIDIA die verschiedenen AA-Modi miteinander.

In der "Fracture" Techdemo demonstriert NVIDIA einen zufälligen Algorithmus, um die Zerstörung per PhysX zu berechnen. Entwickler müssen nicht mehr eigene Schemata hinterlegen, sondern können auf die API zurückgreifen. Zudem ist keine Zerstörung von Gegenständen wie die andere und somit wirken diese realistischer.

Die "Fur" Techdemo dient NVIDIA dazu zu zeigen, wie über PhysX die realistische Berechnung von Haaren optimiert werden kann. Sämtliche Haare reagieren hier eigenständig aufeinander und das zu hunderttausenden. Bislang war eine solche Komplexität nicht möglich, soll in Kürze aber für Spieleentwicklung zugänglich gemacht werden.

Für europäische Verhältnisse kaum vorstellbar, aber in Asien das meistgespielte Game ist QQ Dance 2. Hier zu sehen sind einige Physik-Effekte, die NVIDIA über die PhysX-API möglich macht. Das Video zeigt einige Demo-Szenen, die auf einer GeForce GTX 680 ausgeführt wurden.

Mit "Dawn" führte NVIDIA das Leistungspotenzial der GeForce-FX-Serie erstmals vor. Diese erschien 2003 und war damals eine der realistischsten Realtime-Demos. Offenbar wird NVIDIA in Kürze eine neue Techdemo mit der Hauptfigur "Dawn" veröffentlichen.


In der ersten Phase werden vermutlich nur Karten im Referenzdesign erscheinen, das wir uns nun genauer anschauen werden.

gtx680-01-rs

NVIDIA hat sich selbst hohe Maßstäbe für seine Referenzkühlung gesteckt und legt großen Wert auf deren Optimierung im Vergleich zum Vorgänger. Grundsätzlich ist es beim gleichen Design geblieben. Am hinteren Ende der Karte saugt ein Lüfter die frische Luft an und bläst sie in Richtung der Slotblende. Auf die Details gehen wir später noch genauer ein.

Mit einer Länge von 25,5 cm ist die GeForce GTX 680 genauso einen Zentimeter kürzer als eine GeForce GTX 580 und die Radeon HD 7970.

gtx680-01-rs

Der Blick auf die Rückseite verrät, dass NVIDIA auf eine Backplate verzichtet. Offenbar ist diese nicht nötig, um den Kühler stabil auf der Karte bzw. der GPU zu halten. Auf einige Besonderheiten, die auch hier schon zu sehen sind, gehen wir gleich noch etwas genauer ein.

gtx680-01-rs

Der Radiallüfter hat einen Durchmesser von 65 mm und soll laut NVIDIA aus lärmdämmenden Materialien gefertigt worden sein, die eventuell störende Geräusche direkt an der Quelle mindern sollen. Dabei geht es weniger um die absolute Lautstärke, die erzeugt wird, sondern vielmehr darum, für das menschliche Ohr störende Frequenzen zu verhindern.

gtx680-01-rs

Etwas unorthodox wirkt die Positionierung bzw. Anordnung der zwei 6-Pin-Stromanschlüsse. Üblicherweise sind diese nebeneinander angeordnet, NVIDIA setzt sie hintereinander.

gtx680-01-rs

Wie schon der "Fermi"-Vorgänger ist auch die GeForce GTX 680 in der Lage in einem SLI- oder 3-Way-SLI betrieben zu werden. Inoffiziell dürfte auf entsprechenden Boards, wie etwa bei der GeForce GTX 580 der Fall, auch ein 4-Way-SLI-Gespann möglich sein. Dazu sieht NVIDIA die beiden SLI-Connectoren in der Nähe der Slotblende auf dem PCB vor.

gtx680-01-rs

Am hinteren Ende der Karte, dort wo der Lüfter die kühle Luft ansaugt, vertraut NVIDIA auf ein komplett geschlossenes Gehäuse. Die Luft wird also in Gänze in Richtung Slotblende befördert.

gtx680-01-rs

Wie bereits erwähnt, kann die GeForce GTX 680 über ihre vier Anschlüsse auch ebenso viele Displays ansteuern. Dazu stehen zweimal Dual-Link-DVI und jeweils einmal HDMI 1.4a und DisplayPort 1.2 bereit.

Wie zu sehen ist, nutzt NVIDIA auf der Slotblende jede Lücke, um die warme Luft aus dem Kühler-Gehäuse nach außen zu führen.

gtx680-01-rs

Die hier abgebildete Elektronik ist ausschließlich für das GPU-Boost-Feature verantwortlich. Diese kleine Zusatzplatine werden wir in dieser, vielleicht aber auch leicht abgewandelter Form, auf jeder GeForce GTX 680 sehen.


Weiter geht es mit der Karte ohne Kühler.

gtx680-10-rs

Ohne Kühler präsentiert sich die GeForce GTX 680 im klassischen Grafikkarten-Design. Links sind die GPU und die Speicherchips zu erkennen. Rechts befinden sich die wichtigsten Komponenten der Spannungs- und Stromversorgung.

gtx680-10-rs

Ein detaillierter Blick auf die Spannungs- und Stromversorgung lässt keinerlei besonderer Details erkennen. Scheinbar reicht eine 4-phasige Spannungsversorgung für die GeForce GTX 680 aus. Wir sind gespannt, welcher Hersteller als erstes mit einem alternativen PCB-Design aufwarten kann.

gtx680-10-rs

Die beiden 6-Pin-Anschlüsse für die zusätzliche Stromversorgung stellen schon eine Besonderheit dar. Rechts daneben sind zusätzliche Lötpunkte zu erkennen, die einen weiteren 6-Pin-Anschluss erkennen lassen. Warum dieser auf dem PCB geplant ist und nun in dieser Form nicht verwendet wird, erklärt sich uns nicht.

gtx680-10-rs

Die GPU der GeForce GTX 680 hört auf dem technischen Codenamen GK104. Genauer gesagt handelt es sich bei der GPU um eine "GK104-400-A2". Gefertigt wurde er in der dritten Woche 2012 und es handelt sich um die zweite Fertigungsrevision.

gtx680-10-rs

NVIDIA verbaut auf der GeForce GTX 680 acht Speicherchips aus dem Hause Hynix. Die Modellreihe "H5G02H245MFA" kennen wir schon von zahlreichen anderen Karten wie der AMD Radeon HD 7900-Serie, dort kamen sie aber mit reduzierten Taktraten zum Einsatz. Auf der GeForce GTX 680 arbeiten sie mit den vollen 1500 MHz. Jeder Chip verfügt über eine Kapazität von 256 MB.


Im Folgenden steht der Kühler der GeForce GTX 680 im Fokus.

gtx680-10-rs

Der Kühler selbst besteht aus einem Metallrahmen, der dann den Kupfer-Kühler und den Lüfter enthält. Auf der Metallplatte befinden sich bereits zahlreiche Wärmeleitpads, die bereits die Speicherchips und einige Bauteile der Strom- und Spannungsversorgung abdecken.

gtx680-10-rs

NVIDIA vertraut auf einen Radiallüfter mit einem Durchmesser von 65 mm. Er soll hohes Luftvolumen mit geringer Geräuschentwicklung kombinieren. Dazu verwendet NVIDIA laut eigener Aussage auch geräuschdämmende Materialien, die störende Frequenzen schlucken oder gar gänzlich verhindern sollen.

gtx680-10-rs

Während die Speicherchips und einige andere Komponenten durch das Kühlergehäuse gekühlt werden, sitzt die GPU auf einem Heatsink mit einer Kupferplatte. In dieser verbergen sich drei Heatpipes, welche die Wärme im kompletten Heatsink verteilen sollen. NVIDIA setzt also keine Vapor-Chamber mehr ein.

7700-pres-5-rs  7700-pres-6-rs= 

NVIDIA will den Luftstrom, der durch den Heatsink führt, optimiert haben, um eine ideale Wärmeabfuhr zu erreichen. Diese Optimierungen betreffen auch die feinen Kühlfinnen, die an den Kanten besonders geschärft worden sein sollen, um Luftwirbel weitestgehend zu unterbinden.


Um die Treiber-Generationen anzugleichen, aber auch um die Hardware auf ein neues Level vorzubereiten, haben wir das Testsystem etwas umgestellt. Der Intel Core i7-3960X wird von 3,2 GHz auf 4,2 GHz übertaktet, um Limitierungen durch den Prozessor weitestgehend auszuschließen. Folgende Systemkomponenten kommen dabei zum Einsatz:

Testsystem
Prozessor Intel Core i7-3960X 3,3 GHz übertaktet auf 4,2 GHz
Mainboard ASUS P9X79
Arbeitsspeicher ADATA XPG Gaming Series Low Voltag 4x 2 GB PC3-12800U CL 9-9-9-24
Festplatte ADATA S510 SSD 60 GB
Netzteil Seasonic Platinum Series 1000 Watt
Betriebssystem Windows 7 64 Bit SP1
Grafikkarten
NVIDIA NVIDIA GeForce GTX 680 (1008/1008/1502 MHz, 2048 MB)
NVIDIA GeForce GTX 590 (608/1215/854 MHz, 3072 MB - 1536 MB effektiv)
NVIDIA GeForce GTX 580 (772/1544/1000 MHz, 1536 MB)
NVIDIA GeForce GTX 570 (732/1464/950 MHz, 1280 MB)
NVIDIA GeForce GTX 560 Ti 448 Cores (732/1464/950 MHz, 1280 MB)
NVIDIA GeForce GTX 560 Ti (820/1640/1000 MHz, 1024 MB)
NVIDIA GeForce GTS 550 Ti (900/1800/1026 MHz, 1024 MB)
NVIDIA GeForce GTX 480 (700/1401/924 MHz, 1536 MB)
NVIDIA GeForce GTX 470 (608/1215/838 MHz, 1280 MB)
NVIDIA GeForce GTX 465 (608/1215/802 MHz, 1024 MB)
NVIDIA GeForce GTX 460 (675/1350/900 MHz, 1024 MB)
NVIDIA GeForce GTS 450 (783/1566/902 MHz, 1024 MB)
AMD AMD Radeon HD 7970 (925/925/1375 MHz, 3072 MB)
AMD Radeon HD 7950 (800/800/1250 MHz, 3072 MB)
AMD Radeon HD 7870 (1000/1000/1200 MHz, 2048 MB)
AMD Radeon HD 7850 (860/860/1200 MHz, 2048 MB)
AMD Radeon HD 7770 (1000/1000/1125 MHZ, 1024 MB)
AMD Radeon HD 7750 (800/800/1125 MHz, 1024 MB)
AMD Radeon HD 6990 (830/830/1250 MHz, 4096 MB - 2048 MB effektiv)
AMD Radeon HD 6970 (880/880/1375 MHz, 2048 MB)
AMD Radeon HD 6950 (800/800/1200 MHz, 2048 MB)
AMD Radeon HD 6870 (900/900/1050 MHz, 1024 MB)
AMD Radeon HD 6850 (775/775/1000 MHz, 1024 MB)
AMD Radeon HD 5970 (725/725/1000 MHz, 2048 MB - 1024 MB effektiv)
AMD Radeon HD 5870 (850/850/1200 MHz, 1024 MB)
AMD Radeon HD 5850 (725/725/1000 MHz, 1024 MB)
AMD Radeon HD 5830 (800/800/1000 MHz, 1024 MB)
Treiber:
NVIDIA

GeForce 300.99

AMD AMD Catalyst 12.3 Preview

Treibereinstellungen NVIDIA:

Textureinstellungen AMD:

Folgende Benchmarks kommen mit den genannten Settings zum Einsatz:

Futuremark 3DMark 11 (DX11):

LuxMark 2.0 (OpenCL):
  • Sala

Anno 2070 (DX11):

Battlefield 3 (DX11):

Call of Duty: Modern Warfare 3 (DX9):

Crysis Warhead (DX10):

Crysis 2 (DX11):

  • 1680x1050 1xAA 16xAF 
  • 1680x1050 4xAA 16xAF
  • 1920x1080 1xAA 16xAF
  • 1920x1080 4xAA 16xAF
  • 2560x1600 1xAA 16xAF
  • 2560x1600 4xAA 16xAF

The Elder Scrolls V: Skyrim (DX9):

  • 1680x1050 1xAA 16xAF 
  • 1680x1050 8xAA+FXAA 16xAF
  • 1920x1080 1xAA 16xAF
  • 1920x1080 8xAA+FXAA 16xAF
  • 2560x1600 1xAA 16xAF
  • 2560x1600 8xAA+FXAA 16xAF

The Witcher 2 (DX9):

  • 1680x1050 AA aus 16xAF 
  • 1680x1050 MLAA 16xAF
  • 1920x1080 AA aus 16xAF
  • 1920x1080 MLAA 16xAF
  • 2560x1600 AA aus 16xAF
  • 2560x1600 MLAA 16xAF

Metro 2033 (DX11):

  • 1680x1050 AAA 16xAF 
  • 1680x1050 4xAA 16xAF
  • 1920x1080 AAA 16xAF
  • 1920x1080 AAA 16xAF
  • 2560x1600 AAA 16xAF
  • 2560x1600 4xAA 16xAF 

Beginnen wollen wir mit den Messungen. Für die die Last-Verbrauchs- und Lautstärkemessungen nutzen wir Crysis 2. Letztere führen wir mit einer Messempfindlichkeit zwischen 30 bis 70 dB(A) im Abstand von 30 cm zu den Grafikkarten am offenen Gehäuse durch.

mess1

Wir sind sehr zufrieden mit dem Idle-Verbrauch der Radeon-HD-7000-Serie und daran ändert sich auch mit dem Erscheinen der GeForce GTX 680 nichts. Diese hat den Anspruch die Radeon HD 7970 zu schlagen, was ihr zumindest beim Idle-Verbrauch auch in dieser Disziplin durch einen um vier Watt niedrigeren Verbrauch gelingt.

mess2

Ein ähnliches Bild zeichnet auch der Last-Verbrauch. Im Hinterkopf sollte immer noch die Performance gehalten werden. Die GeForce GTX 680 und Radeon HD 7970 schenken sich hier nicht viel und liegen nur wenige Watt auseinander.

mess3

NVIDIA hat großen Wert auf die Kühlung gelegt und kann im Idle-Betrieb mit 36 °C glänzen. Die Abstände sind hier aber sehr gering und zudem muss zur Beurteilung der Kühlleistung auch noch die Lautstärke hinzugezogen werden.

mess4

Schon wesentlich interessanter ist daher der Blick auf die Last-Temperatur und hier muss sich NVIDIA mit der GeForce GTX 680 gegenüber der Radeon HD 7970 einen "Aufschlag" von 6 °C gefallen lassen. Mit 80 °C sticht NVIDIA in Temperaturbereiche der alten Generation vor - nimmt dies aber vielleicht für eine geringere Drehzahl des Lüfters und damit geringere Lautstärke in Kauf.

mess5

Mit 1 dB(A) Abstand zur Radeon HD 7970 löst NVIDIA eines der Versprechen ein, das mit der Kühlung gemacht wurde. Die GeForce GTX 680 ist sogar noch leiser als die gute Radeon-HD-7800-Serie.

mess6

Besonders interessant ist einmal mehr der Last-Betrieb und auch hier kann sich die GeForce GTX 680 gegen die Radeon HD 7970 durchsetzen. Wir sind überrascht, wie gut NVIDIA die Last-Lautstärke im Griff hat. Ob dies auch mit einer entsprechenden Performance einhergeht, werden wir auf den folgenden Seiten ergründen.


Auch die neuste Generation des 3DMark wollen wir mit in den Benchmark-Parcours aufnehmen. Beim 3DMark 11 handelt es sich um den ersten vollständigen DirectX-11-Benchmark aus dem Hause Futuremark. Aus diesem Grund macht er auch ausgiebig Gebrauch von Tessellation, Depth of Field, Volumetric Lighting und Direct Compute. Obligatorisch ist natürlich auch die Unterstützung für Multi-Core-Prozessoren mit mehr als vier Kernen. Der Download ist in unserer Download-Area möglich.

3dmark11_2_rs 3dmark11_1_rs
3dmark11_4_rs 3dmark11_3_rs

Zum kostenlosen Download von Futuremarks 3DMark 11 gelangt man über diesen Link.

3dmark1

3dmark1

3dmark1


Als Geralt von Riva, dem Helden und Protagonisten des Fantasy-Rollenspiels The Witcher 2, kämpft und zaubert sich der Spieler durch die detailreich inszenierte Spielwelt. Assassins of Kings knüpft als Nachfolger von The Witcher nahtlos an dessen Ereignisse an, wobei der nicht-lineare Handlungsverlauf auch bei mehreren Durchgängen Spannung verspricht. Die eigens für den im Jahr 2010 veröffentlichten Titel entwickelte Red Engine (DX9) hob den Grafikstandard für Rollenspiele an und stieß bei Spielern und der Fachpresse auf hohe Anerkennung. So bezeichneten die Programmierer von CD Projekt RED ihre Engine als "beste Rollenspiel-Engine der Welt".

Crysis1_rsCrysis2_rs
Crysis3_rs Crysis4_rs

Zur Vollversion von The Witcher 2 in unserem Preisvergleich gelangt man über diesen Link.

witcher1

witcher1

witcher1

witcher1

witcher1

witcher1


Die Erfolgsmarke Call of Duty wurde mit Modern Warfare 3 Ende 2011 zum bereits achten Mal mit einer Fortsetzung versehen. Der Egoshooter besticht durch bildschirmfüllende Daueraction ohne echte Verschnaufspausen. Durch die starke und brachiale Inszenierung fühlt sich der Spieler dank der Möglichkeiten der IW Engine 4.0 (DX9) in den Mittelpunkt des Kriegsgeschehens versetzt. Laut Entwickleraussagen zeichnet sich die Engine vor allem durch das vertikale Gameplay und die äußerst detailliert ausgearbeiteten Texturen aus.

ResidentEvil1_rs ResidentEvil2_rs
ResidentEvil3_rs ResidentEvil4_rs

Zur Vollversion von Call of Duty: Modern Warfare 3 in unserem Preisvergleich gelangt man über diesen Link.

cod1

cod1

cod1


Anno 2070 spielt entgegen seiner vier Vorgänger nicht mehr in der Vergangenheit, sondern knapp 60 Jahre in der Zukunft. Das Spielprinzip blieb grundsätzlich gleich, das heißt fremde Inseln erkunden, besiedeln, Wirtschaftskreisläufe aufbauen, um die Bedürfnisse der unterschiedlichen Bevölkerungsteile zu befriedigen, und sich in der Diplomatie üben. Neu sind die drei Fraktionen: Die Ecos setzen auf regenerative Energie und erhalten die Natur, während ihr Gegenpart, die Tycoons, durch Schwerindustrie die Umwelt verschmutzen. Die dritte Fraktion, die Techs, ermöglicht es, neue Techniken zu nutzen und auf dem Meeresboden zu siedeln. Die großen Inseln, die lebendige Flora und Fauna und die fantastischen Wassereffekte der eigens von Related Designs entwickelten Engine (DX11) verlangen auf der höchsten Detailstufe der Grafikkarte einiges ab.

 
 

Zur Vollversion von Anno 2070 in unserem Preisvergleich gelangt man über diesen Link.

anno1

anno1

anno1

anno1

anno1

anno1


Die Battlefield-Serie erfuhr mit der Veröffentlichung des dritten Teils den vorläufigen Höhepunkt der virtuell erlebbaren Multiplayer-Action auf weitläufigen Schlachtfeldern. Differenzierte Soldatenklassen, realitätsgetreu modellierte Waffen und Fahrzeuge stellen in Verbindung mit der leistungsstarken Frostbite 2-Engine (DX11) das momentane Nonplusultra des Actiongenres dar. Die grafische Darstellung besticht durch enorme Weitsicht und wirklichkeitsnahe Bewegungsabläufe des eigenen Soldaten. Langzeitmotiviation ist dank des Aufstiegssystems mit unzählig vielen freischaltbaren Waffen und Gadgets garantiert, wobei mit Hilfe des Battlelogs stets die Übersicht gewahrt wird.

ResidentEvil1_rs ResidentEvil2_rs
ResidentEvil3_rs ResidentEvil4_rs

Zur Vollversion von Battlefield 3 in unserem Preisvergleich gelangt man über diesen Link.

bf1 

bf1 

bf1 

bf1 

bf1 

bf1 


Immer wieder für grafische Highlights verantwortlich zeichnen die Macher von Crysis. Die als Basis dienende CryEngine 2 sorgt dafür, dass selbst aktuelle High-End-Systeme den Anforderungen nicht immer gewachsen sind. Daher eignet sich Crysis Warhead ideal für unsere Benchmarks. Wir verwenden Crysis Warhead im DirectX-10-Modus, alle Details auf Maximum.

Crysis1_rs Crysis2_rs
Crysis3_rs Crysis4_rs

Zur Vollversion von Crysis Warhead in unserem Preisvergleich gelangt man über diesen Link.

crysis1-1

crysis1-1

crysis1-1

crysis1-1

crysis1-1

crysis1-1


Das auf der CryEngine 3 (DX11) basierende Crysis 2 entführt den Spieler in das apokalyptisch inszenierte New York. Die Ceph, die dem Insider bekannte Alienrasse aus dem ersten Teil, setzen auch im zweiten Teil alles daran, die Menschheit zu vernichten. Der Hauptcharakter namens Alcatraz, der zu Beginn durch unglückliche Umstände in Besitz des Nano-Suits gelangt, setzt sich fortan mit Waffengewalt und übermenschlichen Fähigkeiten, die der Anzug seinem Träger verleiht, gegen die Invasion zur Wehr. Im Gegensatz zum ersten Teil kommen auch Besitzer schwächerer PCs im optionalen Direct-X-9 Modus in den ruckelfreien Spielgenuss. Dies ist vor allem dem technischen Kompromiss geschuldet, den die Entwickler hinsichtlich der Konsolenportierung eingehen mussten. Die entsprechend vorhandene Hardware vorausgesetzt, kann als kleines Gimmick sogar im 3D-Modus auf Alienjagd gegangen werden.

Crysis1_rs Crysis2_rs
Crysis3_rs Crysis4_rs

Zur Vollversion von Crysis 2 in unserem Preisvergleich gelangt man über diesen Link.

crysis2-1

crysis2-1

crysis2-1

crysis2-1

crysis2-1

crysis2-1


Der fünfte Teil der The-Elder-Scroll-Reihe spielt in der namensgebenden Provinz Skyrim (dt. Himmelsrand). Die Handlung dreht sich um die Rückkehr der Drachen, wie sie in den "Elder Scrolls" vorhergesagt wurde. Der Spieler übernimmt die Rolle eines "Dovahkiin", eines Individuums mit dem Körper eines Menschen und der Seele eines Drachen. Der Spieler durchstreift bei dem Kampf gegen die Drachen opulente Städte mit verschlungenen Gassen und atemberaubende Landschaften, deren Grenze buchstäblich der Himmel ist. Mit seiner hohen Weitsicht und der detaillierten Vegetation bringt Skyrim so manches System ins Schwitzen.

Crysis1_rs Crysis2_rs
Crysis3_rs Crysis4_rs

Zur Vollversion von Elder Scrolls V: Skyrim in unserem Preisvergleich gelangt man über diesen Link.

skyrim1

skyrim1

skyrim1

skyrim1

skyrim1

skyrim1


Eine unwirtliche und verstrahlte Umwelt, Mutanten und ständige Bedrohungen - all diese Elemente nutzen die Ex-S.T.A.L.K.E.R. Entwickler 4A Games Studios, um den Spieler in die Welt von Metro 2033 zu entführen. Im Jahr 2033 hat sich die Menschheit mal wieder bekriegt und durch einen Atomschlag gegenseitig fast in die Luft gebombt. Eine Hand voll Überlebende hat sich in die Systeme der Moskauer U-Bahn zurückgezogen, um dort Zuflucht zu suchen. Zum Leidwesen der Flüchtlinge ist dieser Ort nicht ihre alleinige Heimat, auch feindselige Kreaturen, die sich an die giftige Atmosphäre gewöhnt haben, sind dort anzutreffen. Ihr Ziel: die verbleibenden Menschen ausrotten! Ob sie nun rohe Gewalt oder ausgeklügelte Taktik anwenden, es bleibt ihnen überlassen, wie sie das Ziel erreichen. Wie schon bei ihrem Erstlingswerk schaffen die Entwickler eine Wahnsinnsatmosphäre und lassen mit der A4-Engine (DX11) selbst moderne Grafikkarten an ihre Grenzen kommen.

Metro_1_rs Metro_2_rs
Metro_3_rs Metro_4_rs

Zur Vollversion von Metro 2033 in unserem Preisvergleich gelangt man über diesen Link.

metro1

metro1

metro1

metro1

metro1

metro1


Auf den ersten Seiten haben wir uns bereits ausführlich mit dem GPU-Boost beschäftigt. Nun stellt sich die Frage, wie ein Overclocking mit der GeForce GTX 680 möglich ist, wenn sich den Takt abhängig von zahlreichen Profilen selbstständig ändert. Dazu bietet NVIDIA die beiden Regler "Power Target" und "GPU Boost Offset" an.

evga-precision-1

Einen stabilen und fixen OC-Takt werden wir mit der GeForce GTX 680 also nicht mehr sehen. Ähnlich wie bei AMDs PowerTune kann über das "Power Target" die Grenze für den maximalen Verbrauch angehoben werden. 100 Prozent entspricht dabei 195 Watt. Maximal kann das "Power Target" um +/- 30 Prozent verändert werden, was 136 bzw. 253 Watt entspricht. Es entspricht in gewisser Weise einer Übertaktung, wenn das "Power Target" erhöht wird. Sollte eine Anwendung die Karte an ihre Grenze von 195 Watt belasten und somit auf 1058 MHz beschränken, die Temperaturen lassen aber noch Luft nach oben, kann ein Anheben des "Power Target" Abhilfe schaffen und höhere Taktraten erlauben.

Für ein Overclocking bietet sich aber eine Kombination aus "Power Target" und "GPU Clock Offset" an. Über die letztgenannten Regler wird wohl auf den Basis- wie auch den Boost-Takt ein Offset gelegt. Wird der Takt hier also um 50 MHz erhöht, liegt der Basis-Takt bei 1056 MHz und der Boost-Takt bei 1108 MHz. Gleiches gilt für den Speicher, der ebenfalls über einen Boost verfügt. Maximal möglich ist hier ein Offset von +550 und -500 MHz. Beim Speicher ist es maximal + 1000 und -500 MHz.

Eine Zerstörung der Hardware ist aufgrund der umfangreichen Überwachung von Temperatur und weiteren Elementen laut NVIDIA nahezu ausgeschlossen. Für den OC-Test haben wir uns daher dazu entschieden das "Power Target" auf den maximalen Wert zu stellen und den Takt über den Offset immer weiter anzuheben.

evga-precision-2

Im EVGA Precision-Tool haben wir die Spannung auf den Maximalwert von 1,15 Volt gestellt.

evga-precision-3-rs

Letztendlich erreichten wir einen "GPU Clock Offset" von +177 MHz und ein "Mem Clock Offset" von +274 MHz. Der GPU-Takt belief sich maximal auf 1280 MHz und der Speicher arbeitete mit 1638 MHz.

Diese Taktsteigerung wirkte sich in den Benchmarks wie folgt aus:

oc1

oc2

oc3

oc4

Natürlich hat eine Steigerung von Spannung und Takt auch Auswirkungen auf weitere Werte:

oc5

oc6

oc7


Der Wechsel auf eine kleinere Fertigung ist für jeden Chiphersteller eine große Herausforderung. Gerade wenn die Fertigung nicht "In-House" stattfindet, sondern von Auftragsfertigern durchgeführt wird, kommt es immer wieder zu Problemen. TSMC hatte schon recht früh bekannt gegeben, dass der 28-nm-Prozess Schwierigkeiten machen wird. Den beiden Herstellern AMD und NVIDIA war aber klar, dass eine kleinere Fertigung mehr als notwendig werden wird. Gerade NVIDIA hatte mit einer fast schon gigantischen Chipfläche von 530 mm² bei 3 Milliarden Transistoren zu kämpfen. AMD war in der Vergangenheit meist etwas sparsamer, nicht nur bei der Anzahl der Transistoren, sondern auch bei der Effizienz seiner GPUs. Das Blatt scheint sich mit der neuen Generation an 28-nm-GPUs aber gewendet zu haben. Während AMD mit einem Transistor-Monster mit 4,3 Milliarden Transistoren auf 365 mm² antritt, kommt NVIDIA mit 3,53 Milliarden Transistoren und 294 mm² aus.

Dies ist vor allem dann wichtig, wenn es um den Preis geht. NVIDIA gewährte einen interessanten Einblick, als man sich zu einer interessanten Aussage während der Bekanntgabe der Quartalszahlen hinreißen lies. Offenbar ist die Ausbeute weit geringer als NVIDIA angenommen hat und zudem können auch nicht genügend Wafer geliefert werden. Hersteller wie AMD und NVIDIA zahlen bei TSMC nicht für funktionsfähige Chips, sondern für die Wafer, egal wie viele Chips darauf verwendet werden können. Eine größere Chipfläche bedeutet eine geringere Anzahl an Chips pro Wafer und damit höhere Kosten. Ein weiterer wichtiger Punkt ist natürlich die Yield-Rate, also Ausbeute an funktionierenden Chips. Hier lassen sich beide Hersteller allerdings nicht in die Karten schauen.

Kommen wir zum eigentlichen Thema dieses Artikels - der GeForce GTX 680. NVIDIA hat mit GPU-Boost eine aus dem CPU-Bereich bereits bekannte Technologie auf die GPUs überführt. Den Umstand, dass nicht alle Applikationen und Spiele eine Grafikkarte in der Vergangenheit komplett ausnutzen konnten, war bekannt, allerdings fehlte es an einer technischen Umsetzung dies zu umgehen. GPU-Boost ist ein Ansatz, der deutlich weiter reicht, als AMDs PowerTune. Doch NVIDIA wird Schwierigkeiten haben, das Feature dem Otto-Normaluser auch nahe zu bringen. Auch in unserem Artikel haben wir diverse Absätze und Grafiken benötigt, um die Technik hinter GPU-Boost zu erklären. Ob uns dies gelungen ist, können wir nur schwer beurteilen.

technology-logos

Bei modernen Grafikkarten reduziert sich vieles auf einige wichtige Eckdaten: Anzahl der Cores/Shader, GPU- und Speicher-Takt. Doch welchen Wert soll NVIDIA nun angeben? Sicherlich ist der Basis-Takt eine, wie der Name schon sagte, gute Basis dazu. Doch wenn man höhere Zahlen anbieten kann, will man diese sicherlich an den Kunden bringen. Der Boost-Takt ist ein garantierter "Turbo", den jede GeForce GTX 680 erreicht. Doch es kommt noch ein weiterer hinzu: Der maximale Takt, der unter bestimmten Umständen in Spielen erreicht wird. Dieser scheint bislang bei etwa 1110 MHz zu liegen. Doch keine Karte ist wie die andere und daran wird sich auch nichts ändern. Sollte NVIDIA gemeinsam mit TSMC die Fertigung weiter in den Griff bekommen, könnten sogar Karten erscheinen, die einen höheren maximalen Takt erreichen. Dann werden die Shops sicherlich in die Situation kommen, dass sich ein Kunde mehrere Karten bestellt, die beste heraussucht und die restlichen wieder zurückschickt - sich die beste Hardware also selektiert.

Features wie TXAA und die adaptive Synchronisation sind schicke Features, die sich aber zumindest im Falle von TXAA außerhalb von Techdemos erst noch beweisen müssen, dass sie in der Praxis auch halten, was sie versprechen. Zumindest die adaptive Synchronisation funktioniert aber bereits jetzt und kann überzeugen.

gtx680-sli-rs

NVIDIA verspricht ein deutlich höheres Performance/Watt-Verhältnis als mit dem Vorgänger aus eigenem Hause und auch gegen die Konkurrenz von AMD zeigte man sich selbstbewusst. Die eigenen Messungen belegen dies. Sowohl im Idle- wie auch Last-Betrieb verbraucht die GeForce GTX 680 weniger oder zumindest gleich viel wie eine Radeon HD 7970. Bezieht man nun auch noch die Benchmarks mit in diese Betrachtung ein, kann NVIDIA tatsächlich mit einem besseren Performance/Watt-Verhältnis aufwarten. In den synthetischen Benchmarks liegt der Vorsprung bei 20 Prozent. In den realen Spiele-Benchmarks sind es 5 bis 30 Prozent (je nach Auflösung und Spiele-Engine). In manchen Benchmarks muss sich die GeForce GTX 680 der Radeon HD 7970 aber auch geschlagen geben. Beispiele sind Crysis Warhead und Metro 2033. Hier wird NVIDIA aber sicherlich noch an den Treiber feilen, um solche Rückstände auszubügeln. Über alle unsere Benchmarks hinweg messen wir ein Performance-Plus der GeForce GTX 680 gegenüber der Radeon HD 7970 von 7,5 Prozent. Besonders in hohen Auflösungen profitiert AMD vom größeren Speicher seiner High-End-Karten.

Gut gefallen hat uns auch die Referenzkühlung von NVIDIA, die in der Vergangenheit immer wieder Kritik erleiden musste. Im Idle-Betrieb messen wir einen sehr guten Wert von 36 °C, unter Last sind es 80 °C und damit eine Handvoll mehr als AMD seinen GPUs zumutet. NVIDIA scheint dies aber in Kauf zu nehmen und lässt den Lüfter unter Last etwas weniger schnell drehen. Dies kommt dann auch der Lautstärke zugute. Diese liegt unter Last durchschnittlich unterhalb der Radeon-HD-7800 und -7900-Serie.

NVIDIA will die GeForce GTX 680 für eine unverbindliche Preisempfehlung von 419 Euro zuzüglich MwSt. anbieten. Dies wären dann in etwa 500 Euro. Die günstigste Radeon HD 7970 ist derzeit für zirka 440 Euro gelistet. Es bleibt aber erst einmal abzuwarten, wie sich die Preise der GeForce GTX 680 entwickeln. Erst dann ist eine finale preisliche Bewertung möglich.

Wir sind gespannt, wie NVIDIA seine "Kepler"-Generation weiter ausführt. Die GeForce GTX 680 ist nur der Anfang. Am Horizont blitzt bereits die GeForce GTX 670 Ti hervor und auch weitere Mittelklasse-Modelle werden sicher bald folgen. Nicht vergessen sollte man natürlich auch das kommende Flaggschiff, das wohl vor allem im HPC-Bereich seine Stärken haben dürfte, aber ebenso im Desktop-Markt auftrumpfen könnte. Doch bis dahin dürften noch einige Monate vergehen.

Positive Aspekte der NVIDIA GeForce GTX 680:

Negative Aspekte der NVIDIA GeForce GTX 680: