NVIDIA GeForce GTX 980 und 970 mit Maxwell-Architektur im XXL-Test

Veröffentlicht am: von

geforce-gtx-980-logoMit der Veröffentlichung der GeForce GTX 750 und GTX 750 Ti sowie der Präsentation der Maxwell-Architektur der ersten Generation war klar, dass eine zweite folgen würde und diese vermutlich den High-End-Markt bedienen wird - das passiert nun mit GeForce GTX 980 und 970. Bei gleicher Leistungsaufnahme wurde die Leistung stark verbessert - das Performance/Watt-Verhältnis machte einen deutlichen Sprung. Ähnliches ist nun auch von der GeForce GTX 980 und GTX 970 zu erwarten, die ebenfalls auf der Maxwell-Architektur aufbauen, aber noch einmal kleine Verbesserungen erhalten haben. Endresultat sollen die bisher schnellsten und sparsamsten Karten aus dem Hause NVIDIA sein. Wir haben das Referenzmodell der GeForce GTX 980 sowie eines der ersten Retail-Modelle der GeForce GTX 970 genauer unter die Lupe genommen.

An dieser Stelle geht unser Dank zunächst einmal an NVIDIA für die Teststellung der GeForce GTX 980 im Referenzdesign sowie an EVGA für die GeForce GTX 970 Superclocked. NVIDIA verspricht zusammen mit seinen Partnern eine sofortige Verfügbarkeit beider Modelle. Während die GeForce GTX 970 von Anfang an in zahlreichen Custom-Designs angeboten wird, müssen Käufer einer GeForce GTX 980 zunächst einmal wohl noch häufiger eine Referenzkarte kaufen, denn nicht jeder Hersteller hat vom Start weg sein Custom-Design fertig.

Als kleine Vorbereitung auf diesen Artikel wollen wir nicht unerwähnt lassen, dass es sich dabei nicht um ein klassisches Launch-Review handelt, sondern dass wir einen großen Teil Theorie haben mit einfließen lassen. Dazu gehört nicht nur die genaue Erläuterung der Maxwell-Architektur, sondern auch die Erklärung der neuen Render- und Filter-Technologien wie DSR, MFAA und VXGI. Ebenfalls genauer beleuchten wollen wir die DirectX-12-Features, denn mit der GeForce GTX 980 und GeForce GTX 970 sehen wir die ersten Karten mit DirectX-12-Hardwareunterstützung. Zahlreiche weitere Features spielen ebenfalls eine Rolle.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Nach dem ersten kleinen Inhaltsverzeichnis steigen wir aber nun direkt in die technischen Details der beiden Karten ein und vergleichen sie gegen die Vorgänger sowie die direkte Konkurrenz. In der Folge wird dann die Architektur die Hauptrolle spielen.

Architektonische Eckdaten

NVIDIA GeForce GTX 980 im Vergleich
ModellGeForce GTX 980Radeon R9 290XGeForce GTX 680GeForce GTX 780 Ti
Straßenpreis etwa 539 Euro etwa 395 Euro etwa 379 Euro etwa 499 Euro
Homepage www.nvidia.de www.amd.com/de www.nvidia.de www.nvidia.de
Technische Daten
GPU Maxwell (GM204) Hawaii Kepler (GK104) Kepler (GK110)
Fertigung 28 nm 28 nm 28 nm 28 nm
Transistoren 5,2 Milliarden 6,2 Milliarden 3,54 Milliarden 7,1 Milliarden
GPU-Takt (Base Clock) 1.126 MHz - 1.006 MHz 876 MHz
GPU-Takt (Boost Clock) 1.216 MHz 1.000 MHz 1.058 MHz 928 MHz
Speichertakt 1.750 MHz 1.250 MHz 1.500 MHz 1.750 MHz
Speichertyp GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 4.096 MB 4.096 MB 2.048 MB 3.072 MB
Speicherinterface 256 Bit 512 Bit 256 Bit 384 Bit
Speicherbandbreite 224,0 GB/s 320,0 GB/s 192,3 GB/s 336,0 GB/s
Shadereinheiten 2.048 2.816 1.536 2.880
Textur Units 128 176 128 240
ROPs 64 64 32 48
TDP 165 Watt > 250 Watt 195 Watt 250 Watt
SLI/CrossFire SLI CrossFire SLI SLI

Alle aktuellen High-End-GPUs und auch deren Vorgänger werden weiterhin in 28 nm gefertigt. Lange wurden darüber spekuliert, ob TSMC nicht doch die Fertigung in 20 nm in den Griff bekommen würde, offenbar aber waren sowohl NVIDIA wie auch AMD nicht von den Fertigkeiten bzw. der Ausbeute überzeugt und bleiben dem 28-nm-Prozess vorerst treu. Sowohl auf der GeForce GTX 980 wie auch auf der GeForce GTX 970 kommt die Maxwell-GPU mit Codenamen GM204 zum Einsatz. Diese besitzt 5,2 Milliarden Transistoren und ist damit weniger komplex als die Hawaii- oder große Kepler-GPUs. Im Vergleich zu GK104, dem eigentlichen Vorgänger, ist die Anzahl der Transistoren aber dennoch stark angewachsen.

Bisher musste NVIDIA beim Takt seiner GPUs in Abhängigkeit zur Komplexität der GPU immer konservativer agieren. Mit der GeForce GTX 980 und der darauf verbauten Maxwell-GPU kann NVIDIA offenbar wieder stärker an der Taktschraube drehen und lässt die 2.048 Shadereinheiten mit 1.126 MHz im Basis-Takt arbeiten. Unter Last und bei ausreichender Kühlung sollen mindestens 1.216 MHz möglich sein - die Karte kann aber noch deutlich höher takten als diese Boost-Vorgabe. Der GPU zur Seite stehen 4.096 MB GDDR5-Grafikspeicher, die mit einem Takt von 1.750 MHz angesprochen werden. Damit verwendet NVIDIA die aktuell schnellsten GDDR5-Speicherchips. Angebunden sind diese aber mit nur 256 Bit. Das könnte im Vergleich zu den 512 Bit der Radeon R9 290X und den zumindest 384 Bit der GeForce GTX 780 Ti zur größten Schwachstelle der GeForce GTX 980 werden. Dazu aber später mehr, wir halten an dieser Stelle nur die 224 GB pro Sekunde an Speicherbandbreite fest, was im Vergleich zur High-End-Konkurrenz sicherlich zunächst einmal recht ernüchternd klingt.

Auf die Details der Architektur kommen wir zwar später noch einmal, die 2.048 Shadereinheiten ergeben sich aber dennoch aus 16 Maxwell-Streaming-Multiprozessoren, die aus jeweils 128 ALUs bestehen. Aus dieser Zusammensetzung ergeben sich grundsätzlich auch die 128 Textureinheiten sowie die 64  ROPs - dazu aber wie gesagt später etwas mehr. Das wohl erstaunlichste technische Detail sind die 165 Watt für die Thermal Design Power (TDP). Bei gleicher Fertigung, mit einer komplexeren GPU (im Vergleich zu GK104) und einem höheren Takt will NVIDIA die Leistungsaufnahme dennoch deutlich reduziert haben. Dies dürfte auf spannende Messungen bei der Leistungsaufnahme hindeuten.

NVIDIA GeForce GTX 970 im Vergleich
ModellGeForce GTX 970Radeon R9 290GeForce GTX 670GeForce GTX 770
Straßenpreis etwa 319 Euro etwa 270 Euro etwa 329 Euro etwa 255 Euro
Homepage www.nvidia.de www.amd.com/de www.nvidia.de www.nvidia.de
Technische Daten
GPU Maxwell (GM204) Hawaii Kepler (GK104) Kepler (GK104)
Fertigung 28 nm 28 nm 28 nm 28 nm
Transistoren 5,2 Milliarden 6,2 Milliarden 3,54 Milliarden 3,54 Milliarden
GPU-Takt (Base Clock) 1.050 MHz - 915 MHz 1.046 MHz
GPU-Takt (Boost Clock) 1.178 MHz 947 MHz 980 MHz 1.085 MHz
Speichertakt 1.750 MHz 1.250 MHz 1.500 MHz 1.750 MHz
Speichertyp GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 4.096 MB 4.096 MB 2.048 MB 2.048 MB
Speicherinterface 224 + 32 Bit 512 Bit 256 Bit 256 Bit
Speicherbandbreite 224,0 GB/s 320,0 GB/s 192,3 GB/s 224,4 GB/s
Shadereinheiten 1.664 2.560 1.344 1.536
Textur Units 104 160 112 128
ROPs 64 64 32 32
TDP 145 Watt 250 Watt 170 Watt 230 Watt
SLI/CrossFire SLI CrossFire SLI SLI

Auch die GeForce GTX 970 muss sich der Konkurrenz aus eigenem Hause sowie von AMD stellen. Hier kommt mit GM204 die gleiche GPU zum Einsatz. Wir sprechen also auch hier von 5,2 Milliarden Transistoren und einer Fertigung in 28 nm. Allerdings hat NVIDIA drei SMM deaktiviert, wodurch wir nur noch auf 1.664 Shadereinheiten und 104 Texturheinheiten kommen. Im Vergleich zur GeForce GTX 980 bleibt die Anzahl der ROPs mit 64 identisch. Auch beim Takt gibt es zur GeForce GTX 980 einen Unterschied, denn als Basis-Takt gibt NVIDIA 1.050 MHz an, während es unter Last mindestens 1.178 MHz sein sollen. Der GeForce GTX 970 wird also etwas mehr Taktspielraum eingeräumt und wir bewegen uns wieder etwas mehr im Bereich knapp über der 1-GHz-Marke.

Keinerlei Unterschied gibt es beim Speicherausbau, denn auch auf der GeForce GTX 970 sind 4.096 MB GDDR5-Speicher verbaut, die ebenfalls mit 1.750 MHz angesprochen werden. Allerdings bleibt es auch hier natürlich beim 256 Bit breiten Speicherinterface, sodass die Speicherbandbreite mit 224 GB/Sek. auf etwa dem Niveau der GeForce GTX 770 zu finden ist. Ob dies ein Nachteil sein muss, klären wir später. Bei der GeForce GTX 970 gibt NVIDIA eine TDP von 145 Watt an, so dass die Leistungsmessungen auch hier spannend werden dürften.

Nachtrag:

Aufgrund fehlerhafter Angaben hat NVIDIA die Breite des Speicherinterfaces auf 224 + 32 Bit korrigiert. Ebenfalls reduziert wurde die Anzahl der ROPs von 64 auf 56 und die Größe des L2-Caches von 2.048 auf 1.792 kB. Genauere Details zu den weiteren Auswirkungen findet ihr in einem ausführlichen Artikel dazu.


Mit GM107 auf der GeForce GTX 750 und GTX 750 Ti hat NVIDIA bereits bewiesen, dass auch im aktuellen 28-nm-Prozess eine Verbesserung der Effizienz zu erreichen ist. Ob die im Frühjahr gezeigte Steigerung in diesem Bereich allerdings auch auf eine höhere Leistung skaliert, ist einfach abzuschätzen.

Mit der angesprochenen 1. Generation der Maxwell-Architektur hatte NVIDIA das Ziel das Performance/Watt-Verhältnis um den Faktor zwei zu verbessern. Nebenbei sei einmal erwähnt, dass Maxwell inzwischen die 10. Generation einer GPU-Architektur von NVIDIA ist - den Aufkauf von 3dfx und die dort entwickelten Architekturen natürlich eingeschlossen. Etwa 2011 hat man bei NVIDIA damit begonnen an Maxwell zu arbeiten und großen Einfluss hatte dabei auch die gleichzeitige Arbeit an Tegra K1, dem ersten SoC von NVIDIA mit einer vollständigen Desktop-Architektur. Fortschritte bei der Effizienz des Tegra K1 flossen bei Maxwell mit ein.

Maxwell-Architektur
Maxwell-Architektur

Das Gesamtschaubild von GM204 mit Maxwell-Architektur zeigt zunächst einmal die um die eigentlichen Recheneinheiten platzierten Module wie das Das PCI-Express-3.0-Interface, die Speichcontroller, den L2-Cache, die ROPs und die GigaThread-Engine, die um das Graphics Processing Cluster angeordnet sind. Vier SMM (Maxwell-Streaming-Multiprozessoren) sind in einem GPC zusammengefasst. Insgesamt verbaut sind in der GM204-GPU vier GPC-Cluster zu jeweils eben vier SMM. Jeder dieser Maxwell-Streaming-Multiprozessoren teilt sich wiederum in vier Blöcke zu je 32 Shadereinheiten auf. 4 GPC x 4 SMM x 4 SMM-Blöcke x 32 ALUs ergeben beim Vollausbau die insgesamt 2.048 Shadereinheiten. Jeder SMM besitzt zusätzlich jeweils acht Textureinheiten. Somit kommt die GM204-GPU auf insgesamt 128 dieser Einheiten. Weiterhin vorhanden sind 64 ROPs und vier Speichercontroller mit jeweils 64 Bit.

Obiger Absatz beschreibt den Aufbau der GM204-GPU auf der GeForce GTX 980. Etwas anders schaut dies bei der GeForce GTX 970 aus, denn hier hat NVIDIA drei SMM deaktiviert, sodass insgesamt nur noch 1.664 Shadereinheiten zur Verfügung stehen (13 SMM x 4 SMM-Blöcke x 32 ALUs = 1.664 Shadereinheiten).

Maxwell-Architektur
Maxwell-Architektur

Die höhere Effizienz von Maxwell erreicht NVIDIA durch gleich mehrere Maßnahmen. So hat man den L2-Cache im Vergleich zu Kepler von 256 kB auf 2.048 kB aufgebohrt. Verblieben ist man aber bei einer Bandbreite von 512 Byte pro Takt zu diesem Cache. Im Vergleich zur Maxwell-Architektur der 1. Generation leicht vergrößert hat man den Shared Memory eines jeden SMM. Dieser ist nun 96 kB und nicht mehr nur 64 kB groß. Ebenfalls eine Rolle spielen soll die Polymorph Engine in Version 3.0. Die PolyMorph-3.0-Engine ist maßgeblich verantwortlich für Vertex-Fetch, Tessellation, Attribute-Setup, Viewport-Transform und den Stream-Output. Sind die SMM-Cluster und die PolyMorph-3.0-Engine durchlaufen, wird das Ergebnis an die Raster-Engine weitergeleitet. In einem zweiten Schritt beginnt dann der Tessellator mit der Berechnung der benötigten Oberflächen-Positionen, die dafür sorgen, dass je nach Abstand der nötige Detailgrad ausgewählt wird. Die korrigierten Werte werden wiederum an das SMM-Cluster gesendet, wo der Domain-Shader und der Geometrie-Shader diese dann weiter ausführen. Der Domain-Shader berechnet die finale Position jedes Dreiecks, indem er die Daten des Hull-Shaders und des Tessellators zusammensetzt. An dieser Stelle wird dann auch das Displacement-Mapping durchgeführt. Der Geometrie-Shader vergleicht die errechneten Daten dann mit den letztendlich wirklich sichtbaren Objekten und sendet die Ergebnisse wieder an die Tessellation-Engine für einen finalen Durchlauf. Im letzten Schritt führt die PolyMorph-3.0-Engine die Viewport-Transformation und eine perspektivische Korrektur aus. Letztendlich werden die berechneten Daten über den Stream-Output ausgegeben, indem der Speicher diese für weitere Berechnungen freigibt. Mit diesem Prozess verbunden sind zahlreiche Render-Features, auf die wir auf den kommenden Seiten aber noch ausführlich kommen.

Maxwell Die 3D-Rendering
Maxwell Die 3D-Rendering

Noch einmal zurück auf die einzelnen SMM-Blöcke: Jedem 32er Block stehen ein Instruction Buffer und ein Warp Schedular zur Verfügung. Jeweils zwei Dispatch Units haben Zugriff auf 16.384 Register mit jeweils 32 Bit. Auch hier lohnt wieder ein Blick auf die "Kepler"-Architektur. 128 Shaderheinheiten werden mithilfe von vier Warp Schedulern und acht Dispatch Units über 65.536 Register bei ebenfalls 32 Bit die Daten bzw. Rechenaufgaben zugeteilt. Jeder Shadereinheit stehen bei Maxwell also theoretisch 512 Register zur Verfügung, während es bei Kepler nur rund 341 sind. Eben solche Maßnahmen sollen auch dazu führen, dass jeder Shader bis zu 35 Prozent schneller arbeiten kann. Weiterhin einen Einfluss hat auch das Verhältnis zwischen Shadereinheiten und den sogenannten Special Function Units (SFU). Während dies bei Kepler 6/1 beträgt, liegt das Verhältnis bei Maxwell bei 4/1. Gleiches gilt auch für die Load/Store Units (LD/ST). Spezielle Double-Precision-Einheiten sind im Blockdiagramm nicht zu sehen und werden vermutlich erst mit einer möglichen GM210-GPU eingeführt werden (analog zur Entwicklung von GK104 zu GK110). Laut NVIDIA beträgt das Single-Precision/Double-Precision-Verhältnis 1/24, so wie auch schon bei den ersten Kepler-Chips der ersten Generation (GK104).


Das nur 256 Bit breite Speicherinterface wirkt im Vergleich zu den 512 Bit der Hawaii-GPUs von AMD und auch der hauseigenen GK110-GPU mit 384 Bit recht schmal. NVIDIA will über eine neue Speicherkomprimierung dennoch eine vergleichbare Performance in diesem Bereich bieten.

Speicherkomprimierung durch Maxwell
Speicherkomprimierung durch Maxwell

NVIDIA verwendet für die Speicherkomprimierung eine sogenannte Delta Color Compression. Dabei wird nur der Basispixelwert gespeichert und für die umliegenden Pixel in einer 8x8-Matrix nur noch der Unterschied (das Delta) gespeichert. Da das Delta ein deutlich kleinerer Wert ist, kann dieser schneller gespeichert werden und benötigt auch weniger Platz im Speicher. Es werden also weniger Daten in den VRAM geschrieben und müssen gelesen werden, sodass aus den 224 GB pro Sekunde 297 GB pro Sekunde werden sollen.

Speicherkomprimierung durch MaxwellSpeicherkomprimierung durch Maxwell

Speicherkomprimierung durch Maxwell

Um zu zeigen, welche Möglichkeiten der Komprimierung sich typischerweise ergeben, präsentierte NVIDIA obigen Screenshot aus GRID 2. Zunächst einmal lässt sich darauf kaum abschätzen, welche Texturen und in welcher Form die Texturen dort komprimiert werden können.

Die tatsächliche Umsetzung zeigt dann aber, dass sich große Bereich effektiver speichern lassen. Obiges Beispiel ist sicherlich ein Extrem, das so in der Praxis nicht allzu häufig auftritt. Dennoch ist die Speicherkomprimierung ein entscheidender Faktor, um die Leistung des Speichercontrollers zu steigern. Ob dies auch in der Praxis eine entsprechende Leistung ermöglicht, werden wir in den Benchmarks sehen. Auch AMD verwendet in der Tonga-GPU der Radeon R9 285 eine neue Speicherkomprimierung.

Wie sich die GeForce GTX 980 in Sachen Speicherskalierung verhält, schauen wir uns nach den üblichen Benchmarks etwas genauer an.


Mit Maxwell führt NVIDIA auch eine neue Technik ein, die dafür sorgen soll, dass Spiele auch auf 1.080p-Displays und entsprechender Auflösung noch besser aussehen.

DSR (Dynamic Super Resolution)
DSR (Dynamic Super Resolution)

Dazu greift man auf eine Technik zurück, die weder unbekannt noch neu ist. DSR steht für Dynamic Super Resolution und beschreibt ein Downsampling, für das aber nicht mehr auf spezielle Programme und Programmanpassungen zurückgegriffen werden muss, sondern das direkt aus dem Treiber heraus funktionieren soll.

DSR (Dynamic Super Resolution)DSR (Dynamic Super Resolution)

DSR (Dynamic Super Resolution) im Vergleich zur üblichen nativen Auflösung

Um die Vorteile aufzuzeigen präsentierte NVIDIA einige pixelgenaue Beispiele. So ist im obigen linken Bild die Darstellung eines Grashalms in nativer Auflösung zu sehen. Über die eigentliche Geometrie wird die Textur gelegt, durch das Sampling werden aber nur wenige Bereiche davon erfasst. Wird der gleiche Grashalm allerdings in einer höheren Auflösung gerendert (durch die höhere Abtastrate des Samplings symbolisiert), kann der Grashalm auch deutlicher dargestellt werden und ist als solcher zu erkennen. Zusätzlich verwendet NVIDIA noch einen speziellen Filter, welcher die Darstellung weiter verbessern soll.

DSR (Dynamic Super Resolution)
DSR (Dynamic Super Resolution)

Das letztendliche Endergebnis kann in einem solchen Screenshot festgehalten werden, ist in bewegten Bildern aber noch deutlich besser zu erkennen. Dazu haben wir ein Video zu einer Techdemo, auf dem der Effekt besser zu erkennen ist.

Um das DSR-Feature nutzen zu können, greift der Treiber auf dedizierte Hardware im Framebuffer und den Render-Pipelines zurück. Daher ist DSR zunächst einmal nur zur Maxwell kompatibel. Theoretisch gilt dies auch für die Maxwell-Karten der 1. Generation, allerdings fehlt es diesen an der nötigen Performance, um ein Downsampling ausreichend schnell durchzuführen. Nicht nur das Rendering in einer höheren Auflösung ist dabei der entscheidende Punkt, sondern auch die Ausführung des Filters, denn erst dieser sorgt dafür, dass der gerenderte Frame auch in der Darstellung ansprechend ist. Es wird ein komplettes Downsampling durchgeführt, also auch der Benutzeroberfläche. Sind Spiele nicht darauf angepasst, könnte dieses zu klein dargestellt werden. NVIDIA bietet DSR in der eigenen GeForce Experience daher nur für Spiele an, die entsprechend angepasst sind. Im Treiber kann der Nutzer DSR in den 3D-Einstellungen aber auch selbst aktivieren.

DSR im GeForce-Treiber
DSR im GeForce-Treiber

DSR wird in den 3D-Einstellungen des Treibers aktiviert und angepasst. Ist das System an einen passenden Monitor angeschlossen, werden dort die möglichen Faktorisierungen im Verhältnis zur nativen Auflösung angezeigt. Diese tauchen dann in den Einstellungen der Spiele auf und können jeweils gewählt werden. Der von NVIDIA implementierte Filter soll auch ungerade Skalierungen möglich machen, ohne dass dabei die Bildqualität leidet. Einen genaueren Blick auf DSR werden wir wohl erst zu einem späteren Zeitpunkt werfen können. Auf Monitoren mit einer Auflösung von 2.560 x 1.600, 2.560 x 1.440 und 1.920 x 1.080 Pixel wurde uns DSR in den Treiber-Optionen angeboten. Schlossen wir allerdings einen 4K-Monitor an, war die Option nicht mehr sichtbar. NVIDIA trifft also eine Vorauswahl, bei welcher nativen Auflösung DSR überhaupt Sinn macht und wo nicht. Ein Downsampling auf eine Auflösung von 3.840 x 2.160 Pixel ist derzeit aufgrund der mangelnden Performance der Hardware ohnehin nicht sinnvoll.

DSR im GeForce-Treiber
DSR im GeForce-Treiber

Für die Anpassung des Filters (Gauß-Filter) verwendet NVIDIA im Treiber einen Slider, über den die Glättung angepasst werden kann. Diese Anpassung ist notwendig, um ein optimales Ergebnis der Darstellung zu erreichen. Nicht jeder Spieler empfindet die jeweilige Schärfe als passend und nicht für jedes Spiel kann DSR sofort das optimale Ergebnis liefern. Die Glättung ist also ein wichtiger Punkt, der von jedem, der DSR verwenden möchte, einmal angefasst werden sollte. Leistungsmessungen zu DSR werden wir im Anschluss zu den üblichen Benchmarks ausführen.


Zweite Neuerung, die mit Maxwell Einzug halten wird, ist MFAA (Multiframe Sampled Anti-Aliasing). Dieser neue AA-Algorithmus soll die Bildqualität von MSAA erreichen, aber nur die halbe Performance benötigen.

MFAA (Multiframe Sampled Anti-Aliasing)
MFAA (Multiframe Sampled Anti-Aliasing)

Um MFAA zu verstehen, wollen wir zunächst einmal die Funktionsweise eines AA-Algorithmus erklären. Im obigen Beispiel ist zu sehen, wie ein geometrisches Objekt die vier Pixel durchquert. Die in der Mitte befindlichen Coverage Samples werden aber nur in einem Fall abgedeckt, sodass ohne aktivierte AA nur eines der Felder überhaupt als abgedeckt angesehen wird. Im Renderpfad wird also nur dieser eine Pixel mit der vollen Abdeckung dargestellt.

4xMSAA arbeitet mit vier Coverage Samples pro Pixel. Diese sind auf eine spezielle Art und Weise im Pixel verteilt. Durchquert auch hier die gleiche Linie die vier Pixel, deckt diese im linken Pixel einen von vier Coverage Samples ab und im zweiten drei von vier. Entsprechend werden diese Pixel mit 1/4 bzw. 3/4 Abdeckung bewertet und es ergibt sich ein flüssigerer Übergang.

MFAA (Multiframe Sampled Anti-Aliasing)
MFAA (Multiframe Sampled Anti-Aliasing)

Beim MFAA werden zwei Coverage Samples verwendet, die durch die Einbeziehung des vorangegangenen Frames verdoppelt werden. In diesem Beispiel verwendet NVIDIA zwei Schemata für die die Positionierung der Coverage Pixel. Diese beiden Schemata sorgen in den beiden Frames (Frame n-1 und Frame n) für eine unterschiedliche Abdeckung. NVIDIA verwendet dazu einen sogenannten Temporal Synthesis Filter.

MFAA (Multiframe Sampled Anti-Aliasing)MFAA (Multiframe Sampled Anti-Aliasing)

MFAA (Multiframe Sampled Anti-Aliasing)

Der Filter setzt die beiden Berechnungen der Frames zusammen und erreicht am Ende bei 4xMFAA das gleiche Endergebnis wie 4xMSAA. Dabei soll bei aktiviertem MFAA auf 2xMSAA die gleiche Bildqualität erreicht werden wie bei direktem 4xMSAA, allerdings arbeitet MFAA rund 30 Prozent schneller. Der Performance-Verlust durch den Filter ist mit rund zwei Prozent zu vernachlässigen.

MFAA (Multiframe Sampled Anti-Aliasing)
MFAA (Multiframe Sampled Anti-Aliasing)

Die von NVIDIA gezeigten Beispiele zeigen keinerlei Unterschiede in der pixelgenauen Darstellung. Allerdings gibt es in der Praxis einige Unterschiede, die aber erst im bewegten Bild zu erkennen sind. Bewegte Bilder sind auch gleich ein gutes Stichwort, denn MFAA setzt eine gewisse Framerate voraus, damit überhaupt zwei Frames mit in die Berechnungen einbezogen werden können. Derzeit geht NVIDIA von 30 bis 40 FPS aus, die ausreichend sein sollen. Testen konnten wir das allerdings noch nicht, da MFAA im aktuellen Treiber noch nicht verfügbar ist. NVIDIA will noch an einigen Schrauben drehen und MFAA weiter verbessern. MFAA wird im Treiber einfach nur aktiviert. Im Spiel selbst sind keinerlei Einstellungen notwendig. Bei aktiviertem MFAA wird aus 2xMSAA dann ein effektives 4xMFAA (bzw. 4xMSAA).

Im Video kann man sich einen Eindruck von MFAA verschaffen:


Eine möglichst realistische Berechnung der Beleuchtung ist aktuell eine der größten Herausforderungen. Ein komplettes Raytracing ist das angestrebte Endziel, bis dies in den aktuellen Auflösungen allerdings möglich sein wird, werden noch einige Jahre vergehen. Als Zwischenschritt zu diesem Ziel sieht NVIDIA das sogenannte VXGI (Voxel Global Illumination).

VXGI (Voxel Global Illumination)
VXGI (Voxel Global Illumination)

Mit VXGI präsentiert NVIDIA eine dynamische Berechnung eines Szenarios mit der Einbeziehung einer Reflexion einer direkten und indirekten Lichtquelle sowie von vorherigen Reflexionen und diffuser Beleuchtung.

VXGI (Voxel Global Illumination)
VXGI (Voxel Global Illumination)

Path Tracing ist dabei ein Subfeld von Raytracing und kann im obigen Beispiel für zwei Reflexionen und nur wenige Lichtpfade bereits recht komplex werden. Mit fast unendlicher Pfadlänge und Anzahl an Lichtpfaden ergibt sich darauf das Raytracing.

VXGI (Voxel Global Illumination)
VXGI (Voxel Global Illumination)

Auf dem Weg zu VXGI und Raytracing war zunächst einmal das Light Mapping der erste Schritt, bei dem die Oberfläche aber noch aus allen Richtungen die gleiche Reflexion zeigte. Das Ergebnis waren eher spiegelnde Oberflächen, die noch keine Struktur bzw. Reflexionseigenschaften mit einbezogen haben.

VXGI (Voxel Global Illumination)
VXGI (Voxel Global Illumination)

Dynamic Direct und Virtuell Point Lights brachte eine weitere Detailstufe der Beleuchtung hinzu, die auch für dynamisch Lichtquellen eine möglichst realistische Darstellung von Licht und Schatten erreichte.

VXGI (Voxel Global Illumination)
VXGI (Voxel Global Illumination)

Ambient Occlusion ermöglicht eine realistische Beleuchtung der Geometrie, verzichtet dabei aber auf ein Path Tracing, sondern verwendet  einfachere Berechnungen, um die Darstellung der Beleuchtung zu simulieren. Anhand von Watch Dogs erklärte NVIDIA kürzlich die Funktionsweise von HBAO+ (Horizon Based Ambient Occlusion). Moderne Beleuchtungstechniken kombinieren einige der oben genannten Techniken.

Mit VXGI will NVIDIA einen Schritt weiter gehen. Um die Brücke zum Raytracing schlagen zu können, muss NVIDIA einige Vereinfachungen einführen. So wird indirektes Licht immer unscharf angenommen und mit in die Berechnung einbezogen wird auch nur die erste Reflexion, da diese die Hauptintensität darstellt. VXGI ist theoretisch aber auch in der Lage mehr als eine Reflexion mit einzubeziehen. Dann aber blähen sich die Berechnung weit auf und die Ausführung der Berechnung ist nicht mehr in Echtzeit möglich.

VXGI (Voxel Global Illumination)
VXGI (Voxel Global Illumination)

Für VXGI wird der zu beleuchtende 3D-Raum in 3D-Voxel aufgeteilt. Dies sind einfache 3D-Objekte, denen zwei Eigenschaften zugewiesen werden können: Durchlässigkeit für das Licht und in welche Richtung sowie in welcher Farbe das Licht aus dem Voxel emittiert. Um den Raum in die Voxel aufzuteilen, sind bestimmte Sampling-Verfahren notwendig, die dedizierte Hardware voraussetzen, die ebenfalls nur in der Maxwell-Architektur vorhanden sind. Sie sind auch Teil des DirectX-12-Subsets, welches bereits von Maxwell beherrscht wird. Dazu aber später mehr.

VXGI (Voxel Global Illumination)VXGI (Voxel Global Illumination)

VXGI (Voxel Global Illumination)

Die Voxel repräsentieren in einer kompletten Renderszene die Lichtquellen. Abhängig vom Abstand der Oberfläche sind die Voxel unterschiedlich groß und werden in Trichtern unterschiedlicher Richtung, Länge und Dicke dargestellt. Durch die unterschiedliche Größe der Voxel in Abhängigkeit zur Oberfläche wird ein "Level of Detail" eingeführt.

VXGI (Voxel Global Illumination)VXGI (Voxel Global Illumination)

VXGI (Voxel Global Illumination)

Richtung und Länge dieser Trichter beschreiben den Pfad, aus dessen Richtung das Licht auf die Oberfläche fällt. Die Dicke beschreibt die Diffusion - je dicker, desto diffuser das Licht. Pro Pixel werden aktuell typischerweise 3-4 Trichter verwendet. Deren Anzahl kann aber angepasst werden und beschreibt damit auch den Detailgrad der Beleuchtungsdarstellung.

Wie so oft bietet eine Präsentation in bewegten Bildern an und so haben wir auch dies in einem Youtube-Video anzubieten:


Maxwell ist die erste Architektur von NVIDIA mit DirectX-12-Unterstützung. Noch hat Microsoft die finalen Voraussetzungen für DirectX 12 nicht festgelegt, doch NVIDIA will zumindest bereits einen Teil der notwendigen Spezifikationen umgesetzt haben. Ob dies letztendlich auch bedeutet, dass man die kompletten Features auf Hardwareebene unterstützen wird, ließ man allerdings noch offen.

Maxwell und DirectX 12
Maxwell und DirectX 12

Dass man für DirectX 12 bereit ist, zeigte man mit einer kurzen Demo der Unreal Engine auf Basis von DirectX 12. Für Entwickler mit Developer-Zugang zur Unreal Engine sowie dem Developer Kit bei Microsoft kann bereits heute mit den Arbeiten an einem DirectX-12-Spiel begonnen werden. Ein Vertreter von Microsoft bestätigte noch einmal die aktuelle Roadmap für DirectX 12, das ab Herbst/Winter 2015 verfügbar sein soll. Dies gilt auch für die Implementation von DirectX 11.3, welches den Software-Subset von DirectX 12 auch auf die DirectX-11-Ebene bringen soll. Mit wie vielen Spielen dann zu rechnen ist, ließ man dabei aber offen.

Das DirectX 12 für Entwickler bereits ein Thema ist, wollte man mit einer Demo von Fable unter Beweis stellen:

Maxwell und DirectX 12
Maxwell und DirectX 12

Wie gesagt, noch sind die finalen Feature-Sets für DirectX 12 nicht festgelegt und so konzentrierte man sich bei der Präsentation auf das, was bereits spezifiziert ist. Zu den neuen Render-Features gehören unter anderem Rasterizer Ordered Views. Diese spielen bei zahlreichen Render- und Filter-Techniken eine wichtige Rolle. Dazu gehören auch Anti-Aliasing und die Order Independent Transparency, auf die wir nun etwas genauer eingehen werden.

Maxwell und DirectX 12
Maxwell und DirectX 12

Order Independent Transparency beschreibt eine Problematik, die im Renderpfad auftaucht und bisher ungelöst blieb. Für transparente Objekte war dabei nicht immer klar, in welcher Reihenfolge sie dargestellt werden sollen. Entwickler hatten nur die Wahl viel Rechenaufwand auf das Problem zu werfen, was zu einer korrekten Berechnung führte, aber recht langsam war. Wurde weniger Rechenaufwand investiert, konnte es zu fehlerhaften Darstellungen kommen und Objekte, die eigentlich hinter einem transparenten Objekt liegen sollten, werden davor dargestellt. Rasterizer Ordered Views machen eine korrekte Berechnung möglich, ohne dass dabei zu viel Rechenleistung aufgewendet werden muss.

Maxwell und DirectX 12
Maxwell und DirectX 12

In einem Beispiel wird die Berechnung eines bestimmten Objekts abhängig vom Viewport, also der sichtbaren Darstellung gezeigt. Problematisch war bisher, dass die rote Fläche durch das transparente Objekt "hindurchberechnet" werden muss. Typischerweise kam der Algorithmus aber immer zu unterschiedlichen Ergebnissen, sodass ein Objekt meist falsch hinter bzw. vor einem transparenten Objekt dargestellt wurde. Mit Hilfe der Rasterizer Ordered Views stimmen die Berechnungen bei jedem Durchlauf.

Maxwell und DirectX 12
Maxwell und DirectX 12

DirectX 12 hebt auch einige Beschränkungen auf, die wir aus dem Wechsel der CPU-Architektur und Betriebssystem von 32 auf 64 Bit her kennen. So können manche Variablen nur eine Länge von 32 Bit mitbringen und kollidieren an anderer Stelle mit falschen Dateiwerten und Typen.

Maxwell und DirectX 12Maxwell und DirectX 12

Maxwell und DirectX 12

Ein weiterer wichtiger Punkt für DirectX 12 sind Tiled Resources, die sowohl für eine hohe Effizienz bei der Nutzung des Speichers sorgen, als auch deren Detailgrad verbessern sollen und die sogenannten Mega-Texturen möglich machen. Durch die Nutzung einer kleineren Textur in mehreren Ausrichtungen können größere Texturen simuliert werden. Eingespart wird natürlich der Speicherbedarf. Darunter nicht leiden soll allerdings die Darstellungsqualität.

In einem Beispiel wird eine klassische Texture 3D in DirectX 11 mit 1.200 x 600 x 600 Pixel genannt, die bei 32 Bit Farbtiefe auf eine Größe von 1,6 GB kommt. Bei gleicher Texturqualität kommt eine Tiled Texture 3D auf 32 x 32 x 16 Pixel mit 32 Bit Farbtiefe auf 156 MB und wird einfach mehrfach verwendet. In einem Beispiel war eine Renderszene zu sehen, in der dieses Tiled Volume 2.500 mal verwendet werden konnte.

Maxwell und DirectX 12
Maxwell und DirectX 12

Dritter Punkt bei der Unterstützung von DirectX 12 ist die Conservative Rasterization. Sie kommt z.B. beim Filter von Dynamic Super Resolution und auch beim Multiframe Sampled Anti-Aliasing zum Einsatz.

Maxwell und DirectX 12Maxwell und DirectX 12

Maxwell und DirectX 12

Beim Rasterizing eines kleinen Objekts/Pixels werden diese durch eine bessere Positionierung der Sample-Punkte besser bzw. überhaupt erst abgedeckt und damit erkannt. Ebenfalls eine Rolle spielt die Conservative Rasterization bei der Voxelization von VXGI. Auch die Conservative Rasterization setzt zu einem gewissen Grad bestimmte Hardware voraus, so dass sie nur auf den neuen GPUs ausgeführt werden kann.

Maxwell und DirectX 12
Maxwell und DirectX 12

Noch in DirectX 11 erlaubt Microsoft die Manipulation von zahlreichen sogenanntes States, um ein orthogonales Objekt zu umschreiben. Die dabei verwendeten Input Assembler States, Pixel Shader States, Rasterizer States und Output Merger States konnten unabhängig voneinander modifiziert werden. Zwar sorgte dies für eine gute Flexibilität innerhalb der Programmierung einer Grafik-Pipeline, passte aber nicht sonderlich gut zur Art und Weise, wie moderne GPUs arbeiten. So fassen die Hardware-Hersteller gerne Pixel Shader State und Output Merger State in eine dediziertes Stück Hardware zusammen. Aufgrund der Unabhängigkeit dieser Komponenten in DirectX 11 konnte es aber dazu kommen, dass der Treiber den kompletten State aus allen Teilbereichen nicht zusammenfassen konnte - somit kam es zu einer verzögerten Draw Time (Darstellung des eigentlichen Frames). Diese überflüssigen Wartezeiten sorgten letztendlich also dafür, dass weniger Draw Calls pro Frame durch die Pipelines geschickt werden konnten.

Maxwell und DirectX 12
Maxwell und DirectX 12

Mit einem neuen Bind Model trägt Microsoft in DirectX 12 der größeren Anzahl an CPU-Kernen sowie der größeren Performance bzw. breiteren Parallelisierung Rechnung. Zudem reduziert man an dieser Stelle den CPU-Overhead. Eine Rolle spielt dies auch bei den Command Lists. In DirectX 11 waren die sogenannten Command Lists eine unendliche Aneinanderreihung von Befehlen für die GPU. Dies entspricht allerdings wiederum nicht der Art und Weise, wie Hardware gleich mehrere Aufgaben gleichzeitig erledigen kann, denn da diese Command List seriell abgearbeitet werden muss, muss ein Schedular dafür sorgen, dass diese Aufteilung möglichst effizient geschieht, was nicht immer ideal gelingt.

DirectX 12 schickt nun nicht mehr eine lineare Liste über den Treiber an die GPU, sondern bereits vordefinierte und abgeschlossene Listen, die einen bestimmten Umfang an Aufgaben beinhalten, die dann von der GPU abgefertigt werden können und auf die Leistung und Möglichkeiten der Hardware zugeschnitten ist. Während diese Liste nun von der GPU abgearbeitet wird, stellt der Treiber in Abhängigkeit der jeweiligen Auslastung der vorangegangenen Liste eine weitere zusammen, die idealerweise bereits fertiggestellt ist, wenn die erste Liste abgearbeitet wurde. Letztendlich muss nur noch ein einziger serieller Prozess diese vordefinierten Listen wieder zusammenführen, was allerdings deutlich effizienter ist, als eine einzige serielle Liste mit allen Befehlen einzeln zu erstellen. Die sogenannten Bundles sind eine Weiterentwicklung dieser vordefinierten Command Lists. Sollen z.B. zwei identische Objekte in einem Frame berechnet werden, die sich nur durch die Texturen unterscheiden, so wird im ersten Durchlauf die bereits vordefinierte Command List aufgezeichnet und danach einfach erneut ausgeführt, ohne dass sie noch einmal zusammengestellt werden muss. Alle Instruktionen und Befehle müssen also nur einmal erstellt werden.

Maxwell und DirectX 12
Maxwell und DirectX 12

DirectX 12 fasst diese unterschiedlichen States nun zu einem Pipeline State Object (PSO) zusammen. Soft- und Hardware sprechen nun also bereits in kompletten Blöcken, die so auch viel schneller in der Hardware berechnet werden können. Diese PSOs können auch dynamisch geändert werden und müssen nicht jedes Mal im kompletten Umfang berechnet werden. Aus all diesen Maßnahmen resultieren deutlich mehr Draw Calls pro Frame für deutlich mehr Objekte in einem Frame bzw. in höheren FPS.

Maxwell und DirectX 12
Maxwell und DirectX 12

Ob zwei, vier, sechs oder gar acht Kerne, zuzüglich Hyper-Threading kommen schnell bis zu einem Dutzend Kerne zusammen, die aktuell von der Software beansprucht werden können. Richtig effektiv genutzt werden aber nur die wenigsten davon. Gute Engines schaffen es halbwegs vernünftig fünf bis sechs Kerne zu nutzen, von einer effektiven Nutzung ist aber selbst dann noch nicht zu sprechen. Um dies zu demonstrieren, hat Microsoft jeweils eine DirectX-11- und eine DirectX-12-Version des 3DMark von Futuremark genommen und einmal die Auslastung der CPU-Kerne aufgeführt. Während im oberen Fall die Aufgaben zwar auf vier Threads aufgeteilt sind, ist die CPU-Time dennoch extrem hoch, da der Thread0 einige seiner Tasks nicht auf die weiteren freien Threads auslagern kann.

Im obigen Beispiel unter DirectX 12 sind gleich zwei Effekte zu erkennen: Zum einen sind die Aufgaben besser auf die vier Threads verteilt (beispielsweise der Tasks des "UM Driver"), zum zweiten reduziert DirectX 12 den Overhead, also die unnötigen Berechnungen, was die einzelnen Aufgaben auch in kürzerer Zeit bearbeiten lässt. Diese kürzeren CPU-Zeiten bzw. Latenzen sorgen in der Folge dafür, dass die GPU nicht mehr auf die CPU warten muss, was in letzter Konsequenz für mehr FPS sorgt.

Insgesamt ist das Bild von DirectX 12 und den gebotenen Features noch recht diffus. Es ist schwer einen Überblick über die Software- und Hardware-Features zu behalten und somit ist auch noch nicht ganz klar, welche der oben genannten Features eine bestimmte Hardware voraussetzen und welche nicht. Für einige Beispiele haben wir die Hardwarevoraussetzungen genannt, für andere bleiben sie zunächst im Dunkeln. Es wird also dabei bleiben, dass bei der Unterstützung von DirectX 12 und 11.3 unterschieden werden muss, ob von Software- oder von Hardware-Features die Rede ist.


Im Zusammenspiel mit den eigenen Karten weiterhin eine große Rolle spielen die GameWorks-API und damit inbegriffen auch PhysX. Teilweise werden die auf den vorangegangenen Seiten beschriebenen Technologien für Entwickler erst mit GameWorks zugänglich gemacht.

GameWorks- und PhysX-API
GameWorks- und PhysX-API

NVIDIA sieht GameWorks als Schnittstelle zwischen aktueller Spieleentwicklung und Entwicklung neuer Technologien aus eigenen Hand. Für Entwickler stellt man die neuen Technologien in Form von APIs in den Bibliotheken zur Verfügung. Wer möchte kann auch gleich die von NVIDIA unterstützten und ebenfalls teilweise selbstentwickelten Developer Tools verwenden.

GameWorks- und PhysX-API
GameWorks- und PhysX-API

Eine der neuen Entwicklung die taufrisch mit Maxwell Einzug in GameWorks halten ist VXGI. Auf die Details dazu sind wir bereits genauer eingegangen. VXGI wird Bestandteil von GameWorks werden und kann zusammen mit der Unreal Engine 4 bereits heute verwendet werden.

GameWorks- und PhysX-API
GameWorks- und PhysX-API

Neben der Beleuchtung hat sich NVIDIA auch der Entwicklung neuer Technologien angenommen, die sich mit einer möglichst realistischen Darstellung von Gras beschäftigen. Dazu wurde auch eine Techdemo vorgestellt, die wir in Form eines Videos weitergeben möchten:

GameWorks- und PhysX-API
GameWorks- und PhysX-API

Ebenfalls große Verbesserungen erfahren haben soll die Simulation von Flüssigkeiten. Eine Demonstration in Videoform findet ihr im Video ab Minuten 2:50.

Neben den neuen Features und APIs in GameWorks will NVIDIA vor allem das Load-Balancing zwischen den klassischen Rendering-Operationen und den Compute-Berechnungen verbessert haben. In erster Hand haben aber weiterhin die Entwickler die Kontrolle darüber, wie viel und zu welchen Teilen Compute- und Geometrie-Berechnungen anfallen.


Oculus hat ddie Möglichkeiten einer VR-Brille zwar nicht zuerst entdeckt, aber sorgt aktuell wohl für die erste praxistaugliche Umsetzung. Facebook hat das Potenzial erkannt und Oculus VR aufgekauft. Auch NVIDIA will ein Stück vom Kuchen abhaben und bietet eine direkte Unterstützung der VR-Technologie. Dazu präsentierte man VR Direct, eine Sammlung aus zahlreichen Technologien zur Verbesserung der VR-Technik.

VR Direct
VR Direct

Stichworte sind dabei VR SLI, VR DSR und weitere Technologien, die wir noch etwas genauer beleuchten wollen. Aktuell befindet sich VR Direct natürlich noch in einem recht frühen Stadium. Die Oculus VR ist gleichzeitig auch noch etwas davon entfernt, ein praxistaugliches Stück Hardware zu sein. Die gezeigten Demos der Unreal Engine auf dem Oculus Rift DK2 konnten aber bereits einen Eindruck davon vermitteln, wo die Technik in nicht allzu langer Zeit stehen könnte.

VR Direct
VR Direct

Ein wichtiger Bereich, der für das VR-Erlebnis weiter verbessert werden muss, ist die Verzögerung, die im Rendering-Prozess auftritt. Das Tracking der Kopfbewegungen hat Oculus mit dem Einsatz einer Kamera zusätzlich zum Gyroskope inzwischen weitestgehend in den Griff bekommen. Keinen Einfluss hat man allerdings auf die Renderzeit - hier kommt NVIDIA ins Spiel. Verzögerungen beim Input des Tracking bzw. ungenaues Tracking sowie verkürzte Renderzeiten nehmen großen Anteil an der Reduzierung der Motion Sickness. Jeder Mensch ist unterschiedlich anfällig dafür, es gilt also die negativen Effekte so weit wie möglich zu reduzieren.

Zunächst einmal soll DirectX 12 für eine Verkürzung der Renderzeiten sorgen. Auch zu diesem Thema findet ihr in der ausführlichen Beschreibung zu DirectX 12 einige Beispiele, wie dies umgesetzt werden soll. MFAA spielt ebenfalls eine wichtige Rolle, denn über diesen AA-Algorithmus kann die Renderzeit bei gleicher AA-Bildqualität etwas verkürzt werden.

VR Direct
VR Direct

Den größten Sprung soll die Latenz aber durch eine Technik namens Auto Asynchronous Warp machen. Ohne dass die jeweils verwendete Anwendung daraufhin optimiert werden muss, wird der Input des Trackings der Kopfbewegung erst dann in den Renderpfad eingefügt, wenn dieser zu einem gewissen Teil bereits berechnet wurde. Eventuelle Korrekturen der Position des Spielers werden danach erst ausgeführt. Damit will NVIDIA die komplette Renderzeit halbieren und die Zeiten von der Eingabe des Nutzers (der Kopfbewegung) bis zur Ausgabe auf dem Display auf 25 ms drücken.

Ein weiteres Feature im Zusammenhang mit VR Direct ist VR SLI. Bei Verwendung eines Multi-GPU-Systems wird jedem Auge dabei eine GPU zugeteilt, sodass aufgrund des AFR (Alternate Frame Rendering) nicht mehr ein Frame Verzögerung bei der Darstellung auf dem Display eingebaut ist. Für ein möglichst flüssiges Erlebnis ebenfalls eine Rolle spielen hohe Bildwiederholraten, nicht nur das Displays, sondern auch des Renderings. 75 FPS gelten dabei als Mindestvoraussetzung, allerdings gilt dies nur für ein Auge. Nimmt man die beiden Augen zusammen, müssen die Bilder schon mit 150 FPS an die Oculus Rift geliefert werden, was auch in Sachen Performance keine einfache Aufgabe sein muss. NVIDIA will mit dem Maxwell-GPUs auf der GeForce GTX 980 und GTX 970 die notwendigen Voraussetzungen geschaffen haben, um ein möglichst flüssiges Rendering zu ermöglichen. Die bereits auf dem Desktop etablierte aber inzwischen immer weniger verwendete 3D-Vision-Technik soll VR-Spiele auch ohne vorherige Anpassung möglich machen. Ob und wie gut dies gelingt, wird man wohl erst mit den ersten Umsetzungen sehen. Derzeit scheinen alle Entwickler Spiele aber explizit auf die Verwendung mit einer VR-Brille auszulegen.


Etwas versteckt hat NVIDIA auch einige Veränderungen am Video En- und Decoder der Maxwell-Architektur vorgenommen. Darin verbergen sich einige interessante Aspekte, die für Besitzer einer der neuen Karten eine wichtige Rolle spielen können.

Mit den ersten Maxwell-Karten in Form der GeForce GTX 750 und GTX 750 Ti sowie der dabei verwendeten Maxwell-Architektur der 1. Generation verbesserte NVIDIA den VP6-Decoder und ermöglichte ein Decoding von H.264 bei 4K mit 60 Hz (Level 5.2). Einige ältere VP5-Decoder waren dazu noch nicht in der Lage - z.B. alle Kepler-Karten. Maxwells NVEC Encoder aber verdoppelte die Encoding-Performance im Vergleich zu Kepler.

Mit der 2. Generation der Maxwell-Architektur hat NVIDIA nun noch einmal Hand an den NVENC angelegt. So besitzt dieser nur einen hardwarebeschleunigten H.265 Encoder. H.265 codierte Videos sind derzeit noch nicht allzu verbreitet, aufgrund des besseren Komprimierungsverfahrens bei gleicher Bildqualität dürfte H.265 in naher Zukunft aber eine immer größere Rolle spielen. NVIDIA ist der erste Hersteller, der mit den GM204-GPU auf Basis der Maxwell-Architektur ein hardwarebeschleunigtes H.265-Encoding möglich macht. Für NVIDIA könnte der frühe Support des neuen Encoding-Verfahrens ein wichtiger Schritt sein, schließlich sind auch einige Firmenbereiche auf die Unterstützung eines möglichst schnellen und effektiven Streamings ausgelegt. GameStream für die NVIDIA-Shield-Hardware ist dabei nur ein Teil. Weitaus wichtiger aber dürfte NVIDIA der Ausbau der GRID-Technologie sein - sowohl im professionellen Bereich wie auch für den Endkunden.

ShadowPlay mit Maxwell-Grafikkarte ermöglicht dank des verbesserten Encoders höhere Auflösungen
ShadowPlay mit Maxwell-Grafikkarte ermöglicht dank des verbesserten Encoders höhere Auflösungen

Bereits heute aber lässt sich die höhere Leistung des NVENC erkennen. In der GeForce Experience lassen sich per Shadowplay Aufnahmen des eigenen Spielgeschehens erstellen. Diese werden zwar noch immer in H.264 aufgezeichnet, die höhere Performance des NVENC ermöglicht es NVIDIA aber, höhere Auflösungen und Bitraten anzubieten. Bisher waren hier [email protected] bei einer Bitrate von 50 MBit pro Sekunde das Limit für Kepler-Karten. Mit der GM204-GPU auf Basis der Maxwell-Architektur werden nun auch [email protected] und [email protected] bei Bitraten von bis zu 130 MBit pro Sekunde angeboten.

Etwas verwirrend ist die Umsetzung des De- und Encoders auf Hardware-Basis, denn nur das Encoding läuft komplett auf dedizierter Hardware (FFU, Fixed Function Units). Für das Decoding verwendet NVIDIA einen Hybrid-HEVC-Decoder, der grundsätzlich auf dem HEVC-Decoder der Kepler-Generation basiert. An der Stelle, wo dieser Decoder nicht mehr ausreichend ist, um Prozesse des H.265-Decodings auszuführen, springt normalerweise die Software ein, was allerdings ein langsamer und kein besonders effizienter Prozess ist. Mit Maxwell verwendet NVIDIA dafür nun die zur Verfügung stehenden Shader, was noch immer nicht derart effizient wie eine FFU ist, aber besser als ein reines Software-Level. NVIDIA hat sich also zunächst auf das NVENC, sprich das Encoding, konzentriert. Mit einer der nächsten GPU-Generationen könnte NVIDIA komplett auf eine Hardwarebeschleunigung für die neuen De- und Encoder wechseln. Durch die Implementation einer Hybrid-Lösung ist man aber zunächst einmal ausreichend schnell und effizient, so dass nicht unbedingt die Pascal-Generation dazu notwendig ist.


Kommen wir nun aber zur eigentlichen Hardware. Hier beginnen wir mit der GeForce GTX 980, die uns in einem Referenzdesign vorliegt. Inzwischen haben zahlreiche weitere Hersteller ihre Retail-Modelle angekündigt, die teilweise auch auf eigenen Designs basieren. In den kommenden Tagen/Wochen werden wir uns einige dieser Modelle etwas genauer anschauen.

GPU-Z-Screenshot der GeForce GTX 980
GPU-Z-Screenshot der GeForce GTX 980

Zunächst einmal halten wir mit einem Blick auf den GPU-Z-Screenshot die technischen Daten fest. Angaben zur Die-Größe und zur Transistoranzahl kann die Software noch nicht machen, dafür entspricht unser Testsample im Referenzdesign den Vorgaben in Sachen Takt. 1.127 bzw. 1.216 MHz für den Basis- bzw. Boost-Takt sind dabei ebenso genau angelegt, wie die 1.753 MHz für den GDDR5-Speicher. Kleinere Abweichungen ergeben sich durch ungerade Teiler bzw. Rundungsfehler.

Egal ob PowerTune oder GPU Boost 2.0, moderne GPUs halten sich nicht mehr vollständig an die Taktvorgaben bzw. diese sind nur noch grobe Richtlinien, in welchem Bereich sich der GPU-Takt letztendlich bewegen wird. Abhängig von Last, Temperatur und Verbrauch kann der Takt schwanken, da macht auch die GeForce GTX 980 keine Ausnahme. Wir haben daher die Abhängigkeiten zwischen GPU-Takt und Temperatur einmal in einer Tabelle aufgetragen und schauen uns das Verhalten der Karte etwas genauer an.

Gegenüberstellung von Temperatur und Takt
Spiel Temperatur Takt
The Elder Scrolls V Sykrim 79 °C 1.290 MHz
Company of Hereos 80 °C 1.151 MHz
Grid 2 79 °C 1.290 MHz
Metro: Last Light 80 °C 1.151 MHz
Crysis 3 80 °C 1.151 MHz
Battlefield 4 80 °C 1.151 MHz
Bioshock: Infinite 80 °C 1.151 MHz
Tomb Raider 80 °C 1.151 MHz

Bis maximal 1.290 MHz taktete unsere Karte, aber auch nur, wenn die GPU-Temperatur unter 80 °C blieb. Diese 80 °C sind wie bei den Kepler-Karten das Temperatur-Ziel. Sobald dieses erreicht ist, versucht die Karte durch Reduzierung von Takt und Spannung bzw. durch das Aufdrehen des Lüfters in diesem Bereich zu bleiben und dabei den maximalen Takt anzulegen. Möglich ist dieser maximale Takt aber selbst in einem gut belüfteten System nicht immer. In den meisten Benchmarks und Spielen erreichten wir sehr schnell das Temperatur-Ziel und die Karte arbeitete nicht einmal mehr mit dem Minimum-Boost von 1.216 MHz. Somit durchlief sie die Benchmarks in den meisten Fällen mit 1.151 MHz. Wie sich das auf die Performance auswirkt, werden wir später in den Benchmarks sehen.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Auf den ersten Blick ähnelt die Referenzversion der GeForce GTX 980 den Referenzversionen der GTX-700-Serie im oberen Performance-Bereich und auch der zweite Blick zeigt nur wenige Unterschiede. Es kommt also wieder einmal ein Radiallüfter zum Einsatz, der die Luft ansaugt und durch das Kühlergehäuse in Richtung der Slotblende drückt. Durch ein Sichtfenster ist der Kühlkörper zu sehen, dessen Kühllamellen in gleicher Richtung verlaufen.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Bisher exklusiv den Titan-Modellen vorbehalten war eine Backplate, die NVIDIA nun aber auch standardmäßig verbaut. Viel ist daher vom eigentlichen PCB an dieser Stelle auch nicht zu erkennen. Auf 1 - 2 Details dieser Rückansicht wollen wir dennoch eingehen.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Mit einer Thermal Design Power von nur 165 Watt zeigt sich die GeForce GTX 980 sparsamer als ihr Vorgänger. Anstelle der bisher genutzten 6-Pin- und 8-Pin-Konnektoren sind daher nur noch zwei zusätzliche 6-Pin-Anschlüsse notwendig, um die Karte neben dem PCI-Express-Steckplatz mit Strom zu versorgen. Ausgelegt ist diese Versorgung für 225 Watt, sodass bei einer TDP von 165 Watt noch ausreichend Luft nach oben vorhanden sein sollte.

Wie auch schon bei der höherwertigen GTX-700-Serie kann die Strom- und Spannungsversorgung dynamisch zwischen den drei Quellen gewechselt werden. Ist ein Input am Maximum angelangt, kann die Differenz über eine zweite Quelle ausgeglichen werden. Dieser Mechanismus ist also nicht neu, ist in der Maxwell-Generation aber der GeForce GTX 980 vorbehalten und wird von der GeForce GTX 970 nicht verwendet.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Im Vergleich zu den neuen GPUs aus dem Hause AMD verzichtet NVIDIA weiterhin nicht auf die Anschlüsse für den Aufbau eines SLI-Systems. Die Kommunikation bzw. der Austausch des Frames an die primäre GPU erfolgt also bei NVIDIA weiterhin über die proprietäre Brücke und nicht das PCI-Interface. Vor- oder Nachteile einmal außen vor gelassen besitzt das Wegfallen der Brücken einen gewissen Charme, da zusätzliche Hardware einfach nicht mehr notwendig ist. Einen großen Nachteil bei Verwendung der Brücken sehen wir allerdings auch nicht.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

NVIDIA verwendet auch auf dem Referenzdesign der GeForce GTX 980 den bereits bekannten Radiallüfter mit einem Durchmesser von 65 mm. Dieser soll sich durch eine besondere Laufruhe auszeichnen und NVIDIA verspricht durch den angepassten Anstellwinkel der Lüfterschaufeln weniger Windgeräusche. Auf die edle Optik der Kühllösung mit der verchromten Abdeckung der Achse sowie dem Magnesiumgehäuse müssen wir nicht genauer eingehen.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Nicht nur in Richtung der Slotblende wird die Luft durch den Axiallüfter geführt, sondern auch am hinteren Ende der Karte befindet sich eine Öffnung, durch die ein geringer Teil entweichen kann. Da sich hier einige wichtige Komponenten der Strom- und Spannungsversorgung befinden, ist dies sicherlich nicht ganz unwichtig.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Die typische Konfiguration auf der Slotblende sah bei den Kepler-Karten bisher wie folgt aus: 2x Dual-Link-DVI und jeweils einmal HDMI 1.4a und DisplayPort 1.2. Mit der GeForce GTX 980 bzw. dem Einsatz der Maxwell-GPUs ändert sich dies allerdings. Nicht nur werden mehr Display-Outputs nach Außen geführt, auch können diese nun mit einer maximalen Pixel Clock von 1.045 MHz arbeiten. Damit möglich ist eine maximale Ansteuerung eines Displays von 60 Hz bei einer Auflösung von 5.120 x 3.200 Pixel.

Damit sind die Ausgänge theoretisch in der Lage auch 5K-Displays bei 60 Hz anzusprechen, allerdings sind dazu auch die entsprechenden Protokolle notwendig. DisplayPort 1.3 mit der Unterstützung für eine solche Auflösung bei 60 Hz wurde erst vor wenigen Tagen spezifiziert, allerdings werden wir Produkte mit diesen Anschluss-Typ erst in zwei Jahren sehen. Mit den Maxwell-Karten bietet NVIDIA die Unterstützung von HDMI 2.0 und DisplayPort 1.2. Ebenfalls unterstützt werden eDP, der Embedded-Standard für DisplayPort zum Einsatz in integrierten Systemen wie All-in-Ones. Damit einher geht auch der Support für LVDS (Low Voltage Differential Signaling) sowie TMDS (Transition-minimized Differential Signaling), was eine Datenübertragung über den DVI- und HDMI-Ausgang erlaubt. Beide Techniken werden zur Ansteuerung von Displays verwendet.

Auf der Referenzversion der GeForce GTX 980 verbaut sind einmal Dual-Link-DVI, dreimal DisplayPort 1.2 und einmal HDMI 2.0. Auf den Retail-Karten werden wir aber auch teilweise andere Konfigurationen sehen.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Im Zusammenhang mit den Display-Ausgängen ergibt sich auch ein Unterschied zu den früheren Referenzversionen. Links am Slot ist eine kleine Abdeckung zu erkennen, vor bei den vorangegangenen Versionen noch nicht vorhanden war. Dies dient einfach nur der Abdeckung der darunterliegenden Abschirmung für die Ausgänge.


Nach den ersten Blicken gehen wir nun etwas genauer auf die Details ein und schauen uns die GeForce GTX 980 auch einmal ohne Kühler an.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Zunächst einmal fällt eine Abdeckung auf der Backplate der Karte auf, die abgenommen werden kann. Darunter befinden sich aber keinerlei wichtige Bauteile oder irgendwelche Anschlüsse, sondern mit der etwas höheren Backplate werden einfach nur einige Komponenten geschützt und das PCB ist damit komplett geschützt.

Wer zwei oder gar drei GeForce GTX 980 in einem SLI oder 3-Way-SLI einsetzen möchte, der kann Schwierigkeiten mit dem Luftstrom zwischen den einzelnen Karten bekommen. Dies ist natürlich abhängig vom jeweils eingesetzt Mainboard bzw. dem Abstand der Karten zueinander. Sollte dieser zu eng sein, kann der kleine Bereich der Backplate entfernt werden und die zweite Karte bekommt etwas mehr Luft. Auch wenn es sich nur um einen kleinen Teil der Backplate handelt, so wird dem Lüfter der zweiten Karte dennoch die Möglichkeit gegeben mehr Luft durch den Radiallüfter anzusaugen.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Entfernt man die Backplate, wird der Blick auf die Rückseite des PCBs frei. Große Überraschungen sind hier aber nicht zu finden. Sehr schön sind die Positionen der GPU, der Speicherchips und weiterer Komponenten zu erkennen. Angedeutet wird zumindest die theoretische Möglichkeit eines größeren Speicherausbaus, der notwendige Platz für die Speicherchips wäre auf der Rückseite gegeben.

Außerdem zu erkennen sind weitere Lötpunkte bei den zusätzlichen Stromanschlüssen. NVIDIA setzt diese Versorgung mit zwei 6-Pin-Anschlüssen um. Auf den Board vorhanden ist aber offenbar auch die Möglichkeit jeweils einmal 6-Pin und einmal 8-Pin zu verwenden. Wie auch schon bei High-End-Karten mit GK110-GPU befindet sich auch noch ein weiteres Lötpad für einen nach hinten gerichteten 8-Pin-Anschluss auf dem Board, der bisher aber immer ungenutzt blieb.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Ohne Kühler sind auch auf der Vorderseite des PCBs alle wichtigen Komponenten zu finden. Mittig befindet sich die GPU, die von den Speicherchips umrandet wird. Im rechten Bereich des PCBs befindet sich die Strom- und Spannungsversorgung.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Ein genauerer Blick auf die Spannungsversorgung verrät, dass NVIDIA vier Phasen für die GPU und eine weitere für den Speicher vorsieht. Vorbereit ist aber offenbar auch eine Lösung mit weiteren zwei Phasen. Warum NVIDIA diese auf dem Referenzdesign anbietet, ist uns nicht bekannt. Möglich wäre, dass man seinen Partner die Verwendung der zwei weiteren Phasen anbietet, wenn diese das Referenzdesign übernehmen. Wahrscheinlicher aber ist, dass NVIDIA sein Board-Layout für weitere Versionen der Maxwell-GPU auslegt. Ob hier bereits an einer GeForce GTX 980 Ti gearbeitet wird?

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Auf drei Seiten wird die GPU von den Speicherchips umrandet. Eine nahezu gleichförmige Platzierung der Speicherchips ist notwendig, um die Signallaufzeiten zu verkürzen. Breite und vor allem schnellere Speicherinterfaces werden in Zukunft eine immer wichtigere Rolle spielen. 3D Memory, der sich direkt bei der Die der GPU befindet, wird uns mit Pascal in 1-2 Jahren erwarten und auch AMD werden ähnliche Pläne nachgesagt.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

In der Bildmitte zu sehen ist ein kleines Zusatzmodul, welches sich um die Steuerung des GPU-Boost-Features kümmert. Wir kennen dies bereits von vorangegangenen Generationen. Einige Partner werden dies ebenfalls so umsetzen oder das kleine Modul bzw. dessen Komponenten direkt in das eigenen PCB-Layout einarbeiten.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Beim Speicher setzt NVIDIA auf Chips aus dem Hause Samsung. Die insgesamt 4.096 MB teilen sich in acht Speicherchips zu je 512 MB (4 GBit) auf. Die genaue Bezeichnung lautet K4G41325FC-HC28. Spezifiziert sind diese bis zu einem Takt von 1.750 MHz bei einer Spannung von 1,5 Volt.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

Noch einmal ein Blick auf den hinteren Bereich des PCBs und hier besonders auf die Anschlüsse der zusätzlichen Stromversorgung. Sehr schön sind die vorbereiteten Anschlüsse zu erkennen, die NVIDIA entweder in Vorbereitung auf weitere Karten, der möglichen Modifikation durch seine Partner oder aber aus Debugging-Gründen aus der Entwicklung übernommen hat.

NVIDIA GeForce GTX 980 mit Maxwell-GPU
NVIDIA GeForce GTX 980 mit Maxwell-GPU

NVIDIA übernimmt den bekannten Referenzkühler der GTX-700-Serie beinahe komplett. Während die Speicherchips auf der Metallkonstruktion des Kühlers eingebettet sind, wird die GPU durch eine Kupferplatte abgedeckt. Dahinter verbergen sich drei Heatpipes, die mit hochreinem Wasser gefüllt sind, um den Wärmetransport zu verbessern. Diese Heatpipes wiederum geben die Wärme an den Kühlkörper aus Aluminium ab.


Zwar zeigt NVIDIA auf seinen Präsentationen und Pressebildern eine Referenzversion der GeForce GTX 970, offen ist allerdings, ob diese in dieser Form in den Handel gelangen wird. Stattdessen werden die Partner entsprechende Modelle zur Verfügung stellen. Bei uns war die EVGA GeForce GTX 970 Superclocked die erste Karte, die uns erreichte. Daher werden wir auch dieses Modell für unseren Test nutzen.

GPU-Z-Screenshot der EVGA GeForce GTX 970 Superclocked
GPU-Z-Screenshot der EVGA GeForce GTX 970 Superclocked

Auch bei der GeForce GTX 970 werfen wir zunächst einmal einen Blick auf den GPU-Z-Screenshot. Wie auch schon bei der GeForce GTX 980 werden auch hier nicht alle Details der Karte richtig erkannt. Die wichtigsten technischen Daten lassen sich aber auslesen und stimmen mit der Theorie überein. Allerdings wählt EVGA bei der GeForce GTX 970 Superclocked einen deutlich höheren Takt, als ihn NVIDIA vorgibt. So ist der Basis-Takt von 1.050 auf 1.165 MHz angehoben worden. Für den minimalen Boost-Takt gibt EVGA einen Wert von 1.317 MHz an, während NVIDIA an dieser Stelle 1.178 MHz angibt. Den Speicher hat EVGA bei 1.750 MHz belassen. Damit übertaktet EVGA die GPU in einem Bereich von etwa 11 Prozent. Aber auch EVGA muss sich bei der GeForce GTX 970 Superclocked an gewisse Boost-Mechanismen halten, die NVIDIA implementiert hat. Potenziell fällt ihr dies aufgrund der modifizierten Kühlung etwas leichter. Ob dies auch in der Praxis der Fall ist, schauen wir uns in der nun folgenden Tabelle an.

Gegenüberstellung von Temperatur und Takt
Spiel Temperatur Takt
The Elder Scrolls V Sykrim 70 °C 1.341 MHz
Company of Hereos 71 °C 1.341 MHz
Grid 2 70 °C 1.341 MHz
Metro: Last Light 70 °C 1.341 MHz
Crysis 3 71 °C 1.341 MHz
Battlefield 4 71 °C 1.341 MHz
Bioshock: Infinite 71 °C 1.341 MHz
Tomb Raider 71 °C 1.341 MHz

Mit einer maximalen GPU-Temperatur von 71 °C bleibt die GeForce GTX 970 Superclocked weit hinter dem Temperatur-Ziel und kann ausnahmslos mit dem vollen Boost-Takt arbeiten. Auf 1.341 MHz taktet die GPU in diesem Fall, was im Vergleich zu der Mindestvorgabe von 1.317 MHz zwar nur eine kleine Steigerung bedeutet, in Anbetracht der von NVIDIA vorgegebenen 1.178 MHz aber einen deutlichen Vorsprung bedeutet. Für unsere Benchmarks haben wir versucht, mithilfe der EVGA GeForce GTX 970 Superclocked eine Referenzversion der GeForce GTX 970 zu simulieren. Dazu haben wir den GPU-Takt reduziert um in einen Bereich zu kommen, welcher der GeForce GTX 970 nahe kommen dürfte. Zu 100 Prozent nachstellen können wir das Referenzszenario natürlich nicht, dazu sind die Abhängigkeiten im Boost-Profil sowie zum Kühler einfach zu groß und nicht zu simulieren. Da es vermutlich keine echten Referenzversionen der GeForce GTX 970 im Handel geben wird, dient dieser Vergleich auch nur der groben Orientierung. Wir haben die EVGA GeForce GTX 970 Superclocked aus diesem Grund auch in der tatsächlichen Form mit in den Vergleich aufgenommen.

Wir wollen nun einen kurzen Blick auf die EVGA GeForce GTX 970 Superclocked werfen, behalten uns aber vor sie in einem größeren Roundup mit mehreren Modelle der GeForce GTX 970 noch einmal zu vergleichen.

EVGA GeForce GTX 970 Superclocked
EVGA GeForce GTX 970 Superclocked

Mit der neuen GTX-900-Serie wechselt EVGA auch vom vormals verbauten ACX-Kühler auf die 2. Generation, was anhand des Schriftzuges auch direkt zu erkennen ist. EVGA verwendet einen Dual-Slot-Kühler auf der GeForce GTX 970 Superclocked, der zwei Axiallüfter zur Kühlung nutzt.

EVGA GeForce GTX 970 Superclocked
EVGA GeForce GTX 970 Superclocked

Ein Blick auf die Rückseite des PCBs zeigt ein deutlich weniger komplexes PCB, als dies noch bei der GeForce GTX 980 der Fall ist. Außerdem verbaut EVGA vier von acht GDDR5-Speicherchips auf der Rückseite des PCBs, da nicht alle Speicherchips auf der Vorderseite Platz gefunden haben. Dies liegt auch daran, dass die Karte eine Länge von nur 24 cm aufweist und damit deutlich kompakter ist, als die GeForce GTX 980.

EVGA GeForce GTX 970 Superclocked
EVGA GeForce GTX 970 Superclocked

Die mit 90 mm im Durchmesser recht großen Lüfter der Karte sollen im Vergleich zur ACX-1.0-Kühlung mit einem verbesserten Motor ausgestattet sein, der höhere Drehzahlen erlaubt, dabei aber weniger verbrauchen soll. Außerdem besitzen die elf Lüfterblätter ein anderes Design, das mehr Luftvolumen möglich machen und weniger Turbulenzen erzeugen soll. Laut EVGA kühlt der ACX 2.0 besser und leiser als sein Vorgänger.

EVGA GeForce GTX 970 Superclocked
EVGA GeForce GTX 970 Superclocked

Nicht ganz am Ende sondern eher im letzten Drittel der Karte hat EVGA die beiden zusätzlichen 6-Pin-Anschlüsse untergebracht. Diese bringen zusammen mit dem PCI-Express-Slot maximal bis zu 225 Watt an die Karte. In Anbetracht der TDP von 145 Watt im Referenzzustand dürfte trotz werksseitiger Übertaktung noch ausreichend Spielraum für einige Overclocking-Versuche sein.

EVGA GeForce GTX 970 Superclocked
EVGA GeForce GTX 970 Superclocked

Wie auch schon die GeForce GTX 980 verzichtet auch das kleinere Maxwell-Modell nicht auf die beiden SLI-Anschlüsse. Auf der Beschriftung des Speicherchips auf der linken Seite im Bild ist zu erkennen, dass EVGA die gleichen Speicherchips auf seinen Karten nutzt wie NVIDIA für die Referenzversion der GeForce GTX 980.

EVGA GeForce GTX 970 Superclocked
EVGA GeForce GTX 970 Superclocked

Bereits angesprochen haben wir die unterschiedlichen Konfigurationen der Display-Ausgänge auf der Slotblende. EVGA bleibt dabei eher dem alten Schema treu und verbaut zweimal Dual-Link-DVI (jeweils einmal DVI-I und DVI-D) sowie jeweils einmal HDMI 2.0 und DisplayPort 1.2.


Um die Treiber-Generationen anzugleichen, aber auch um die Hardware auf ein neues Level vorzubereiten, haben wir das Testsystem etwas umgestellt. Der Intel Core i7-3960X wird von 3,2 GHz auf 3,9 GHz übertaktet, um Limitierungen durch den Prozessor weitestgehend auszuschließen. Folgende Systemkomponenten kommen dabei zum Einsatz:

 

Testsystem
Prozessor Intel Core i7-3960X 3,3 GHz übertaktet auf 3,9 GHz
Mainboard ASUS P9X79 Deluxe
Arbeitsspeicher ADATA XPG Gaming Series Low Voltag 4x 2 GB PC3-12800U CL 9-9-9-24
Festplatte ADATA S510 SSD 60 GB
Netzteil Seasonic Platinum Series 1000 Watt
Betriebssystem Windows 8 Pro 64 Bit
Grafikkarten
NVIDIA NVIDIA GeForce GTX 980 (1.126/1.216/1.750 MHz, 4.096 MB)
  NVIDIA GeForce GTX 970 (1.050/1.178/1.750 MHz, 4.096 MB)
  NVIDIA GeForce GTX 780 Ti (876/928/1.750 MHz, 3.072 MB)
  NVIDIA GeForce GTX Titan (837/786/1.502 MHz, 6.144 MB)
  NVIDIA GeForce GTX 780 (863/902/1.502 MHz, 3.072 MB)
  NVIDIA GeForce GTX 770 (1.046/1.085/1.753 MHz, 2.048/4.096 MB)
  NVIDIA GeForce GTX 760 (980/1.033/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 750 Ti (1.020/1.085/1.350 MHz, 2.048 MB)
  NVIDIA GeForce GTX 750 (1.020/1.085/1.250 MHz, 1.024 MB)
  NVIDIA GeForce GTX 690 (915/1.502 MHz, 4.096 MB)
  NVIDIA GeForce GTX 680 (1.006/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 670 (915/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 660 Ti (915/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 660 (1.058/1.250 MHz, 2.048 MB)
  NVIDIA GeForce GTX 650 Ti Boost (980/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 650 Ti (925/1.350 MHz 2.048 MB)
  NVIDIA GeForce GTX 650 (1.058/1.250 MHz, 1.024/2.048 MB)
  NVIDIA GeForce GTX 590 (608/1.215/854 MHz, 3.072 MB)
  NVIDIA GeForce GTX 580 (772/1.544/1.000 MHz, 1.536 MB)
  NVIDIA GeForce GTX 570 (732/1.464/950 MHz, 1.280MB)
  NVIDIA GeForce GTX 560 Ti 448 Cores (732/1.464/950 MHz, 1.280 MB)
  NVIDIA GeForce GTX 560 Ti (820/1.640/1.000 MHz, 1.024 MB)
  NVIDIA GeForce GTX 560 (810/1.620/1.002 MHz, 1.024 MB) 
  NVIDIA GeForce GTX 550 Ti (900/1.800/1.026 MHz, 1.024 MB)
AMD AMD Radeon R9 290X (1.000/1.250 MHz, 4.096 MB)
  AMD Radeon R9 290 (947/1.500 MHz, 4096 MB)
  AMD Radeon R9 280X (1.000/1.500 MHz, 3.072 MB)
  AMD Radeon R9 270X (1.000/1.400 MHz, 2.048/4.096 MB)
  AMD Radeon R7 260X (1.100/1.625 MHz, 2.048 MB)
  AMD Radeon R7 265 (925/1.400 MHz, 2.048 MB)
  AMD Radeon R7 260 (1.000/1.500 MHz, 1.024 MB)
  AMD Radeon HD 7990 (950/1.000/1.500 MHZ, 6.144 MB)
  AMD Radeon HD 7970 GHz Edition (1.000/1.050/1.500 MHz, 3.072 MB)
  AMD Radeon HD 7970 (925/925/1.375 MHz, 3.072 MB)
  AMD Radeon HD 7950 (800/800/1.250 MHz, 3.072 MB)
  AMD Radeon HD 7870 (1.000/1.000/1.200 MHz, 2.048 MB)
  AMD Radeon HD 7850 (860/860/1.200 MHz, 2.048 MB)
  AMD Radeon HD 7790 (1.075/1.075/1.500 MHz, 1.024/2.048 MB)
  AMD Radeon HD 7770 (1.000/1.000/1.125 MHz, 1.024 MB)
  AMD Radeon HD 7750 (800/800/1.125 MHz, 1.024 MB)
  AMD Radeon HD 6990 (830/830/1.250 MHz, 4.096 MB)
  AMD Radeon HD 6970 (880/880/1.375 MHz, 2.048 MB)
  AMD Radeon HD 6950 (800/800/1.200 MHz, 2.048 MB)
  AMD Radeon HD 6870 (900/900/1.050 MHz, 1.024 MB)
  AMD Radeon HD 6850 (775/775/1.000 MHz, 1.024 MB)
  AMD Radeon HD 6790 (840/840/1.050 MHz, 1.024 MB)
  AMD Radeon HD 6770 (850/850/1.200 MHz, 1.024 MB)
Treiber
NVIDIA GeForce 344.07
AMD Catalyst 14.7 Beta

Unsere Testsysteme werden ausgestattet von ASUS, Intel, Thermaltake und Seasonic. Vielen Dank für die Bereitstellung der Komponenten.

 

Treibereinstellungen NVIDIA:

Textureinstellungen AMD:


Werfen wir nun einen Blick auf die Lautstärke, die Leistungsaufnahme und das Temperatur-Verhalten der GeForce GTX 980 und GeForce GTX 970. 

Lautstärke

Idle

in dB(A)
Weniger ist besser

Zugegebenermaßen nicht ganz fair ist der Vergleich der Lautstärke, da es sich bei der GeForce GTX 980 um ein Referenzmodell handelt und die GeForce GTX 970 von EVGA stammt und bereits eine Custom-Kühlung einsetzt. Daher verwundern uns auch die niedrigen 34,6 bzw. 34,7 dB(A) der GeForce GTX 970 nicht, die im Vergleich zu den Referenzkarten natürlich deutlich leiser ist. Aufgrund des Kühlers findet sich die GeForce GTX 980 mit 37,5 dB(A) irgendwo zwischen GeForce GTX 780 und GTX 780 Ti wieder.

Lautstärke

Last

in dB(A)
Weniger ist besser

Schon deutlich interessanter wird es unter Last und hier kann die Referenzversion der GeForce GTX 980 auch punkten, denn mit 48,2 dB(A) liegt sie im oberen Bereich des Testfeldes. Hier befindet sie sich auch in guter Gesellschaft, denn die mit gleicher Kühlung ausgestatteten Modelle der GTX-700-Serie sowie die Titan-Varianten sind ebenfalls in diesem Bereich zu finden. Allerdings war bei unserer Karte auch ein leichtes Spulenfiepen zu hören.

Kein Spulenfiepen zu vernehmen war bei der EVGA GeForce GTX 970 Superclocked, mit der wir auch die Referenzversion der GeForce GTX 970 simulierten. Aufgrund der modifizierten Kühlung kann dies für die dazugehörigen Messungen natürlich nicht gelingen. Dennoch wollen wir die 42,2 bzw. 42,4 dB(A) unter Last einmal festhalten.

Temperatur

Idle

in Grad Celsius
Weniger ist besser

Weniger spannend ist die Betrachtung der Idle-Temperaturen, denn mit den wenigen Watt, die eine moderne Grafikkarte verbraucht, kommt selbst der einfachste Kühler zurecht. Zwischen 32 und 34 °C messen wir für die beiden Maxwell-Modelle. Das wirkliche Potenzial der Kühlungen ist erst unter Last zu erkennen.

Temperatur

Last

in Grad Celsius
Weniger ist besser

Unter Last zeigt sich dann auch recht deutlich, dass die GeForce GTX 980 mit der Referenzkühlung ausnahmslos am Temperatur-Ziel arbeitet und damit in einem Bereich, in dem GPU-Boost versucht via Takt- und Spannungsanpassungen sowie Erhöhung der Drehzahl des Lüfters einen stabilen Betrieb mit einem möglichst hohen Takt zu erreichen. 80 °C ist die von NVIDIA vorgegebene Temperaturgrenze und an dieser sehen wir die GeForce GTX 980 auch. Dies führt in der Folge auch dazu, dass die GeForce GTX 980 ihren Mindest-Boost-Takt nicht halten kann und teilweise darunter fällt, was sich natürlich auch auf die Performance auswirkt.

Etwas anders verhält es sich mit der GeForce GTX 970 von EVGA. Sie kommt nicht an das eigens definierte Temperatur-Ziel und arbeitet bei maximal 71 °C. Dies führt auch dazu, dass sie ihren maximalen Boost-Takt ständig halten kann. Gerne hätten wir eine GeForce GTX 970 ebenfalls mit einer Referenzkühlung getestet, um zu sehen, ob auch die etwas beschnittene Maxwell-GPU noch mit dem Temperatur-Ziel zu kämpfen hat. Da diese so aber wohl nicht in den Handel kommen wird, sind die Werte mit der Karte von EVGA deutlich praxisrelevanter und daher für den potenziellen Käufer sicherlich entscheidend.

Leistungsaufnahme (Gesamtsystem)

Idle

in Watt
Weniger ist besser

Wie auch schon bei den Temperatur-Messungen gilt auch für die Leistungsaufnahme im Idle-Betrieb: Aktuelle GPUs und Karten gehören zu den sparsamsten Komponenten in einem Gesamtsystem. Weitaus größeren Einfluss nehmen die übrigen Komponenten und so verwundert es auch nicht, dass das Testfeld bei den Messungen zur Idle-Aufnahme extrem zusammengerückt ist. Kleinere Unterschiede sind teilweise nur noch durch die Messtoleranzen zu erklären.

Leistungsaufnahme (Gesamtsystem)

Last

in Watt
Weniger ist besser

NVIDIA verspricht mit der 2. Generation der Maxwell-GPUs einen großen Sprung in Sachen Performance/Watt und eben dies sollte sich auch in den Messungen zum Verbrauch niederschlagen. Und NVIDIA hat Wort gehalten - denn zumindest über die Messungen können wir bestätigen, dass die GeForce GTX 980 etwa 40 Watt weniger verbraucht als eine GeForce GTX 780 Ti. Mit 368,8 Watt für den Last-Stromverbrauch findet sich eine der aktuell schnellsten Single-GPU-Grafikkarten im Mittelfeld des Testfeldes wieder - eine Entwicklung, die wir nur begrüßen können.

Ähnliches gilt auch für die GeForce GTX 970 bzw. die Variante von EVGA. Hier messen wir einen Verbrauch für das Gesamtsystem von 338,7 Watt für das auf GTX-970-Niveau getaktete Modell und 353,9 Watt für die EVGA GeForce GTX 970 Superclocked. Zumindest auf Referenztakt liegen wir also im Bereich der GeForce GTX 770. Nun fehlen uns noch die Performance-Werte, um den Verbrauch in Relation setzen zu können. Aber vorweg nehmen können wir bereits, dass NVIDIA es tatsächlich wie auch bei der 1. Generation der Maxwell-Karten (GeForce GTX 750 und GTX 750 Ti) geschafft hat den Verbrauch bei gleicher Leistung drastisch zu senken bzw. bei gleichem Verbrauch eine deutlich höhere Leistung zu bieten.


Mit dem neuen 3DMark versucht Futuremark vom Smartphone bis zum High-End-PC eine Vergleichbarkeit herzustellen. Dazu bietet man drei Presets an, die alle Performance-Bereiche in den verschiedensten Settings abdecken sollen. Natürlich werden auch hier Technologien wie Tessellation, Depth of Field, Volumetric Lighting und Direct Compute verwendet. Über das Fire-Strike-Extrem-Setting lassen sich auch High-End-Karten an ihre Grenzen bringen.

Zum kostenlosen Download von Futuremarks 3DMark gelangt man über diesen Link.

Futuremark 3DMark

Ice Storm

Futuremark-Punkte
Mehr ist besser

Futuremark 3DMark

Cloud Gate

Futuremark-Punkte
Mehr ist besser

Futuremark 3DMark

Fire Strike

Futuremark-Punkte
Mehr ist besser

Futuremark 3DMark

Fire Strike Extreme

Futuremark-Punkte
Mehr ist besser


Sowohl AMD wie auch NVIDIA legen immer größeren Wert auf die Compute-Performance ihrer GPUs. Neben zahlreichen Engines mit OpenCL-Unterstützung wollen wir auch die Performance gesondert betrachten. Dazu nutzen wir den LuxMark 2.0, der in der Testszene "Sala" über RayTracing ein Bild berechnet und als Ausgabe die Samples pro Sekunde ausgibt.

luxmark-1-rsScreenshot zu Luxmark 2.0

Screenshot zu Luxmark 2.0Screenshot zu Luxmark 2.0

Zum kostenlosen Download von LuxMark 2.0 gelangt man über diesen Link.

Luxmark 2.0

Sala

Punkte
Mehr ist besser


Mit Hilfe des ComputeMark versuchen wir die GPU-Computing-Performance genauer zu beleuchten. Der ComputeMark führt automatisch durch unterschiedliche Anwendungen, die ebenso unterschiedliche Anforderungen an die Hardware haben. Auf Basis der aktuellen DirectX-11-Compute-API können Nutzer die Compute-Leistung auf den Prüfstand stellen. Mit von der Partie ist unter anderem ein RayTracing-Test.

Screenshot zu ComputeMark Screenshot zu ComputeMark
Screenshot zu ComputeMark Screenshot zu ComputeMark

Den ComputeMark könnt ihr direkt auf der Seite des Herstellers herunterladen.

ComputeMark

Fluid 2D

Punkte
Mehr ist besser

ComputeMark

Fluid 3D

Punkte
Mehr ist besser

ComputeMark

Mandel Vektor

Punkte
Mehr ist besser

ComputeMark

Mandel Skalar

Punkte
Mehr ist besser

ComputeMark

Ray Tracing

Punkte
Mehr ist besser


Der fünfte Teil der The-Elder-Scroll-Reihe spielt in der namensgebenden Provinz Skyrim (dt. Himmelsrand). Die Handlung dreht sich um die Rückkehr der Drachen, wie sie in den "Elder Scrolls" vorhergesagt wurde. Der Spieler übernimmt die Rolle eines "Dovahkiin", eines Individuums mit dem Körper eines Menschen und der Seele eines Drachen. Der Spieler durchstreift bei dem Kampf gegen die Drachen opulente Städte mit verschlungenen Gassen und atemberaubende Landschaften, deren Grenze buchstäblich der Himmel ist. Mit seiner hohen Weitsicht und der detaillierten Vegetation bringt Skyrim so manches System ins Schwitzen.

Zur Vollversion von Elder Scrolls V: Skyrim gelangt man über diesen Link

The Elder Scrolls V: Skyrim

1.920 x 1.080 1xAA 1xAF

175.1 XX


118 XX
174.6 XX


122 XX
172.8 XX


115 XX
172.4 XX


113 XX
169.8 XX


107 XX
169.6 XX


113 XX
168.8 XX


114 XX
162.8 XX


110 XX
159.7 XX


113 XX
158.4 XX


105 XX
158.0 XX


106 XX
156.7 XX


116 XX
151.5 XX


109 XX
148.2 XX


105 XX
147.9 XX


114 XX
Bilder pro Sekunde
Mehr ist besser

The Elder Scrolls V: Skyrim

1.920 x 1.080 8xAA+FXAA 16xAF

160.7 XX


111 XX
160.0 XX


106 XX
157.4 XX


117 XX
156.4 XX


113 XX
153.7 XX


114 XX
150.8 XX


102 XX
145.7 XX


113 XX
145.3 XX


115 XX
144.1 XX


106 XX
135.1 XX


112 XX
120.7 XX


111 XX
119.9 XX


105 XX
116.1 XX


103 XX
115.8 XX


106 XX
110.6 XX


102 XX
Bilder pro Sekunde
Mehr ist besser

The Elder Scrolls V: Skyrim

2.560 x 1.600 1xAA 1xAF

170.5 XX


119 XX
167.3 XX


113 XX
165.9 XX


110 XX
163.2 XX


107 XX
160.9 XX


118 XX
160.0 XX


113 XX
157.0 XX


105 XX
149.6 XX


110 XX
147.6 XX


114 XX
146.8 XX


108 XX
132.1 XX


112 XX
127.1 XX


115 XX
126.4 XX


109 XX
119.3 XX


108 XX
116.2 XX


105 XX
Bilder pro Sekunde
Mehr ist besser

The Elder Scrolls V: Skyrim

2.560 x 1.600 8xAA+FXAA 16xAF

156.3 XX


103 XX
142.9 XX


102 XX
140.8 XX


115 XX
122.6 XX


109 XX
121.9 XX


112 XX
117.5 XX


108 XX
113.6 XX


100 XX
108.1 XX


98 XX
106.9 XX


98 XX
99.4 XX


91 XX
86.6 XX


78 XX
82.2 XX


74 XX
81.5 XX


74 XX
77.9 XX


70 XX
75.1 XX


68 XX
Bilder pro Sekunde
Mehr ist besser

The Elder Scrolls V: Skyrim

3.840 x 2.160 1xAA 1xAF

151.9 XX


101 XX
136.3 XX


102 XX
127.8 XX


117 XX
122.8 XX


113 XX
117.4 XX


111 XX
115.8 XX


104 XX
107.7 XX


99 XX
84.5 XX


77 XX
84.2 XX


61 XX
74.0 XX


65 XX
Bilder pro Sekunde
Mehr ist besser

The Elder Scrolls V: Skyrim

3.840 x 2.160 8xAA+FXAA 16xAF

Bilder pro Sekunde
Mehr ist besser


Mit Crysis 3 steht in diesem Frühjahr zumindest auf technischer Seite in Hightlight bereit. Mit der Unterstützung ausschließlich für DirectX-11-Grafikkarten geben Crytek, die Macher hinter Crysis 3 die Richtung bereits vor. Von Tessellation bis zum aufwendigen Post-Processing-Anti-Aliasing werden alle aktuellen technischen Finessen genutzt, so dass auch die aktuellste Hardware an ihre Grenzen kommt.

Zur Vollversion von Crysis 3 gelangt ihr über diesen Link.  

Crysis 3

1.920 x 1.080 1xAA 1xAF

Bilder pro Sekunde
Mehr ist besser

Crysis 3

1.920 x 1.080 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Crysis 3

2.560 x 1.600 1xAA 1xAF

Bilder pro Sekunde
Mehr ist besser

Crysis 3

2.560 x 1.600 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Crysis 3

3.840 x 2.160 1xAA 1xAF

Bilder pro Sekunde
Mehr ist besser

Crysis 3

3.840 x 2.160 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser


Zu den Highlights des Jahres 2013 dürte Bioshock Infinite gehören. Doch nicht nur die Story kann fesseln, sondern auch die Technik. Die Engine nutzt nahezu alle aktuellen DirectX-11-Effekte und setzt diese auch entsprechend um. Daher ist Bioshock Infinite eine logische Wahl für unsere Benchmarks.

Zur Vollversion von Bioshock: Infinite gelangt man über diesen Link

BioShock Infinite

1.920 x 1.080 DirectX 10 Hoch

200.1 XX


30 XX
180.5 XX


22 XX
170.5 XX


21 XX
158.6 XX


20 XX
155.1 XX


10 XX
154.7 XX


17 XX
152.8 XX


18 XX
151.9 XX


23 XX
146.7 XX


19 XX
140.2 XX


30 XX
127.1 XX


18 XX
120.4 XX


19 XX
115.5 XX


30 XX
112.1 XX


18 XX
101.7 XX


30 XX
Bilder pro Sekunde
Mehr ist besser

BioShock Infinite

1.920 x 1.080 DirectX 11 Ultra

Bilder pro Sekunde
Mehr ist besser

BioShock Infinite

2.560 x 1.600 DirectX 10 Hoch

Bilder pro Sekunde
Mehr ist besser

BioShock Infinite

2.560 x 1.600 DirectX 11 Ultra

Bilder pro Sekunde
Mehr ist besser
 

BioShock Infinite

3.840 x 2.160 DirectX 10 Hoch

Bilder pro Sekunde
Mehr ist besser

BioShock Infinite

3.840 x 2.160 DirectX 11 Ultra

Bilder pro Sekunde
Mehr ist besser


Mit Battlefield 4 setzen DICE und EA die Strategie des Vorgängers fort: Eine kleine Singleplayer-Kampagne wird angeboten, aber alles dreht sich eigentlich um die großen Multiplayer-Schlachten. Mit bis zu 63 weiteren Spielern kann auf großen Karten zwischen drei verschiedenen Kämpfer-Klassen gewählt werden. Hinzu kommen Dutzende Fahrzeuge zu Land, zu Wasser und in der Luft. Auch grafisch setzt Battlefield 4 neue Maßstäbe und ist daher auch ein offensichtlicher Kandidat für unsere Benchmarks.

Zur Vollversion von Battlefield 4 gelangt man über diesen Link

Battlefield 4

1.920 x 1.080 1xAA 1xAF

170.9 XX


141 XX
136.4 XX


111 XX
123.1 XX


87 XX
111.6 XX


81 XX
103.8 XX


75 XX
103.7 XX


69 XX
98.6 XX


65 XX
95.7 XX


75 XX
95.1 XX


72 XX
86.4 XX


60 XX
78.3 XX


60 XX
75.0 XX


55 XX
71.6 XX


53 XX
69.9 XX


54 XX
64.6 XX


49 XX
Bilder pro Sekunde
Mehr ist besser

Battlefield 4

1.920 x 1.080 4xMSAA 16xAF