NVIDIA GeForce GTX Titan X im Test

Veröffentlicht am: von

geforce titanx logoEs ist wieder einmal Zeit für eine Titan-Grafikkarte und wenn nicht die hauseigenen GTC, welche Messe bietet sich sonst dazu an ein solches Produkt vorzustellen. Auf der heutigen Keynote der GTC tat Jen-Hsun Huang dies und nach der ersten Preview zur GeForce GTX Titan X auf der GDC 2015 erfolgt heute die finale Vorstellung mit einem gewohnt umfangreichen Review von uns. Mit der GeForce GTX Titan X verwendet NVIDIA den vorläufigen Vollausbau der aktuellen "Maxwell"-Umsetzung in einem Chip. GM200 wird also vorläufig die schnellste GPU am Markt sein, soviel können wir bereits jetzt vorwegnehmen.

Die Geschichte der Titan-Grafikkarte ist eine voller Missverständnisse - auf allen Seiten der beteiligten Parteien. Für NVIDIA stellt sie stets die Speerspitze der aktuellen Entwicklung dar, doch oft fiel es schwer diese Ansprüche auch an die potenzielle Kundschaft und Presse weiterzuleiten. Die erste GeForce GTX Titan (Hardwareluxx-Artikel) aus dem Jahre 2013 war dabei noch eine Ausnahme, die abgesehen vom Preis eigentlich keinerlei Fragen offen ließ. Im Rückblick ist sie mit ihren 6 GB an Grafikspeicher und der GK110-GPU auf Basis der "Kepler"-Architektur erstaunlich beständig. 2014 folgte die GeForce GTX Titan Black Edition (Hardwareluxx-Artikel), welche die GK110 im Vollausbau präsentierte, darüber hinaus aber keinen Performance-Sprung anbieten konnte, wie ihn die erste Titan noch zu vermachen mochte. Als Komplettausfall der Kommunikation in Richtung Käuferschicht und Presse darf die GeForce GTX Titan Z (Hardwareluxx-News) bezeichnet werden, welche die erste und bisher einzige Dual-GPU-Grafikkarte der Titan-Serie ist. Gerade die letzten beiden Titan-Varianten konnten sich nicht so recht entscheiden, ob sie nun eine Gamer- oder eine Profi-Karte sein wollen.

Mit der GeForce GTX Titan X versucht sich NVIDIA wieder mit einem Neuanfang und besinnt sich dabei der vermeintlichen Stärke der Karte - der Gaming-Performance. Keine überbordende Double-Precision-Performance, keine Compute-Funktionen - diese hebt man sich für die GPU Technology Conference auf, die ebenfalls heute startet und deren Neuerscheinungen wir dann gesondert behandeln werden.

Auf der GeForce GTX Titan X verbaut ist die GM200-GPU, welche in der GM200-Serie den Vollausbau darstellt. Gefertigt wird die GPU weiterhin in 28 nm. Auf die Details der Architektur kommen wir zwar später noch einmal, die 3.072 Shadereinheiten ergeben sich aber dennoch aus 24 Maxwell-Streaming-Multiprozessoren, die aus jeweils 128 ALUs bestehen. Aus dieser Zusammensetzung ergeben sich grundsätzlich auch die 192 Textureinheiten sowie die 64 ROPs - dazu aber wie gesagt später etwas mehr.

Architektonische Eckdaten

NVIDIA GeForce GTX Titan X
Straßenpreis 1.149 Euro
Homepage www.nvidia.de
Technische Daten
GPU Maxwell (GM200)
Fertigung 28 nm
Transistoren 8 Milliarden
GPU-Takt (Base Clock) 1.000 MHz
GPU-Takt (Boost Clock) 1.075 MHz
Speichertakt 1.750 MHz
Speichertyp GDDR5
Speichergröße 12 GB
Speicherinterface 384 Bit
Speicherbandbreite 336,6 GB/s
DirectX-Version 12
Shadereinheiten 3.072
Textur Units 192
ROPs 96
Pixelfüllrate 96,2 GPixel/s
SLI/CrossFire SLI

Schauen wir uns die technischen Daten der GM200-GPU also einmal etwas genauer an. NVIDIA lässt die aktuelle "Maxwell"-Architektur in 28 nm bei TSMC fertigen. Die GM200-GPU kommt auf 8 Milliarden Transistoren, was sie zum komplexesten Chip macht, den NVIDIA jemals hat fertigen lassen. Zum Vergleich: Der bisherige Spitzenreiter bei NVIDIA, die GK110-GPU des direkten Titan-Vorgängers, kommt auf 7,1 Milliarden Transistoren.

3.072 Shadereinheiten sind in der GM200-GPU vorhanden, die sich aus 6 GPC (Graphics Processing Cluster) x 4 SMM (Maxwell Streaming Multiprozessor) x 4 SMM-Blöcke x 32 ALUs = 3.072 Shadereinheiten ergeben. Jeder SMM besitzt zusätzlich jeweils acht Textureinheiten. Somit kommt die GM200-GPU auf insgesamt 192 dieser Einheiten. Weiterhin vorhanden sind 96 ROPs und sechs Speichercontroller mit jeweils 64 Bit.

Das nun 384 Bit breite Speicherinterface bindet insgesamt 12 GB an GDDR5-Speicher an. Damit hat man den Speicherausbau im Vergleich zur ersten GeForce GTX Titan verdoppelt. Die Speicherbandbreite liegt bei 336,6 GB pro Sekunde. Die Frage nach der Sinnhaftigkeit von 12 GB Grafikspeicher stellen wir vorerst hinten an. Auch bei der ersten Titan-Generation klangen 6 GB an Grafikspeicher nach übermäßig viel, doch selbst ohne größeren Modifikationen verlangen die ersten Spiele bereits heute bis zu 6 GB an Grafikspeicher. Mit den 12 GB an Speichern aber sollte die Speichermenge nicht zum Flaschenhals der Karte werden - zumindest vorerst nicht. Zusätzlich zum breiten Speicherinterface und dem großen Speicherausbau bietet die "Maxwell"-Architektur auch noch eine Speicherkomprimierung, welche die Speicherbandbreite um bis zu 30 Prozent optimieren können soll. Mehr dazu im Launch-Artikel der 2. (Maxwell)-Generation.

NVIDIA GeForce GTX Titan X im Vergleich
ModellGeForce GTX Titan XGeForce GTX TitanGeForce GTX 980Radeon R9 290X
Straßenpreis 1.149 Euro etwa 950 Euro etwa 500 Euro etwa 300 Euro
Homepage www.nvidia.de www.nvidia.de www.nvidia.de www.amd.com/de
Technische Daten
GPU GM200 (GM200-400-A1) GK110 (GK110-400-A1) Maxwell (GM204) Hawaii
Fertigung 28 nm 28 nm 28 nm 28 nm
Transistoren 8 Milliarden 7,1 Milliarden 5,2 Milliarden 6,2 Milliarden
GPU-Takt (Base Clock) 1.000 MHz 837 MHz 1.126 MHz -
GPU-Takt (Boost Clock) 1.075 MHz 876 MHz 1.216 MHz 1.000 MHz
Speichertakt 1.750 MHz 1.500 MHz 1.750 MHz 1.250 MHz
Speichertyp GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 12 GB 6 GB 4 GB 4 GB
Speicherinterface 384 Bit 384 Bit 256 Bit 512 Bit
Speicherbandbreite 336,6 GB/s 288,4 GB/s 224,0 GB/s 320,0 GB/s
Shadereinheiten 3.072 2.688 2.048 2.816
Textur Units 192 224 128 176
ROPs 96 48 64 64
TDP 250 Watt 250 Watt 165 Watt > 250 Watt
SLI/CrossFire SLI SLI SLI CrossFire

Die Thermal Design Power gibt NVIDIA mit 250 Watt an. Damit liegt man im Vergleich zur ersten Titan gleichauf. Versorgt wird die Karte zusätzlich zum PCI-Express-Steckplatz noch über jeweils einen 6-Pin- und einen 8-Pin-Anschluss. Auf die Strom- und Spannungsversorgung will NVIDIA einen besonderen Fokus gelegt haben und spendiert dieser einen zusätzlichen Spielraum von 10 Prozent. Verlötete/verklebte Spulen und spezielle Kondensatoren sollen unnötige Geräusche der elektrischen Bauteile verhindern. Dazu aber später noch etwas mehr.


Innerhalb der Architektur der SMMs hat NVIDIA im Vergleich zur "Kepler"-Architektur und damit der früheren Titan-Modelle einige Änderungen vorgenommen, die das Performance/Watt-Verhältnis um den Faktor zwei verbessern sollen. Dazu gehört, dass die mit "Kepler" eingeführten SMX-Cluster mit 192 Shadereinheiten (CUDA-Kerne) neu angeordnet wurden. Grund hierfür ist die Tatsache, dass eine Control Logic für 192 Shadereinheiten sehr komplex konstruiert werden muss. Mit "Maxwell" wird der Maxwell Streaming Multiprozessor, in der Folge auch SMM genannt in vier Blöcke zu jeweils 32 Shadereinheiten aufgeteilt. Insgesamt stehen als pro SMM 128 Shaderheinheiten zur Verfügung. Die weniger komplexe Control Logic sorgt auch dafür, dass einzelne Aufgaben effizienter an die Kerne verteilt werden können. Dies sorgt dafür, dass ein einzelner Shader bis zu 35 Prozent schneller arbeitet als sein Pendant auf "Kepler"-Basis. Als Testballon diente dazu die GM107-GPU, die man bereits vor einem Jahr auf der GeForce GTX 750 und GTX 750 Ti verbaute (Hardwareluxx-Artikel). Entsprechend auf die GM204- und GM206-GPU hochskaliert zeigte sich die gute Effizienz auch auf der GeForce GTX 980 und GTX 970 (Hardwareluxx-Artikel) sowie der erst kürzlich erschienen GeForce GTX 960 (Hardwareluxx-Artikel).

Die GM200-GPU der GeForce GTX Titan X bietet das sogenannte Full Feature Set der "Maxwell"-Architektur. Der Chip bietet also sämtliche geplanten Strukturen und Ausbaustufen. Dazu gehört neben den 3.072 Shadereinheiten auch ein 3 MB großer L2-Cache, der bei der GeForce GTX 980 2 MB groß ist und bei der GeForce GTX 970 aufgrund der Einschränkungen der Speicherbandbreite gar nur 1.792 kB misst. Verblieben ist man aber bei einer Bandbreite von 512 Byte pro Takt zu diesem Cache. Ebenfalls keinerlei Unterschiede gibt es bei der Double-Precision-Performance, die bei 1/32 der Single-Precision-Performance von 7 TFLOPS liegt. Dedizierte Double-Precision-Einheiten gibt es bei der jetzigen "Maxwell"-Implementierung also noch nicht. Die GTC 2015 wird zeigen, ob sich daran noch was ändern wir und eine eventuelle GM210-GPU hier entsprechende Änderungen vorzuweisen hat, die für Spieler aber keinerlei Rolle spielen.

Blockdiagramm der GM200-GPU
Blockdiagramm der GM200-GPU

Im Vergleich zur Maxwell-Architektur der 1. Generation leicht vergrößert hat man den Shared Memory eines jeden SMM. Dieser ist nun 96 kB und nicht mehr nur 64 kB groß. Ebenfalls eine Rolle spielen soll die Polymorph Engine in Version 3.0. Die PolyMorph-3.0-Engine ist maßgeblich verantwortlich für Vertex-Fetch, Tessellation, Attribute-Setup, Viewport-Transform und den Stream-Output. Sind die SMM-Cluster und die PolyMorph-3.0-Engine durchlaufen, wird das Ergebnis an die Raster-Engine weitergeleitet. In einem zweiten Schritt beginnt dann der Tessellator mit der Berechnung der benötigten Oberflächen-Positionen, die dafür sorgen, dass je nach Abstand der nötige Detailgrad ausgewählt wird. Die korrigierten Werte werden wiederum an das SMM-Cluster gesendet, wo der Domain-Shader und der Geometrie-Shader diese dann weiter ausführen. Der Domain-Shader berechnet die finale Position jedes Dreiecks, indem er die Daten des Hull-Shaders und des Tessellators zusammensetzt. An dieser Stelle wird dann auch das Displacement-Mapping durchgeführt. Der Geometrie-Shader vergleicht die errechneten Daten dann mit den letztendlich wirklich sichtbaren Objekten und sendet die Ergebnisse wieder an die Tessellation-Engine für einen finalen Durchlauf. Im letzten Schritt führt die PolyMorph-3.0-Engine die Viewport-Transformation und eine perspektivische Korrektur aus. Letztendlich werden die berechneten Daten über den Stream-Output ausgegeben, indem der Speicher diese für weitere Berechnungen freigibt. Mit diesem Prozess verbunden sind zahlreiche Render-Features, auf die wir auf den kommenden Seiten aber noch ausführlich kommen.

Noch einmal zurück auf die einzelnen SMM-Blöcke: Jedem 32er Block stehen ein Instruction Buffer und ein Warp Schedular zur Verfügung. Jeweils zwei Dispatch Units haben Zugriff auf 16.384 Register mit jeweils 32 Bit. Auch hier lohnt wieder ein Blick auf die "Kepler"-Architektur. 128 Shaderheinheiten werden mithilfe von vier Warp Schedulern und acht Dispatch Units über 65.536 Register bei ebenfalls 32 Bit die Daten bzw. Rechenaufgaben zugeteilt. Jeder Shadereinheit stehen bei Maxwell also theoretisch 512 Register zur Verfügung, während es bei Kepler nur rund 341 sind. Eben solche Maßnahmen sollen auch dazu führen, dass jeder Shader bis zu 35 Prozent schneller arbeiten kann. Weiterhin einen Einfluss hat auch das Verhältnis zwischen Shadereinheiten und den sogenannten Special Function Units (SFU). Während dies bei Kepler 6/1 beträgt, liegt das Verhältnis bei Maxwell bei 4/1. Gleiches gilt auch für die Load/Store Units (LD/ST).

Natürlich bietet die GeForce GTX Titan X aufgrund der Verwendung der "Maxwell"-Architektur auch sämtliche Features, die wir von der GeForce GTX 980, GTX 970 und GTX 960 kennen. Weitere Details dazu sind in den bisher erschienen Artikeln zu finden:

- 256 Bit Speichercontroller - Speicherkomprimierung
- DSR (Dynamic Super Resolution)
- MFAA (Multiframe Sampled Anti-Aliasing)
- VXGI (Voxel Global Illumination)
- DirectX 12
- GameWorks und PhysX
- VR Direct
- H.265 und 4K-Streaming

GeForce GTX Titan X im professionellen Umfeld

Die verschiedenen Modelle der GeForce GTX Titan wurden von NVIDIA auch immer für den professionellen Einsatz vorgesehen. Wer auf bestimmte Funktionen der Quadro- und Tesla-Treiber verzichten kann, kann hier auch viel Geld sparen. So verbauten nicht nur Privatpersonen de Varianten der GeForce GTX Titan in ihrem professionellen Arbeitsumfeld, sondern auch Unternehmen und Bildungseinrichtungen. Beispiele dazu sind zahlreich vorhanden, allerdings ist es schwer den Überblick zu behalten und NVIDIA macht keinerlei Angaben darüber, wie die Aufteilung zwischen Spieler- und Profi-Anwendung aussieht.

Der zur Verfügung stehende Speicher ist sicherlich ein entscheidendes Merkmal in diesem Bereich und hier ist die GeForce GTX Titan X mit ihren 12 GB Grafikspeicher sicherlich nicht schlecht aufgestellt. Wer aber besonderen Wert auf die Integrität der darin befindlichen Daten legt, wird ohne ECC auskommen müssen. Außerdem fehlt es der bisherigen "Maxwell"-Umsetzung an speziellen Double-Precision-Einheiten, welche Rechenaufgaben mit doppelter Genauigkeit ausführen können. NVIDIA gibt die Single-Precision-Performance mit 7 TFLOPS an. Bei einem Verhältnis von 24/1 für SP- zu DP-Einheiten liegt die Double-Precision-Performance bei nur 291 GFLOPS.

Vergleich der SP- und DP-Performance
Grafikkarte SP-Performance DP-Performance
GeForce GTX Titan X 7 TFLOPS 291 GFLOPS
GeForce GTX Titan Z 8,122 TFLOPS 2.707 GFLOPS
GeForce GTX Titan Black 5,121 TFLOPS 1.707 GFLOPS
GeForce GTX Titan 4,5 TFLOPS 1.500 GFLOPS
Quadro K6000 5,196 TFLOPS 1.732 GFLOPS
Tesla K40 4,291 TFLOPS 1.430 GFLOPS
Tesla K80 6,992 TFLOPS 2,91 GFLOPS
Radeon R9 290X 5,632 TFLOPS 320 GFLOPS
Radeon R9 295X2 11,466 TFLOPS 640 GFLOPS
FirePro W9100 5,237 TFLOPS 2618 GFLOPS

Hier hatte die "Kepler"-Architektur noch deutlich mehr anzubieten. Dies machte die GeForce GTX Titan (Black) und GeForce GTX Titan Z auch zu einer echten Alternative in diesem Bereich. Wer also weiterhin Wert auf eine hohe Leistung bei doppelter Genauigkeit legt, wird mit der aktuellen "Maxwell"-Umsetzung nicht glücklich werden. Denkbar ist aber, dass NVIDIA das Design entsprechend anpasst und als GM210-GPU auf den Markt wirft. Vielleicht werden wir bereits während der GTC 2015 mehr dazu hören. Wir erhoffen uns auch weitere Details zur Anwendung der GeForce GTX Titan X im professionellen Umfeld.

GPU-Z-Screenshot der GeForce GTX Titan X
GPU-Z-Screenshot der GeForce GTX Titan X

Der GPU-Z-Screenshot bestätigt die eben gemacht Angaben auch noch einmal. Aufgrund fehlender Datenbank-Einträge für die Karte bzw. unterschiedliche Teiler in der Hardware selbst kann es natürlich zu leicht veränderten Anzeigen in der Software kommen.

Gegenüberstellung von Temperatur und Takt
Spiel Temperatur Takt
The Elder Scrolls V Skyrim 82 °C 1.164 MHz
Company of Heroes 83 °C 1.151 MHz
Grid 2 82 °C 1.151 MHz
Metro: Last Light 83 °C 1.126 MHz
Crysis 3 82 °C 1.151 MHz
Battlefield 4 83 °C 1.138 MHz
Bioshock: Infinite 82 °C 1.164 MHz
Tomb Raider 83 °C 1.151 MHz

Wie üblich schauen wir uns das Taktverhalten der Karte auch in der Praxis etwas genauer an, denn mit Einführung von GPU-Boost und PowerTune auf Seiten von AMD sind die Angaben des Taktes immer nur ein Richtwert, die unter ganz bestimmten Bedingungen erreicht werden. Für die GeForce GTX Titan X bedeutet dies, dass sie vor allem mit dem Temperatur-Limit in Kontakt kommt. Dieses ist von NVIDIA mit 83 °C festgelegt. Erreicht die Karte dieses Limit, taktet sie herunter, um die Temperatur nicht weiter zu überschreiten. In den Meisten Benchmarks erreichen wir diese Temperatur nach einer Aufwärmphase auch, was dazu führt, dass wir unterschiedliche Taktraten sehen. Diese bewegen sich in unseren Tests zwischen 1.126 und 1.164 MHz. NVIDIA gibt einen Boost-Takt von 1.075 MHz an, so dass wir uns mindestens 50 MHz über den Angaben von NVIDIA bewegen.

Das Power-Limit von 250 Watt war zu keinem Zeitpunkt ein Problem. Laut verschiedenster Tools bewegt sich die Karte bei einer TDP-Auslastung von 90 - 95 Prozent während sie am Temperatur-Limit arbeitet. Sorgen wir durch Erhöhung der Lüfterdrehzahl dafür, dass die GPU unter ihr Temperatur-Ziel fällt bzw. erhöhen wir das Temperatur-Ziel selbst, taktet die Karte mit 1.177 MHz ohne ein manuelles Overclocking.


NVIDIA startet die GeForce GTX Titan X mit einem Referenzdesign und dabei soll es auch bleiben. Zwar werden alle größeren Partner von NVIDIA die Karte anbieten, die Karten selbst werden sich aber nicht unterscheiden. Geplant ist auch, dass die Hersteller die von NVIDIA verwendete Verpackung verwenden und allenfalls mit einem Einschub versehen. Geliefert wird die Karte den Herstellern auch komplett montiert.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

NVIDIA hält sehr viel von seiner eigenen Kühllösung, die in der Vergangenheit bereits mehrfach zum Einsatz kam und sicherlich nicht zu den schlechtesten Varianten gehört. Die Festlegung auf ein Design macht es den Herstellern aber natürlich schwer möglich, sich voneinander abzugrenzen. Einige verkauften ihre Modelle der GeForce GTX Titan daher mit einem separat gelieferten Kühler, der vom Käufer dann selbstständig gewechselt werden muss. Etwas Ähnliches könnten wir auch bei der GeForce GTX Titan X sehen und NVIDIA hat laut eigener Aussage auch wenig gegen solche Ideen der Hersteller. Ganz im Gegenteil, man geht sogar davon aus, dass recht bald nach Erscheinen erste Wasserkühler am Markt erhältlich sein werden, welche der Karte noch einmal zu deutlichem Schub verhelfen können. Das PCB-Design soll der ersten Titan so ähnlich sein, dass kaum bis gar keine Änderungen an den Kühlern vorgenommen werden müssen.

NVIDIA GeForce GTX Titan X
Länge des PCBs 265 mm
Länge mit Kühler 265 mm
Slothöhe 2 Slots
zusätzliche Stromanschlüsse 1x 8-Pin
1x 6-Pin
Lüfterdurchmesser 65 mm
Display-Anschlüsse

1x Dual-Link-DVI
1 HDMI 2.0
3x DisplayPort 1.2a

Lüfter aus im Idle nein
maximale Lüfterdrehzahl 2330 rpm
freigegebene TGP 250 Watt

Noch ein paar Worte zu den technischen Daten, die sich nicht auf die GPU beziehen: Die Karte misst in der Länge 265 mm, wobei PCB und Kühler gleich lang sind. Die Höhe beträgt die üblichen zwei Slots, womit die GeForce GTX Titan X identisch zu den anderen Referenzversionen ist, die mit dem gleichen Kühler und PCB-Design ausgestattet sind. Auf einige der weiteren Daten gehen wir bei Betrachtung des dazugehörigen Bildes noch etwas genauer ein.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

GeForce GTX Titan Black Edition? Das ist sicherlich der erste Gedanke, der in den Kopf schießt, wenn man einen Blick auf die GeForce GTX Titan X wirft. NVIDIA bleibt seinem grundsätzlichen Design für High-End-Referenzkarten aber treu. Das Design mit Radiallüfter, der die kalte Luft hinten ansaugt und in Richtung der Slotblende ausbläst, hat sich bewährt und kommt daher auch hier zum Einsatz.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Für die GeForce GTX Titan X verzichtet NVIDIA trotz aller Ähnlichkeiten zu früheren Versionen auf die Backplate. Dies ist wohl der Bestückung mit GDDR5-Speicher auf der Rückseite des PCBs geschuldet. Sicherlich hätte auch eine Backplate realisiert werden können, allerdings hätte es dann auch schon zu Problemen im SLI-Betrieb bzw. einer Blockierung des Lüfters der zweiten Karte kommen können. Dazu verwendete NVIDIA bei der GeForce GTX 980 eine abnehmbare Platte auf der Backplate selbst, um der zweiten oder dritten Karte etwas Luft zu verschaffen.

Ob die fehlende Backplate auf der GeForce GTX Titan X nun ein Nachteil sein muss, sei einmal dahingestellt. Sicherlich ist ein gewisser Schutz des PCBs nicht abzustreiten und auch die mechanische Stabilität aufgrund eines schweren Kühlers ist mit einer Backplate besser zu gewährleisten.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Der Radiallüfter auf der GeForce GTX Titan X misst den für das Referenzdesign von NVIDIA üblichen Durchmesser von 65 mm. Die Luft wird an dieser Stelle angesaugt und in Richtung der Slotblende geblasen. Gerüchte sprachen vor einigen Monaten davon, dass NVIDIA beim Referenzkühler auf einen im Idle-Betrieb abschaltbaren Lüfter setzt. Die Partner tun dies bei ihren Modelle der GeForce GTX 980, GTX 970 und GTX 960 größtenteils. Für die Referenzversion der GeForce GTX Titan X aber verzichtet NVIDIA auf diese Funktion und so dreht sich der Lüfter auch im Idle-Betrieb weiter.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Ebenfalls wieder vorhanden ist ein Sichtfenster, durch das der Blick auf den Kühlkörper frei wird. Der Radiallüfter bläst die Luft durch diesen Kühlkörper in Richtung der Slotblende. Das Sichtfenster hat allerdings sonst keine Funktion und dient einfach nur der Optik der Karte.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Am vorderen Ende des Kühlers, direkt an der Slotblende, befindet sich der "Titan"-Schriftzug, der im Falle unseres Samples aber einen eingelassenen Buchstaben vermissen ließ. Auf einigen Renderings der Karte wurde zunächst noch angedeutet, dass der "Titan"-Schriftzug beleuchtet sein könnte, es bleibt aber beim beleuchteten "GeForce GTX"-Schriftzug auf der Oberseite der Karte.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Die Stromversorgung der Karte erfolgt über den PCI-Express-Steckplatz mit 75 Watts sowie über jeweils einen 6-Pin- und 8-Pin-Anschluss mit nochmals 75 bzw. 150 Watt. Insgesamt können also 300 Watt an die Karte herangeführt werden. NVIDIA gibt eine Thermal Design Power von 250 Watt an. Diese TDP beschreibt allerdings nur die maximale Leistungsaufnahme als Design-Element der Kühlung und muss sich nicht mit der TGP (Typical Graphics Power) decken. Diese weicht vor allem bei den Partner-Karten mit werksseitiger Übertaktung teils erheblich ab. Im Falle der GeForce GTX Titan X aber sind die 250 Watt TDP ein guter Orientierungspunkt für die Leistungsaufnahme der Karte.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Wie alle High-End-Karten von NVIDIA ist auch die GeForce GTX Titan X in der Lage in einem 2-Way-, 3-Way- oder gar 4-Way-SLI betrieben zu werden. Dazu sind auf dem PCB zwei SLI-Anschlüsse vorhanden. Zum aktuellen Zeitpunkt lag uns nur eine GeForce GTX Titan X vor, sodass wir auf einen SLI-Test vorerst noch verzichten müssen. Wir hoffen aber in Kürze eine zweite Karte zu bekommen und dies nachzuholen.

Gespannt sind wir auch, mit welcher GPU-Generation NVIDIA komplett auf die SLI-Anschlüsse verzichtet. Die Synchronisation bzw. Übertragung der Frames durch die zweite, dritte und vierte zur primären Karte wäre auch über das PCI-Express-Interface möglich, welches  eine ausreichende Bandbreite bietet. AMD macht es bei den Grafikkarten mit "Hawaii"-GPU (Radeon R9 290X und R9 290) vor und verzichtet auf die CrossFire-Anschlüsse. Vielleicht versucht es NVIDIA in der nächsten GPU-Generation ebenfalls ohne SLI-Brücke. Aus technischer Sicht wäre dies in jedem Fall kein Problem.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Der Blick auf die Slotblende offenbart die übliche Konfiguration mit jeweils einmal Dual-Link-DVI und HDMI 2.0 sowie dreimal DisplayPort 1.2a. Hier ebenfalls zu sehen sind die Öffnungen in der Slotblende, welche notwendig sind, damit der Lüfter die warme Luft nach hinten herausblasen kann. Noch immer stehen diese Designs hoch im Kurs, schließlich sorgen sie dafür, dass ein Großteil der warmen Luft aus dem Gehäuse geblasen wird. Das auch andere Lösungen eine gute Kühlung bewerkstelligen können, steht dabei außer Frage.


Weiter geht es mit den Details in der Betrachtung der GeForce GTX Titan X, wobei wir auch einen genauen Blick auf die verbauten Komponenten ohne den Kühler werfen wollen.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Aus Platzgründen muss NVIDIA die Hälfte der GDDR5-Speicherchips auf der Rückseite des PCBs verbauen. 12 von 24 Speicherchips mit jeweils 512 MB sind also hier zu finden und kommen gänzlich ohne Kühlung aus. In der Praxis stellt dies auch kein größeres Problem dar, denn mit ihren 1.750 MHz sprechen wir aktuell von einem moderaten Takt für GDDR5-Speicher. Auf auch einigen Partner-Karten der GeForce GTX 980 und GTX 970 verzichten die Hersteller auf eine aktive Kühlung der Karten.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Ohne Kühler wird der Blick auf die Front des PCBs der GeForce GTX Titan X frei. Allerdings sehen wir hier keinerlei größere Überraschungen, denn der grundsätzliche Aufbau der Karten mit NVIDIA-GPU ist überall gleich. Ganz links sehen wir die Komponenten und Anschlüsse für die Display-Ausgabe. In der Mitte folgen die GPU und die darum platzierten GDDR5-Speicherchips, die wir auf der Rückseite des PCBs bereits angesprochen haben. Rechts befinden sich die wichtigsten Komponenten der Strom- und Spannungsversorgung.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Aufgrund kurzer und vor allem gleichmäßiger Signalwege platziert NVIDIA die insgesamt 24 Speicherchips (jeweils 12 auf Vorder- und Rückseite des PCBs) in direkter Nähe zur GPU. Diese ist auf den ersten Blick nicht sichtbar größer als die GM204-GPU der GeForce GTX 980 und GTX 970, die auf 398 mm² kommt. Die 5,2 Milliarden Transistoren der GM204-GPU auf die 8 Milliarden der GM200-GPU hochgerechnet dürfte diese auf eine Chipfläche von etwa 610 mm² kommen. Allerdings könnte NVIDIA durch eine höhere Transistordichte auch leicht unter 600 mm² kommen.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Sechs Phasen sieht NVIDIA zur Strom- und Spannungsversorgung der GeForce GTX Titan X vor. Vermutlich kümmern sich fünf Phasen um die GPU und eine weitere um die Speicherchips. Dabei sollen besonders robuste Bauteile zum Einsatz kommen, so beispielsweise verlötete/verklebte Spulen und spezielle Kondensatoren, die eine Geräuschentwicklung durch Schwingungen der Bauteile verhindern sollen. Die VRMs legt NVIDIA nach eigenen Angaben mit einem zusätzlichen Polster von +10 Prozent aus, was gerade dem Overclocking zuträglich sein soll. Gerade die aktuellen NVIDIA-Grafikkarten haben immer wieder mit dem sogenannten Spulenfiepen zu kämpfen, welches NVIDIA mit der GeForce GTX Titan X reduzieren möchte.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Neben den Spannungsphasen befinden sich im hinteren Bereich der Karte auch noch weitere Bauteile, die der Versorgung der Bauteile dienen. In der Mitte ist beispielsweise das Modul zu erkennen, welches sich um das GPU-Boost-Feature kümmert. Besonders niederohmige Shunt-Widerstände messen den Stromfluss auf den verschiedenen Spannungsebenen und geben diese Daten an einen Controller auf dem GPU-Boost-PCB weiter.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Die genaue Bezeichnung der GPU auf der GeForce GTX Titan X lautet GM200-400-A1. Das "A1" deutet daraufhin, dass es sich dabei um die erste Revision des Chips handelt, die nach einem ersten Tape-Out aus dem Werk bei TSMC keiner weiteren Überarbeitung bedarf. Die "400" in der Bezeichnung geben die Ausbaustufe des Chips an. Auf der GeForce GTX Titan X verwendet NVIDIA folglich den Vollausbau des Chips. Ebenfalls zu erkennen ist ein Produktionsdatum, welches auf die 47. Woche 2014 hindeutet (1447A1). NVIDIA lässt die GPUs also vermutlich bereits seit einiger Zeit bei TSMC fertigen und hat inzwischen ausreichend Stückzahlen, um die Grafikkarte auf den Markt zu bringen. Da auch eine Quadro- und/oder Tesla-Karte mit dieser GPU erwartet wird, ist eine gewisse Stückzahl notwendig, um nicht in Lieferengpässe zu geraten.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Beim Speicher der GeForce GTX Titan X setzt NVIDIA auf SK Hynix. Dieser hört auf die Bezeichnung H5GQ4H24MFR-R2C. Die eingesetzten Module kommen pro Chip auf eine Kapazität von 4.096 GBit bzw. 512 MB in 16 Speicherbänken. Bei 1.750 MHz ist er für eine Betriebsspannung von 1,5 Volt spezifiziert. Auch zum Speicher gab s im Vorfeld einige Gerüchte, die auch vom Einsatz des deutlich schnelleren Speichers mit 2.000 MHz sprachen. Angeboten wird dieser inzwischen von Samsung und Sk Hynix und die Speicherbandbreite der GeForce GTX Titan X würde von 336,6 GB auf 384 GB pro Sekunde steigen. NVIDIA ist aber den konservativen Weg gegangen und verbleibt bei 1.750 MHz.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Dass sich NVIDIA in Sachen Kühler treu geblieben ist, zeigt auch ein Blick auf die Unterseite. Hier sind die Kontaktflächen zu erkennen, auf denen die Speicherchips und einige Komponenten der Strom- und Spannungsversorgung aufliegen. Allerdings werden die eben genannten Bauteile nur durch den Metallrahmen des Kühlers abgedeckt, während die GPU durch eine Vapor-Chamber versorgt wird.


Um die Treiber-Generationen anzugleichen, aber auch um die Hardware auf ein neues Level vorzubereiten, haben wir das Testsystem etwas umgestellt. Der Intel Core i7-3960X wird von 3,2 GHz auf 3,9 GHz übertaktet, um Limitierungen durch den Prozessor weitestgehend auszuschließen. Folgende Systemkomponenten kommen dabei zum Einsatz:

Testsystem
Prozessor Intel Core i7-3960X 3,3 GHz übertaktet auf 3,9 GHz
Mainboard ASUS P9X79 Deluxe
Arbeitsspeicher ADATA XPG Gaming Series Low Voltag 4x 2 GB PC3-12800U CL 9-9-9-24
Festplatte ADATA S510 SSD 60 GB
Netzteil Seasonic Platinum Series 1000 Watt
Betriebssystem Windows 8 Pro 64 Bit
Grafikkarten
NVIDIA NVIDIA GeForce GTX 980 (1.126/1.216/1.750 MHz, 4.096 MB)
  NVIDIA GeForce GTX 970 (1.050/1.178/1.750 MHz, 4.096 MB)
  NVIDIA GeForce GTX 780 Ti (876/928/1.750 MHz, 3.072 MB)
  NVIDIA GeForce GTX Titan (837/786/1.502 MHz, 6.144 MB)
  NVIDIA GeForce GTX 780 (863/902/1.502 MHz, 3.072 MB)
  NVIDIA GeForce GTX 770 (1.046/1.085/1.753 MHz, 2.048/4.096 MB)
  NVIDIA GeForce GTX 760 (980/1.033/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 750 Ti (1.020/1.085/1.350 MHz, 2.048 MB)
  NVIDIA GeForce GTX 750 (1.020/1.085/1.250 MHz, 1.024 MB)
  NVIDIA GeForce GTX 690 (915/1.502 MHz, 4.096 MB)
  NVIDIA GeForce GTX 680 (1.006/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 670 (915/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 660 Ti (915/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 660 (1.058/1.250 MHz, 2.048 MB)
  NVIDIA GeForce GTX 650 Ti Boost (980/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 650 Ti (925/1.350 MHz 2.048 MB)
  NVIDIA GeForce GTX 650 (1.058/1.250 MHz, 1.024/2.048 MB)
  NVIDIA GeForce GTX 590 (608/1.215/854 MHz, 3.072 MB)
  NVIDIA GeForce GTX 580 (772/1.544/1.000 MHz, 1.536 MB)
  NVIDIA GeForce GTX 570 (732/1.464/950 MHz, 1.280MB)
  NVIDIA GeForce GTX 560 Ti 448 Cores (732/1.464/950 MHz, 1.280 MB)
  NVIDIA GeForce GTX 560 Ti (820/1.640/1.000 MHz, 1.024 MB)
  NVIDIA GeForce GTX 560 (810/1.620/1.002 MHz, 1.024 MB) 
  NVIDIA GeForce GTX 550 Ti (900/1.800/1.026 MHz, 1.024 MB)
AMD AMD Radeon R9 290X (1.000/1.250 MHz, 4.096 MB)
  AMD Radeon R9 290 (947/1.500 MHz, 4096 MB)
  AMD Radeon R9 280X (1.000/1.500 MHz, 3.072 MB)
  AMD Radeon R9 270X (1.000/1.400 MHz, 2.048/4.096 MB)
  AMD Radeon R7 260X (1.100/1.625 MHz, 2.048 MB)
  AMD Radeon R7 265 (925/1.400 MHz, 2.048 MB)
  AMD Radeon R7 260 (1.000/1.500 MHz, 1.024 MB)
  AMD Radeon HD 7990 (950/1.000/1.500 MHZ, 6.144 MB)
  AMD Radeon HD 7970 GHz Edition (1.000/1.050/1.500 MHz, 3.072 MB)
  AMD Radeon HD 7970 (925/925/1.375 MHz, 3.072 MB)
  AMD Radeon HD 7950 (800/800/1.250 MHz, 3.072 MB)
  AMD Radeon HD 7870 (1.000/1.000/1.200 MHz, 2.048 MB)
  AMD Radeon HD 7850 (860/860/1.200 MHz, 2.048 MB)
  AMD Radeon HD 7790 (1.075/1.075/1.500 MHz, 1.024/2.048 MB)
  AMD Radeon HD 7770 (1.000/1.000/1.125 MHz, 1.024 MB)
  AMD Radeon HD 7750 (800/800/1.125 MHz, 1.024 MB)
  AMD Radeon HD 6990 (830/830/1.250 MHz, 4.096 MB)
  AMD Radeon HD 6970 (880/880/1.375 MHz, 2.048 MB)
  AMD Radeon HD 6950 (800/800/1.200 MHz, 2.048 MB)
  AMD Radeon HD 6870 (900/900/1.050 MHz, 1.024 MB)
  AMD Radeon HD 6850 (775/775/1.000 MHz, 1.024 MB)
  AMD Radeon HD 6790 (840/840/1.050 MHz, 1.024 MB)
  AMD Radeon HD 6770 (850/850/1.200 MHz, 1.024 MB)
Treiber
NVIDIA GeForce 347.84
AMD Catalyst 14.11.2 Beta

Unsere Testsysteme werden ausgestattet von ASUS, Intel, Thermaltake und Seasonic. Vielen Dank für die Bereitstellung der Komponenten.

 

Treibereinstellungen NVIDIA:

Textureinstellungen AMD:


Werfen wir nun einen Blick auf die Lautstärke, die Leistungsaufnahme und das Temperatur-Verhalten der NVIDIA GeForce GTX Titan X. 

Lautstaerke

Idle

in dB(A)
Weniger ist besser

Die Referenzkühlung der GeForce GTX Titan X unterscheidet sich nicht großartig vom dem, was wir bereits auf früheren Titan-Modellen oder der GeForce GTX 980 etc. pp. gesehen haben. Insofern überraschen uns die 37,3 dB(A) nicht sonderlich, wenngleich der Wert gut und gerne etwas niedriger hätte sein dürfen. Zum einen wäre ein semipassiver Betrieb zumindest als Option für den Nutzer sicherlich nicht schlecht gewesen. Zum anderen aber könnten die Lüfter im Idle-Betrieb auch etwas langsamer drehen, was sicherlich keine besonders negativen Auswirkungen auf die Idle-Temperatur gehabt hätte.

Lautstaerke

Last

in dB(A)
Weniger ist besser

Ihre Stärken scheint die Referenzkühlung ohnehin eher im Last-Betrieb zu haben, denn hier liegt sie im Vergleich zu den übrigen Kühlungen mit 48,5 dB(A) sehr gut. Auch an dieser Stelle kann uns dies aber nicht überraschen, da die Kühlung in dieser Form bereits in der Vergangenheit zu überzeugen wusste. Sicherlich erreicht die ein oder andere Drittanbieter-Kühllösung hier potenziell bessere Ergebnisse, für eine Referenzkühlung dieser Leistungsklasse setzt NVIDIA aber zurecht wieder auf das altbekannte Design. 

Temperatur

Idle

in Grad Celsius
Weniger ist besser

Die Idle-Temperatur bewegt sich mit 32 °C in einem üblichen Rahmen und stellt daher auch kein größeres Problem dar. Dies ist auch der Punkt, warum eine niedrigere Drehzahl des Lüfters nicht der schlechteste Einfall wäre, was auch der Idle-Lautstärke zugute käme. Wie immer kann der Nutzer aber auch selbst in die Lüfterkurve eingreifen und sie den persönlichen Vorlieben anpassen.

Temperatur

Last

in Grad Celsius
Weniger ist besser

Unter Last bewegt sich die GeForce GTX Titan X immer an ihrem Temperatur-Ziel von 83 °C. Dies ist natürlich abhängig vom jeweiligen Gehäuse bzw. dessen Belüftung, in dem sie eingesetzt wird. In unserem Testsystem, das wir als ausreichend belüftet ansehen, kommen aber nahezu alle High-End-Karten mit Referenzkühlung an ihre Grenzen. Dies gilt für die AMD Radeon R9 290(X) ebenso, wie für die GeForce GTX 980 oder eben nun die GeForce GTX Titan X - wobei hier unterschiedliche Vorgaben für das Temperatur-Ziel gemacht werden.

Gespannt wird zu beobachten sein, wie sich die GeForce GTX Titan X mit einer Wasserkühlung verhält. Nicht nur macht die niedrigere Temperatur etwas mehr Luft im Boost-Mechanismus, auch sorgen die niedrigeren Leckströme dafür, dass selbst mit höherem Takt eventuell der Stromverbrauch sinkt. Diesen schauen wir uns im Folgenden an.

Leistungsaufnahme (Gesamtsystem)

Idle

in Watt
Weniger ist besser

Wiederum recht wenige Erkenntnisse liefern die Messungen zum Idle-Stromverbrauch, da alle Karten hier auf nahezu identischem Niveau arbeiten und die Stromsparmechanismen weitestgehend ausgereift sind. Vorstellbar wäre fast nur noch ein komplettes Abschalten großer Teilbereich der GPU oder sogar ein Abschalten des kompletten Chips. Im Multi-GPU-Betrieb wird dies teilweise so gehandhabt und hier hat vor allem AMD eine gewisse Expertise vorzuweisen. Vielleicht werden wir aber erst mit den kommenden Fertigungstechnologien hier eine Weiterentwicklung sehen.

Leistungsaufnahme (Gesamtsystem)

Last

in Watt
Weniger ist besser

Schon deutlich aufschlussreicher ist da der Last-Verbrauch. In diesem liegt die GeForce GTX Titan X mit 378,6 Watt etwas über der ersten GeForce GTX Titan und deutlich über der GeForce GTX 980. Während der Vergleich der Performance zur ersten GeForce GTX Titan recht eindeutig ausfallen dürfte, sind wir gespannt wie viel Vorsprung die GeForce GTX Titan X vor der GeForce GTX 980 hat. In Sachen Stromverbrauch nicht mithalten können die aktuelle High-End-Generation von AMD und einige Karten der Vorgänger-Generationen beider Hersteller, was uns aber auch nicht weiter überrascht.


Mit dem neuen 3DMark versucht Futuremark vom Smartphone bis zum High-End-PC eine Vergleichbarkeit herzustellen. Dazu bietet man drei Presets an, die alle Performance-Bereiche in den verschiedensten Settings abdecken sollen. Natürlich werden auch hier Technologien wie Tessellation, Depth of Field, Volumetric Lighting und Direct Compute verwendet. Über das Fire-Strike-Extrem-Setting lassen sich auch High-End-Karten an ihre Grenzen bringen.

Zum kostenlosen Download von Futuremarks 3DMark gelangt man über diesen Link.

Futuremark 3DMark

Ice Storm

Futuremark-Punkte
Mehr ist besser

Futuremark 3DMark

Cloud Gate

Futuremark-Punkte
Mehr ist besser

Futuremark 3DMark

Fire Strike

Futuremark-Punkte
Mehr ist besser

Futuremark 3DMark

Fire Strike Extreme

Futuremark-Punkte
Mehr ist besser


Sowohl AMD wie auch NVIDIA legen immer größeren Wert auf die Compute-Performance ihrer GPUs. Neben zahlreichen Engines mit OpenCL-Unterstützung wollen wir auch die Performance gesondert betrachten. Dazu nutzen wir den LuxMark 2.0, der in der Testszene "Sala" über RayTracing ein Bild berechnet und als Ausgabe die Samples pro Sekunde ausgibt.

luxmark-1-rsScreenshot zu Luxmark 2.0

Screenshot zu Luxmark 2.0Screenshot zu Luxmark 2.0

Zum kostenlosen Download von LuxMark 2.0 gelangt man über diesen Link.

Luxmark 2.0

Sala

Punkte
Mehr ist besser


Mit Hilfe des ComputeMark versuchen wir die GPU-Computing-Performance genauer zu beleuchten. Der ComputeMark führt automatisch durch unterschiedliche Anwendungen, die ebenso unterschiedliche Anforderungen an die Hardware haben. Auf Basis der aktuellen DirectX-11-Compute-API können Nutzer die Compute-Leistung auf den Prüfstand stellen. Mit von der Partie ist unter anderem ein RayTracing-Test.

Screenshot zu ComputeMark Screenshot zu ComputeMark
Screenshot zu ComputeMark Screenshot zu ComputeMark

Den ComputeMark könnt ihr direkt auf der Seite des Herstellers herunterladen.

ComputeMark

Fluid 2D

Punkte
Mehr ist besser

ComputeMark

Fluid 3D

Punkte
Mehr ist besser

ComputeMark

Mandel Vektor

Punkte
Mehr ist besser

ComputeMark

Mandel Skalar

Punkte
Mehr ist besser

ComputeMark

Ray Tracing

Punkte
Mehr ist besser


Der fünfte Teil der The-Elder-Scroll-Reihe spielt in der namensgebenden Provinz Skyrim (dt. Himmelsrand). Die Handlung dreht sich um die Rückkehr der Drachen, wie sie in den "Elder Scrolls" vorhergesagt wurde. Der Spieler übernimmt die Rolle eines "Dovahkiin", eines Individuums mit dem Körper eines Menschen und der Seele eines Drachen. Der Spieler durchstreift bei dem Kampf gegen die Drachen opulente Städte mit verschlungenen Gassen und atemberaubende Landschaften, deren Grenze buchstäblich der Himmel ist. Mit seiner hohen Weitsicht und der detaillierten Vegetation bringt Skyrim so manches System ins Schwitzen.

Zur Vollversion von Elder Scrolls V: Skyrim gelangt man über diesen Link.

The Elder Scrolls V: Skyrim

2.560 x 1.600 1xAA 1xAF

188.5 XX


130 XX
170.5 XX


119 XX
167.3 XX


113 XX
165.9 XX


110 XX
163.2 XX


107 XX
160.0 XX


113 XX
157.0 XX


105 XX
149.6 XX


110 XX
147.6 XX


114 XX
146.8 XX


108 XX
139.8 XX


114 XX
127.1 XX


115 XX
118.1 XX


106 XX
99.5 XX


89 XX
Bilder pro Sekunde
Mehr ist besser

The Elder Scrolls V: Skyrim

2.560 x 1.600 8xAA+FXAA 16xAF

163.4 XX


130 XX
156.3 XX


103 XX
142.9 XX


102 XX
140.8 XX


115 XX
122.6 XX


109 XX
121.9 XX


112 XX
117.5 XX


108 XX
113.6 XX


100 XX
108.1 XX


98 XX
99.4 XX


91 XX
97.3 XX


50 XX
79.8 XX


71 XX
77.9 XX


70 XX
64.0 XX


49 XX
Bilder pro Sekunde
Mehr ist besser

The Elder Scrolls V: Skyrim

3.840 x 2.160 1xAA 1xAF

Bilder pro Sekunde
Mehr ist besser

The Elder Scrolls V: Skyrim

3.840 x 2.160 8xAA+FXAA 16xAF

Bilder pro Sekunde
Mehr ist besser


Mit Crysis 3 steht in diesem Frühjahr zumindest auf technischer Seite in Hightlight bereit. Mit der Unterstützung ausschließlich für DirectX-11-Grafikkarten geben Crytek, die Macher hinter Crysis 3 die Richtung bereits vor. Von Tessellation bis zum aufwendigen Post-Processing-Anti-Aliasing werden alle aktuellen technischen Finessen genutzt, so dass auch die aktuellste Hardware an ihre Grenzen kommt.

Zur Vollversion von Crysis 3 gelangt ihr über diesen Link.

Crysis 3

2.560 x 1.600 1xAA 1xAF

Bilder pro Sekunde
Mehr ist besser

Crysis 3

2.560 x 1.600 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Crysis 3

3.840 x 2.160 1xAA 1xAF

Bilder pro Sekunde
Mehr ist besser

Crysis 3

3.840 x 2.160 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser


Zu den Highlights des Jahres 2013 dürte Bioshock Infinite gehören. Doch nicht nur die Story kann fesseln, sondern auch die Technik. Die Engine nutzt nahezu alle aktuellen DirectX-11-Effekte und setzt diese auch entsprechend um. Daher ist Bioshock Infinite eine logische Wahl für unsere Benchmarks.

Zur Vollversion von Bioshock: Infinite gelangt man über diesen Link.

BioShock Infinite

2.560 x 1.600 DirectX 10 Hoch

Bilder pro Sekunde
Mehr ist besser

BioShock Infinite

2.560 x 1.600 DirectX 11 Ultra

Bilder pro Sekunde
Mehr ist besser

BioShock Infinite

3.840 x 2.160 DirectX 10 Hoch

Bilder pro Sekunde
Mehr ist besser

BioShock Infinite

3.840 x 2.160 DirectX 11 Ultra

Bilder pro Sekunde
Mehr ist besser


Mit Battlefield 4 setzen DICE und EA die Strategie des Vorgängers fort: Eine kleine Singleplayer-Kampagne wird angeboten, aber alles dreht sich eigentlich um die großen Multiplayer-Schlachten. Mit bis zu 63 weiteren Spielern kann auf großen Karten zwischen drei verschiedenen Kämpfer-Klassen gewählt werden. Hinzu kommen Dutzende Fahrzeuge zu Land, zu Wasser und in der Luft. Auch grafisch setzt Battlefield 4 neue Maßstäbe und ist daher auch ein offensichtlicher Kandidat für unsere Benchmarks.

Zur Vollversion von Battlefield 4 gelangt man über diesen Link.

Battlefield 4

2.560 x 1.600 1xAA 1xAF

Bilder pro Sekunde
Mehr ist besser

Battlefield 4

2.560 x 1.600 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Battlefield 4

3.840 x 2.160 1xAA 1xAF

Bilder pro Sekunde
Mehr ist besser

Battlefield 4

3.840 x 2.160 4xMSAA 16xAF

Bilder pro Sekunde
Mehr ist besser


Um die Benchmarks in einem Echtzeit-Strategiespiel kümmert sich Company of Heroes 2. Das von Relic Entertainment entwickelte Spiel ist im Zweiten Weltkrieg angesiedelt und basiert auf der einer eigenen Essence 3.0 getauften Spieleengine. Grafisch nicht sonderlich imposant schaffen es dennoch selbst die neuesten High-End-Karten nicht immer flüssige FPS darzustellen. Abhängig von den gewählten Auflösung und den Anti-Aliasing-Einstellungen sind selbst Multi-GPU-Systeme am Limit.

 

Company of Heroes 2

2.560 x 1.600 kein AA 1xAF

Bilder pro Sekunde
Mehr ist besser

Company of Heroes 2

2.560 x 1.600 AA hoch 16xAF

Bilder pro Sekunde
Mehr ist besser

Company of Heroes 2

3.840 x 2.160 kein AA 1xAF

Bilder pro Sekunde
Mehr ist besser

Company of Heroes 2

3.840 x 2.160 AA hoch 16xAF

Bilder pro Sekunde
Mehr ist besser


Metro: Last Light ist der Nachfolger von Metro 2033 und basiert auf einem fiktionalen, postapokalyptischen Metro-2033-Universum des russischen Autors Dmitri Alexejewitsch Gluchowski. Es wird eine eigens entwickelte A4 Enginge verwendet, welche auch die neusten DirectX-11-Features bietet. Tesselation, Partikel- und Beleuchtungseffekte sorgen für eine ganz eigene Stimmung und für ordentlich Last auf der GPU.

Metro: Last Light

2.560 x 1.600 kein AA 1xAF

Bilder pro Sekunde
Mehr ist besser

Metro: Last Light

2.560 x 1.600 1xSSAA 16xAF

Bilder pro Sekunde
Mehr ist besser

Metro: Last Light

3.840 x 2.160 kein AA 1xAF

Bilder pro Sekunde
Mehr ist besser

Metro: Last Light

3.840 x 2.160 1xSSAA 16xAF

Bilder pro Sekunde
Mehr ist besser


Mit Tomb Raider wurde Lara Croft in diesem Jahr wiederbelebt. Doch anders als früher ist Lara Croft nicht mehr nur eine attraktive Abenteurerin, sondern eine junge Archöologin, die in einer Survival-Horror-Umgebung auf einer verlassenen Insel überlegen muss. Die von Square Enix entwickelte Crystal Engine beherrscht die neusten DirectX-11-Effekte und bringt damit auch aktuelle High-End-Karten an ihre Grenzen.

Tomb Raider

2.560 x 1.600 FXAA 1xAF

Bilder pro Sekunde
Mehr ist besser

Tomb Raider

2.560 x 1.600 2xSSAA 16xAF

81.5 XX


60 XX
54.8 XX


35 XX
51.6 XX


38 XX