Vier NVIDIA GeForce GTX Titan X im 4-Way-SLI

Veröffentlicht am: von

geforce titanx logoMit der GeForce GTX Titan X hält NVIDIA aktuell die Performance-Krone für eine Single-GPU-Grafikkarte. Daran lässt die gebotenen Leistung der Karte keine Zweifel. Mit der GeForce GTX Titan X macht NVIDIA auch wieder einen Schritt in eine Richtung bei den Titan-Karten, die mehr auf die Spielernatur ausgerichtet ist. Dies ist sicherlich auch ein gewolltes Nebenprodukt der "Maxwell"-Architektur der 2. Generation, die neben einem verbesserten Performance/Watt-Verhältnis auf spezielle Compute-Implementationen verzichtet. Wir wollen die Details der GeForce GTX Titan X auch nicht weiter aufgreifen, sondern uns an dieser Stelle auf einen besonderen Test konzentrieren, denn uns standen gleich vier dieser Karten zur Verfügung. Das Leistungspotenzial klingt unermesslich, doch lässt es sich auch wirklich nutzen? Wo liegen die Grenzen der Multi-GPU-Technik bei gleich vier dieser Karten? All diese Fragen versuchen wir im folgenden Artikel zu beantworten.

Der folgende Artikel wird kein klassischer Testablauf sein. Vielmehr konzentrieren wir uns rein auf die gebotene Leistung sowie die Skalierung. Unser Neuzugang Shawn Baker mit Sitz in Taiwan hat die vier GeForce GTX Titan X von ASUS zur Verfügung gestellt bekommen. Aus diesem Grund lassen sich die gewonnenen Ergebnisse auch nicht mit den bisher von uns ermittelten Werten vergleichen.

Vier GeForce GTX Titan X im Test
Vier GeForce GTX Titan X im Test

Vier GeForce GTX Titan X sind aber nicht nur in Bildern ein imposanter Anblick. Die Zahlen sprechen hier auf für sich. 4x 3.072 = 12.288 Shadereinheiten, 4x 192 = 768 Textureinheiten, 4x 96 = 384 Render Backends und nicht zu vergessen die 4x 12 = 48 GB Grafikspeicher sind eine nicht zu verachtende Ansage. In einem 4-Way-SLI arbeiten letztendlich 32 Milliarden Transistoren daran Frames schnellst- und bestmöglich zu liefern.

NVIDIA GeForce GTX Titan X im Vergleich
ModellGeForce GTX Titan XGeForce GTX TitanGeForce GTX 980Radeon R9 290X
Straßenpreis 1.075 Euro etwa 950 Euro etwa 500 Euro etwa 300 Euro
Homepage www.nvidia.de www.nvidia.de www.nvidia.de www.amd.com/de
Technische Daten
GPU GM200 (GM200-400-A1) GK110 (GK110-400-A1) Maxwell (GM204) Hawaii
Fertigung 28 nm 28 nm 28 nm 28 nm
Transistoren 8 Milliarden 7,1 Milliarden 5,2 Milliarden 6,2 Milliarden
GPU-Takt (Base Clock) 1.000 MHz 837 MHz 1.126 MHz -
GPU-Takt (Boost Clock) 1.075 MHz 876 MHz 1.216 MHz 1.000 MHz
Speichertakt 1.750 MHz 1.500 MHz 1.750 MHz 1.250 MHz
Speichertyp GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 12 GB 6 GB 4 GB 4 GB
Speicherinterface 384 Bit 384 Bit 256 Bit 512 Bit
Speicherbandbreite 336,6 GB/s 288,4 GB/s 224,0 GB/s 320,0 GB/s
Shadereinheiten 3.072 2.688 2.048 2.816
Textur Units 192 224 128 176
ROPs 96 48 64 64
TDP 250 Watt 250 Watt 165 Watt > 250 Watt
SLI/CrossFire SLI SLI SLI CrossFire

In einem SLI-System lassen sich die meisten der architektonischen Eckdaten nicht einfach addieren. Im üblichen Alternate Frame Rendering (AFR) rendert jede Karte einen kompletten Frame. Daher werden auch alle Datensätze in jeder Karte benötigt. Gemeinsam verwendete Ressourcen gibt es an dieser Stelle nicht. Solche Multi-GPU-Systeme sind eine große Herausforderung für AMD und NVIDIA, da es hier zu zahlreichen störenden Effekten kommen kann. Mit DirectX 12 und anderen Grafik-APIs sollen hier zahlreiche Lösungsansätze einfließen. So soll Mantle den Videospeicher vollständig über alle Karten nutzbar machen. Dazu aber wird kein völlig neuer Lösungsansatz verwendet, sondern das Split Frame Rendering (SFR). SFR reduziert ein eventuell vorhandenes Input-Lag deutlich. Auch Mikroruckler sind damit weniger ein Problem.

Nun aber zurück zum Testaufbau mit den vier GeForce GTX Titan X. Technische Voraussetzungen sind ein Mainboard mit einer entsprechenden Anzahl an PCI-Express-Steckplätzen. Eine ausreichende Anzahl an SLI-Brücken oder eine vorgefertigte 3-Way- oder 4-Way-SLI-Brücke sollten ebenso vorhanden sein. Ein möglichst starker Prozessor ist ebenfalls eine Grundvoraussetzung, damit die Grafikkarten mit ausreichend Daten gefüttert werden können. Um die CPU-Limitierung möglichst weit nach hinten zu schieben, darf auch gerne eine möglichst hohe Auflösung verwendet werden. Ein UltraHD-Monitor ist also ebenfalls sinnvoll.

Vier GeForce GTX Titan X im Test
Vier GeForce GTX Titan X im Test

Gleich vier GeForce GTX Titan X in einem 4-Way-SLI zu testen, ist sicherlich vor allem eines: ein exklusives Vergnügen. Bei Preisen ab 1.075 Euro werden alleine für die Karten 4.300 Euro fällig - nicht zu sprechen von den Anschaffungen für das restliche System, welches wie gesagt ebenfalls darauf angepasst sein sollte.

Vier GeForce GTX Titan X im Test
Vier GeForce GTX Titan X im Test

Die enge Zusammenstellung der vier GeForce GTX Titan X zeigt recht deutlich die Problematik eines solchen Setups auf. Die jeweils erste, zweite und dritte Karte bekommen recht wenig Luft - der Radiallüfter wird von der davorliegenden Karte komplett abgedeckt. Vermutlich verzichtet NVIDIA auch aus diesem Grund auf eine Backplate, denn so blieben wenigstens ein paar Millimeter Luft. Bei der GeForce GTX 980 verwendete NVIDIA eine abnehmbare Platte, die im SLI-Betrieb etwas mehr Luft verschaffen soll.

Vier GeForce GTX Titan X im GPU-Z-Screenshot
Vier GeForce GTX Titan X im GPU-Z-Screenshot

Im GPU-Z-Screenshot sind die technischen Daten der GeForce GTX Titan X aufgeführt. Im dazugehörigen Anzeigefeld sind auch die vier verbauten GPUs aufgeführt.


Folgendes Testsystem kam für bis zu vier GeForce GTX Titan X im 4-Way-SLI zum Einsatz:

Testsystem
Prozessor Intel Core i7-5960X übertaktet auf 3.8 GHz
Mainboard ASUS Rampage V Extreme
Arbeitsspeicher Corsair Dominator Platinum DDR4 4x 4GB PC4-25600 3200MHz DDR CL 16-18-18-36
Festplatte/SSD SEAGATE 600 SSD 480GB
Netzteil Corsair AX1200i 1200 Watt
Betriebssystem Windows 7 Ultimate 64 bit

Kommen wir nun aber zu den ersten Messungen, die sich mit der Temperatur beschäftigen:

Temperature

Idle (Hottest Card)

Degrees Celsius
Lower is better

Bereits im Idle-Betrieb wird die jeweils wärmste Karte zwischen 38 und 44 °C warm. Gerade bei einem offenen Aufbau, wie er hier verwendet wurde, unterstreicht dies die Notwendigkeit einer möglichst guten Gehäusekühlung, sollten die vier Karten in einem Gehäuse verwendet werden.

Temperature

Load (Hottest Card)

Degrees Celsius
Lower is better

Unter Last beweist sich der Eindruck der fehlenden Belüftung, wenn zwei oder mehr Karten direkt aufeinander im Mainboard sitzen. Unter Last erreicht eine einzelne GeForce GTX Titan X bereits eine Temperatur von 83 °C im offenen Aufbau. Im SLI-Betrieb erreichen die Karten recht schnell ihr Temperatur-Limit und damit beginnt der Boost-Mechanismus auch damit die Karte zu drosseln.

Power Draw

Idle

Watts
Lower is better

Die Leistungsaufnahme im Idle-Betrieb zeigt recht deutlich, wie effektiv und sparsam NVIDIA diese inzwischen bei zwei oder mehr GPUs im Griff hat. Einzig bei einer vierten GeForce GTX Titan X steigt er stark an, was vermutlich auf einen Fehler bei der Implementation des Idle-Mechanismus zurückzuführen ist. Der Idle-Betrieb ist aber sicherlich auch nicht die Herausforderung für ein solches System, da die großen Verbräuche sich erst unter Last ergeben.

Power Draw

Load

Watts
Lower is better

Unter Last verbraucht jeweils eine weitere GeForce GTX Titan X zwischen 260 und 320 Watt mehr im Gesamtsystem. Damit liegen wir in etwa in den zu erwartenden Spannen für den Verbrauch. Für die gebotene Leistung hält sich der Verbrauch aber sogar fast noch in Grenzen und wer erwartet hatte, ein Netzteil mit einer maximalen Ausgangsleistung von 1.200 Watt wäre unterdimensioniert, wird eines anderen belehrt. Natürlich ist aber auch klar, dass ein solches Systemen keinesfalls als ökologisches Wunderwerk durchgehen kann. Wer eine entsprechende Leistung einfordert, muss auch mit den Konsequenzen beim Stromverbrauch leben.


3DMark

Cloud Gate

3DMark Points
Higher is better

3DMark

Sky Diver

3DMark Points
Higher is better

3DMark

Fire Strike

3DMark Points
Higher is better

3DMark

Fire Strike Extreme

3DMark Points
Higher is better

3DMark

Fire Strike Ultra

3DMark Points
Higher is better


Assassins Creed Unity

3840 x 2160 Ultra High

Frames per second
Higher is better

Assassins Creed Unity

3840 x 2160 Medium

Frames per second
Higher is better


COD: Advanced Warfare

3840 x 2160 Extra w/ FXAA 8x

Frames per second
Higher is better

COD: Advanced Warfare

3840 x 2160 Extra

Frames per second
Higher is better


Dying Light

3840 x 2160 Best Quality

Frames per second
Higher is better

Dying Light

3840 x 2160 Best Performance

Frames per second
Higher is better


Evolve

3840 x 2160 Medium

Frames per second
Higher is better

Evolve

3840 x 2160 Very High

Frames per second
Higher is better


GRID Autosport

3840 x 2160 Ultra w/ 8x AA

Frames per second
Higher is better

GRID Autosport

3840 x 2160 Ultra

Frames per second
Higher is better


Middle-earth: Shadow of Mordor

3840 x 2160 Ultra

Frames per second
Higher is better

Middle-earth: Shadow of Mordor

3840 x 2160 Ultra FXAA + Object Blur

Frames per second
Higher is better


Pillars of Eternity

3840 x 2160

3DMark Points
Higher is better


Saints Row: Gat Out of Hell

3840 x 2160 High

Frames per second
Higher is better

Saints Row: Gat Out of Hell

3840 x 2160 High w/ 8x AA 16x AF

Frames per second
Higher is better


The Talos Principle

3840 x 2160 Medium

3DMark Points
Higher is better

The Talos Principle

3840 x 2160 Ultra w/ 8x AA 16x AF

3DMark Points
Higher is better


Auch einige Frameverläufe haben wir noch anzubieten, denn hier zeigen sich besonders deutlich die Nachteile eines Multi-GPU-Systems.

Frameverlauf: Call of Duty: Advanced Warfare
Frameverlauf: Call of Duty: Advanced Warfare

Call of Duty: Advanced Warfare 2 zeigt sich davon aber noch recht unbeeindruckt, denn bis auf die üblichen Ausreißer in beide Richtungen ist ein recht gedrängtes Feld im mittleren Bereich zu sehen. Die Abweichungen vom Mittel bei 162 FPS sind also recht gering.

Frameverlauf: Dying Light
Frameverlauf: Dying Light

Schon etwas anders sieht dies bei Dying Light aus, wo um den Durchschnittswert eine deutlich breitere Spanne vorhanden ist. Auch sind die Ausreißer, die sich in Mikrorucklern äußern, breiter verteilt und auffälliger.

Frameverlauf: Evolve
Frameverlauf: Evolve

In Evolve wiederum sehen wir keine großartigen Probleme, wenngleich ein Multi-GPU-System immer mit stärker schwankenden Frametimes und einem höheren Input-Lag zu kämpfen hat. Ein G-Sync-Monitor könnte hier etwas Abhilfe verschaffen.


Über Sinn oder Unsinn vor vier GeForce GTX Titan X im 4-Way-SLI lässt sich sicherlich streiten. Unbestritten ist aber, dass zwei Karten durchaus Sinn machen können, wenn das notwendige Kleingeld vorhanden ist. Bei 2.150 Euro sind aber bereits zwei Karten kein Pappenstiel. Die dann zur Verfügung stehende Leistung lässt sich durchaus mit UltraHD-Auflösung und maximalen Grafikeinstellungen begründen. Ebenfalls mit bedacht werden sollte aber auch, dass neben den Grafikkarten auch noch einige weitere Systemkomponenten entsprechend gewählt werden sollten. Dazu gehört eine möglichst potenter Prozessor, ein ausreichend großzügig dimensioniertes Netzteil, aber auch ein Monitor, der es den Karten ermöglicht möglichst viele Pixel über das Panel zu scheuchen.

Der Einsatz von mehr Karten macht in der Praxis auch kaum Sinn, das zumindest legen unsere Messungen dar. Der Performance-Gewinn liegt bei zwei Karten im Vergleich zu einer zwischen 50 und 80 Prozent - in einigen Fällen sind sicherlich auch bis zu 90 Prozent möglich. Abhängig ist dies vom jeweiligen Spiel bzw. den verwendeten Einstellungen. Kommt eine dritte oder vierte Karte zum Einsatz, verschwindet der Leistungszugewinn meist gänzlich oder wird auf nur wenige Prozentpunkte reduziert.

Teilweise ist dies durch eine mangelnde Unterstützung des Treibers und/oder der Engine begründet. Teilweise aber ist auch der Prozessor nicht in der Lage, die notwendigen Daten zu liefern und so langweilen sich die Karten und warten auf Aufgaben für ihre Render-Pipelines.

Vier GeForce GTX Titan X im Test
Vier GeForce GTX Titan X im Test

Während man den Leistungszugewinn einer zweiten Karte also durchaus rechtfertigen kann, wird die Argumentation für eine dritte und vierte Karte schon schwieriger. Gleichzeitig steigt mit der Anzahl der Grafikkarten auch der Stromverbrauch, wenngleich wir uns mit 1.200 Watt bei vier Karten noch immer in einem überschaubaren Bereich bewegen. Schon deutlich kritischer ist die Kühlung zu beurteilen. Je nach Gehäuse kann bereits eine einzelne GeForce GTX Titan X recht nahe an ihr Temperatur-Ziel herankommen. Bei zwei oder mehr Karten wird diese Situation umso schwieriger. Drei und vier Karten sitzen auf einem Mainboard derart dicht aufeinander, dass ihnen kaum noch Luft bleibt, um über den Radiallüfter ausreichend Frischluft anzusaugen. Da sich das Leistungsplus ohnehin in Grenzen hält, fallen die Reduktionen durch den Boost-Mechanismus aber kaum noch auf.

Wie also kann das Fazit zu bis zu vier GeForce GTX Titan X lauten? Während es für zwei Karten sicherlich eine Rechtfertigungsgrundlage gibt, wird dies bei drei oder vier Karten unmöglich. Sicher ist so ein System imposant, in der Praxis relevant ist eine dritte oder vierte Karte aber nicht mehr. Über den Preis muss man eigentlich nicht weiter sprechen. Mehr als 1.000 Euro sind bereits für eine Karte mehr als Vierfache, was ein durchschnittlicher Spieler für seinen 3D-Beschleuniger ausgibt. Vor ein paar Jahren wäre man noch müde belächelt worden, wenn 1.000 Euro für eine Grafikkarte aufgerufen worden wären.