> > > > Vier NVIDIA GeForce GTX Titan X im 4-Way-SLI

Vier NVIDIA GeForce GTX Titan X im 4-Way-SLI

DruckenE-Mail
Erstellt am: von

Seite 1: Vier NVIDIA GeForce GTX Titan X im 4-Way-SLI

geforce titanx logoMit der GeForce GTX Titan X hält NVIDIA aktuell die Performance-Krone für eine Single-GPU-Grafikkarte. Daran lässt die gebotenen Leistung der Karte keine Zweifel. Mit der GeForce GTX Titan X macht NVIDIA auch wieder einen Schritt in eine Richtung bei den Titan-Karten, die mehr auf die Spielernatur ausgerichtet ist. Dies ist sicherlich auch ein gewolltes Nebenprodukt der "Maxwell"-Architektur der 2. Generation, die neben einem verbesserten Performance/Watt-Verhältnis auf spezielle Compute-Implementationen verzichtet. Wir wollen die Details der GeForce GTX Titan X auch nicht weiter aufgreifen, sondern uns an dieser Stelle auf einen besonderen Test konzentrieren, denn uns standen gleich vier dieser Karten zur Verfügung. Das Leistungspotenzial klingt unermesslich, doch lässt es sich auch wirklich nutzen? Wo liegen die Grenzen der Multi-GPU-Technik bei gleich vier dieser Karten? All diese Fragen versuchen wir im folgenden Artikel zu beantworten.

Der folgende Artikel wird kein klassischer Testablauf sein. Vielmehr konzentrieren wir uns rein auf die gebotene Leistung sowie die Skalierung. Unser Neuzugang Shawn Baker mit Sitz in Taiwan hat die vier GeForce GTX Titan X von ASUS zur Verfügung gestellt bekommen. Aus diesem Grund lassen sich die gewonnenen Ergebnisse auch nicht mit den bisher von uns ermittelten Werten vergleichen.

Vier GeForce GTX Titan X im Test
Vier GeForce GTX Titan X im Test

Vier GeForce GTX Titan X sind aber nicht nur in Bildern ein imposanter Anblick. Die Zahlen sprechen hier auf für sich. 4x 3.072 = 12.288 Shadereinheiten, 4x 192 = 768 Textureinheiten, 4x 96 = 384 Render Backends und nicht zu vergessen die 4x 12 = 48 GB Grafikspeicher sind eine nicht zu verachtende Ansage. In einem 4-Way-SLI arbeiten letztendlich 32 Milliarden Transistoren daran Frames schnellst- und bestmöglich zu liefern.

NVIDIA GeForce GTX Titan X im Vergleich
ModellGeForce GTX Titan XGeForce GTX TitanGeForce GTX 980Radeon R9 290X
Straßenpreis 1.075 Euro etwa 950 Euro etwa 500 Euro etwa 300 Euro
Homepage www.nvidia.de www.nvidia.de www.nvidia.de www.amd.com/de
Technische Daten
GPU GM200 (GM200-400-A1) GK110 (GK110-400-A1) Maxwell (GM204) Hawaii
Fertigung 28 nm 28 nm 28 nm 28 nm
Transistoren 8 Milliarden 7,1 Milliarden 5,2 Milliarden 6,2 Milliarden
GPU-Takt (Base Clock) 1.000 MHz 837 MHz 1.126 MHz -
GPU-Takt (Boost Clock) 1.075 MHz 876 MHz 1.216 MHz 1.000 MHz
Speichertakt 1.750 MHz 1.500 MHz 1.750 MHz 1.250 MHz
Speichertyp GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 12 GB 6 GB 4 GB 4 GB
Speicherinterface 384 Bit 384 Bit 256 Bit 512 Bit
Speicherbandbreite 336,6 GB/s 288,4 GB/s 224,0 GB/s 320,0 GB/s
Shadereinheiten 3.072 2.688 2.048 2.816
Textur Units 192 224 128 176
ROPs 96 48 64 64
TDP 250 Watt 250 Watt 165 Watt > 250 Watt
SLI/CrossFire SLI SLI SLI CrossFire

In einem SLI-System lassen sich die meisten der architektonischen Eckdaten nicht einfach addieren. Im üblichen Alternate Frame Rendering (AFR) rendert jede Karte einen kompletten Frame. Daher werden auch alle Datensätze in jeder Karte benötigt. Gemeinsam verwendete Ressourcen gibt es an dieser Stelle nicht. Solche Multi-GPU-Systeme sind eine große Herausforderung für AMD und NVIDIA, da es hier zu zahlreichen störenden Effekten kommen kann. Mit DirectX 12 und anderen Grafik-APIs sollen hier zahlreiche Lösungsansätze einfließen. So soll Mantle den Videospeicher vollständig über alle Karten nutzbar machen. Dazu aber wird kein völlig neuer Lösungsansatz verwendet, sondern das Split Frame Rendering (SFR). SFR reduziert ein eventuell vorhandenes Input-Lag deutlich. Auch Mikroruckler sind damit weniger ein Problem.

Nun aber zurück zum Testaufbau mit den vier GeForce GTX Titan X. Technische Voraussetzungen sind ein Mainboard mit einer entsprechenden Anzahl an PCI-Express-Steckplätzen. Eine ausreichende Anzahl an SLI-Brücken oder eine vorgefertigte 3-Way- oder 4-Way-SLI-Brücke sollten ebenso vorhanden sein. Ein möglichst starker Prozessor ist ebenfalls eine Grundvoraussetzung, damit die Grafikkarten mit ausreichend Daten gefüttert werden können. Um die CPU-Limitierung möglichst weit nach hinten zu schieben, darf auch gerne eine möglichst hohe Auflösung verwendet werden. Ein UltraHD-Monitor ist also ebenfalls sinnvoll.

Vier GeForce GTX Titan X im Test
Vier GeForce GTX Titan X im Test

Gleich vier GeForce GTX Titan X in einem 4-Way-SLI zu testen, ist sicherlich vor allem eines: ein exklusives Vergnügen. Bei Preisen ab 1.075 Euro werden alleine für die Karten 4.300 Euro fällig - nicht zu sprechen von den Anschaffungen für das restliche System, welches wie gesagt ebenfalls darauf angepasst sein sollte.

Vier GeForce GTX Titan X im Test
Vier GeForce GTX Titan X im Test

Die enge Zusammenstellung der vier GeForce GTX Titan X zeigt recht deutlich die Problematik eines solchen Setups auf. Die jeweils erste, zweite und dritte Karte bekommen recht wenig Luft - der Radiallüfter wird von der davorliegenden Karte komplett abgedeckt. Vermutlich verzichtet NVIDIA auch aus diesem Grund auf eine Backplate, denn so blieben wenigstens ein paar Millimeter Luft. Bei der GeForce GTX 980 verwendete NVIDIA eine abnehmbare Platte, die im SLI-Betrieb etwas mehr Luft verschaffen soll.

Vier GeForce GTX Titan X im GPU-Z-Screenshot
Vier GeForce GTX Titan X im GPU-Z-Screenshot

Im GPU-Z-Screenshot sind die technischen Daten der GeForce GTX Titan X aufgeführt. Im dazugehörigen Anzeigefeld sind auch die vier verbauten GPUs aufgeführt.

 

Social Links

Seitenübersicht

Kommentare (33)

#24
Registriert seit: 07.03.2013

Kapitänleutnant
Beiträge: 1898
Warum langweilen sich dann in manchen Games zwei der vier Karten zu Tode und in einem anderen Game, das CPU lastiger ist nicht?
Ich habe auch genug benchmarks gesehen die das zeigen, zum untermauern! Je nach Spiel, unabhängig von der CPU Last werden die Karten Belastet..
#25
customavatars/avatar189210_1.gif
Registriert seit: 27.02.2013
München
Vizeadmiral
Beiträge: 8188
wenn man nach pcgh geht, wären das u-n-g-l-a-u-b-l-i-c-h-e 48GB vRam :bigok:
#26
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Korvettenkapitän
Beiträge: 2362
Zitat derneuemann;23361004
Warum langweilen sich dann in manchen Games zwei der vier Karten zu Tode und in einem anderen Game, das CPU lastiger ist nicht?
Ich habe auch genug benchmarks gesehen die das zeigen, zum untermauern! Je nach Spiel, unabhängig von der CPU Last werden die Karten Belastet..


Das ist natürlich von der Engine und Anwendung abhängig. Niemand weiß genau, wie stark nun bei einem Spiel die CPU oder GPU nun belastet wird und welche Faktoren berücksichtigt wer müssen. Das ist bei jedem Programm anders aufgeteilt.
Aber. Dann sollte man bei solchen Tests wenigstens die Basis auf das Optimum bringen um am Ende genauerer Resultate zu bekommen.
Bei synthetischen Benchmarks sollte zumindest eine gewisse Gleichförmigkeit der Skalierung ersichtlich sein. Wenn es da schon zu Problemen der 3. und 4. Karte kommt, dann ist der gesamte Test schon als sehr ungenau zu betrachten.
Am Ende weiß man dann eben nicht genau, ob es jetzt wirklich an der Engine oder einfach nur an der viel zu lahmen CPU liegt !
#27
customavatars/avatar41359_1.gif
Registriert seit: 09.06.2006

Admiral
Beiträge: 26297
Zitat loopy83;23360831
Mal eine ehrlich gemeinte Frage: Was hat die Engine mit SLI und nicht SLI zu tun? Jede Karte rendert im SLI einen eigenen Frame. Kann es da nicht der Engine egal sein, wie viele Karten verbaut sind? Alle Informationen liegen redundant im VRAM vor. Das Handling der vier VRAMs übernimmt der Treiber und nicht die Spiele-Engine... oder war ich da bisher auf dem Holzweg?


Na frag das mal Siedler 7 oder Company of Heroes II

Wenn die Engine nicht will, dann wird das mit SLI nichts. Scheinbar ist selbst das einfach AFR nicht immer einfach.
Eventuell schaltet auch NV bewusst bei diesen Games auf Single-GPU, weil Du sonst die ganze Zeit nur Bilder-Fehler hast oder noch weniger FPS als mit einer Single-Karte.
#28
customavatars/avatar23976_1.gif
Registriert seit: 16.06.2005
■█▄█▀█▄█■█▄█▀█▄█■ addicted to black & white kaname chidori ftw!
SuperModerator
Bruddelsupp
Luxx Labor

Hippie
Beiträge: 23617
Zitat derneuemann;23360751

Auch vier Karten brachten noch mehr Leistung, das obwohl ein CPU Limit vorhanden war. Crysis 3 wäre auch gut zum testen der CPU und Ihre Auswirkungen auf das Setup.


Da Evolve die Cryengine 3 nutzt, braucht man nicht zusätzlich Crysis 3 testen. Aber man sieht, wie gut die Engine auf GPU Power steht.
#29
Registriert seit: 07.03.2013

Kapitänleutnant
Beiträge: 1898
Aber in Evolve ist die CPU Last viel geringer! Daher würde ich für die Auswrikungen der CPU eher Crysis 3 testen.
#30
customavatars/avatar157503_1.gif
Registriert seit: 23.06.2011

Kapitänleutnant
Beiträge: 1670
neuer mann, hast du das von king gelesen? mfg
#31
customavatars/avatar6035_1.gif
Registriert seit: 03.06.2003
Bochum
Oberbootsmann
Beiträge: 986
Warum steht bei Pillars of Eternity "3DMark Points
"? - Das müssten doch eher FPS sein oder nicht?
#32
customavatars/avatar42212_1.gif
Registriert seit: 27.06.2006
NRW
Kapitän zur See
Beiträge: 4022
Schade das die Infos so spärlich sind (verständlicherweise).

Habt ihr für Shadow of Mordor den eignen Bench verwendet?

Habe mein 3-way-Titan Black SLI mal benchen lassen:

3840 x 2160 (mit DSR)
alles höchste Stufe (auf ULTRA wenn es geht, auch Umgebungsverdeckung auf Ultra).

Max. 108,27
Durchschnitt: 52,75
Minimum: 39,27

Wenn ich Umgebungsverdeckung nur auf "hoch" stelle, wirds schon deutlich flotter:

Max.: 126,29
Durchschnitt: 68,30
Minimum: 48,63
#33
Registriert seit: 23.05.2015

Matrose
Beiträge: 1
Hello ,

Can you please update this test using three 1440P , 1600 P screens in Ultra settings ?

that is : 7680 x 1440 or 7680 x 1600

People are ignoring 3 screens tests after the release of 4K monitors :(

Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Drei Modelle der Radeon R9 380 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2015/3X-R9-380/3X_R9_380-TEASER

Nach dem Start der neuen AMD-Grafikkarten treffen nach und nach in der Redaktion die ersten Boardpartner-Karten ein. Während es von der Radeon R9 Fury X lediglich Modelle mit Standard-Wasserkühler gibt, war es für die Hersteller ein Leichtes, ihre Kühlsysteme für die restlichen Modelle der... [mehr]

Drei Modelle der GeForce GTX 980 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2015/GTX980TI-ROUNDUP/ZOTAC-GTX980TI-ARCTICSTORM-LOGO

Heute wollen wir uns einmal drei unterschiedliche Modelle der GeForce GTX 980 Ti anschauen, von denen zumindest eines durch ein interessantes Konzept mit einer zusätzlichen Wasserkühlung auf sich aufmerksam machen kann. Es geht darum, die gute Basis der GeForce GTX 980 Ti weiter zu verbessern und... [mehr]

ASUS GeForce GTX 980 Ti Strix im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2015/ASUS-980TI-STRIX/ASUS-GTX980TI-LOGO

Es bricht die Phase an, in der alle namhaften Hersteller nicht nur eine erste Version der GeForce GTX 980 Ti auf den Markt gebracht haben, sondern inzwischen auch ausreichend Zeit und technische Kompetenz für einige komplett eigene Interpretationen aufbringen konnten. Mit insgesamt bereits fünf... [mehr]

NVIDIA GeForce GTX 950 gegen AMD Radeon R7 370

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2015/GTX950-RADEON370/GTX950-RADEON370-LOGO

Das Geld wird bei den Grafikkarten nicht im High-End-Markt gemacht. Die Mittelklasse und der Bereich darunter sind für die Hersteller interessant, da hier hohe Stückzahlen verkauft werden. Umso weniger verwunderlich ist es nun, dass NVIDIA und AMD nahezu gleichzeitig entsprechende Modelle neu... [mehr]

Drei Modelle der Radeon R9 390X im Test

Logo von IMAGES/STORIES/LOGOS-2015/AMD-RADEON-2013

Im Test zur Radeon R9 390X, R9 380 und R9 380 haben wir die Thematik des Rebrandings bereits genauer angeschaut und die Leistung der "neuen" Karten genauer unter die Lupe genommen. Da es keine eigentlichen Referenzversionen der Karten gibt, schauten wir uns bereits jeweils ein Retail-Modell an.... [mehr]