> > > > Kompromisslose Leistung: NVIDIA Titan X im SLI-Test

Kompromisslose Leistung: NVIDIA Titan X im SLI-Test

DruckenE-Mail
Erstellt am: von

Seite 1: Kompromisslose Leistung: NVIDIA Titan X im SLI-Test

Etwas überraschend kündigte NVIDIA vor einigen Wochen die Titan X als schnellste Single-GPU-Grafikkarte für das Training von Deep-Learning-Netzwerken und auch die Verwendung bei Spielen an. Die Titan-Serie fokussiert damit endgültig neben den Spielen auch das professionelle Umfeld und entsprechend hat NVIDIA auch die Namensgebung geändert. Wir haben gleich zwei dieser Karten durch den Benchmark-Parcours geschickt und schauen uns die Leistung einmal etwas genauer an.

Bereits seit dem Launch der ersten Pascal-Karten in Form der GeForce GTX 1080 und GeForce GTX 1070 wurde vermutete, dass es zwischen der GP104-GPU und der GP100-GPU des GPU-Beschleunigers Tesla P100 auch noch einen Zwischenschritt in Form der GP102-GPU geben wird. Ob es sich dabei jedoch um auch um eine GPU handeln wird, die auch im Consumer-Segment eine Rolle spielen könnte, war bisher unklar.

Mit der Titan X hat NVIDIA die GP102-GPU in gleich zweierlei Bereichen beheimatet. Die Quadro P6000 verwendet sogar den Vollausbau dieser GPU mit 3.840 Shadereinheiten und bringt es dabei auf 24 GB. Aber die Quadro-Karten sind auch einem klaren Marktsegment zugeordnet und zudem im Falle der P6000 auch erst ab Oktober verfügbar. Es fehlt auch noch an den Angaben zu den finalen Taktraten, so dass die Leistung noch nicht vollständig eingeschätzt werden kann. Die Titan X hingegen ist ab sofort verfügbar und dürfte auch nur rund ein Viertel einer Quadro P6000 kosten. Universitäten und Unternehmen, die sich mit der Forschung künstlicher Intelligenzen beschäftigen sollen der Hauptabsatzmarkt für die Titan X sein. Aber natürlich wird sich auch der ein oder andere Spieler, der 1.299 Euro bei Seite gelegt hat, für eine solche Karte interessieren. FP32 und INT8 liegen für die Titan X also im Fokus und damit Deep-Learning-Anwendungen sowie das klassische Rendering/Gaming-Segment.

Im weiteren Verlauf des Artikels bleiben wir auch bei der Bezeichnung Titan X ohne den Pascal-Zusatz. Nur wenn wir auf die ältere Titan X mit Maxwell-Architektur referenzieren, werden wir dies entsprechend kennzeichnen.

Die technischen Daten der Titan X im Überblick
Modell NVIDIA Titan X NVIDIA GeForce GTX 1080 AMD Radeon R9 Fury X
Straßenpreis 1.299 Euro 789 Euro ab 615 Euro
Homepage www.nvidia.de www.nvidia.de www.amd.de
Technische Daten
GPU GP102 GP104 Fiji XT
Fertigung 16 nm 16 nm 28 nm
Transistoren 12 Milliarden 7,2 Milliarden 8,9 Milliarden
GPU-Takt (Base Clock) 1.417 MHz 1.607 MHz -
GPU-Takt (Boost Clock) 1.531 MHz 1.733 MHz 1.050 MHz
Speichertakt 2.500 MHz 2.500 MHz 500 MHz
Speichertyp GDDR5X GDDR5X HBM
Speichergröße 12 GB 8 GB 4 GB
Speicherinterface 384 Bit 256 Bit 4.096 Bit
Speicherbandbreite 480 GB/s 320 GB/s 512,0 GB/Sek.
DirectX-Version 12 12 12
Shadereinheiten 3.584 2.560 4.096
Textureinheiten 224 160 256
ROPs 96 64 64
Typische Boardpower 250 W 180 W 275 W
SLI/CrossFire SLI SLI CrossFire

Zu den technischen Daten der NVIDIA Titan X: 3.584 Shadereinheiten, die mit einem Takt von bis zu 1.531 MHz arbeiten. Die Rechenleistung beläuft sich auf 11 TFLOPs. Zudem stehen der GPU 12 GB an GDDR5X-Speicher zur Seite. Die GP102-GPU wird natürlich in 16 nm FinFET gefertigt und kommt auf 12 Milliarden Transistoren. Dei GP102 hat in etwa 40 % mehr Shadereineiten als die GP104-GPU der GeForce GTX 1080 bei einem etwas niedrigeren Takt. Der Basis-Takt liegt bei 1.417 MHz, während via GPU-Boost 1.531 MHz erreicht werden sollen. Die Rechenleistung von 11 TFLOPs der neuen Titan X liegt 34 % über der GeForce GTX 1080 und in ähnlicher Form ist damit eine Steigerung bei der Spieleleistung zu erwarten. Wer sich einen genaueren Eindruck von der Pascal-Architektur verschaffen möchte, kann dies im Launch-Artikel zur GeForce GTX 1080 Founders Edition tun.

Die 12 GB GDDR5X-Grafikspeicher sind über ein 384 Bit breites Speicherinterface angebunden. Damit kommen wir auf eine Speicherbandbreite von 480 GB/s. Mit einem derart breiten Speicherinterface liegt die Karte sogar auf Niveau der ersten Grafikkarten mit HBM-Speicher. Für die ROPs ergibt dies bei acht an der Zahl pro 32-Bit-Speicherblock eine Gesamtzahl von 96. Bei den Textureinheiten ergibt sich aufgrund des architektonisches Aufbaus der Pascal-Architektur eine Anzahl von 224 Textureinheiten. Die Thermal Design Power der neuen GeForce GTX Titan X beläuft sich auf 250 W.

Blockdiagramm der GP102-GPU auf der Titan X
Blockdiagramm der GP102-GPU auf der Titan X

Vergleicht man die GP100- und die GP102-GPU, kann folgendes festgehalten werden. Die GP102-GPU ist mit 471 mm² immerhin 139 mm² kleiner, als die GP100-GPU, die auf 610 mm² kommt. Beide GPUs kommen im Vollausbau auf 3.840 Shadereinheiten, wenngleich die Tesla P100 und die Titan X hier jeweils nur 3.584 Shadereinheiten verwenden und nur die Quadro P6000 ab Oktober die vollen 3.840 Shadereinheiten nutzen soll.

Die Einsparung in der Chipfläche kommt durch verschiedene Maßnahmen zustande. So verzichtet die GP102-GPU auf NVLink, eine schnelle FP64/FP16-Unterstützung sowie größere Register. Diese Aufteilung zwischen HPC- und Gaming/Workstation macht für NVIDIA wirtschaftlich Sinn, denn man kann die GP102-GPU deutlich günstiger fertigen (geringere Chipgröße und bessere Ausbeute). Dies war nicht möglich, so lange beide Produktsparten zumindest teilweise auf der identischen GPU basierten.

Rechenleistung und Ausbaustufen im Überblick
Modell NVIDIA Tesla P100 NVDIDIA Quadro P6000 NVIDIA Titan X
GPU GP100 GP102 GP102
FP64 5,3 TFLOPS - 343 GFLOPS
FP32 10,6 TFLOPS - 11 TFLOPS
FP16 21,2 TFLOPS - 172 GFLOPS
FP64-Verhältnis 1/2 1/32 1/32
FP16-Verhältnis 2/1 1/64 1/64
INT8-Verhältnis 4:1 4:1 4:1
Speichertyp HBM2 GDDR5X GDDR5X
Speichergröße 16 GB 24 GB 12 GB
Speicherinterface 4.096 Bit 384 Bit 384 Bit
Speicherbandbreite 720 GB/s 480 GB/s 480 GB/s
Shadereinheiten 3.584 3.840 3.584

Auch wenn viele Spieler sicherlich nach der Titan X gieren werden, NVIDIA sieht die Karte eher im Compute-Bereich – dort wo FP32- und INT8-Berechnungen eine wichtige Rolle spielen. Daher verzichtet man auch auf den Namenszusatz "GeForce" und "GTX". Zwar waren auch die vorherigen Titan-Karten sowohl für den Gaming- wie auch den Compute-Bereich vorgesehen, hier jedoch sah NVIDIA das Gaming in vorderster Reihe. Man erkannte bei NVIDIA jedoch recht schnell, dass die Titan-, Titan-X und Titan-Z-Karten zur Mehrheit für das Computing und als günstige Alternative zu den Quadro- und Tesla-Karten eingesetzt wurden. Dem trägt man mit der neuen Titan X auf Basis der Pascal-GPU nun Rechnung.

 

Social Links

Seitenübersicht

Ihre Bewertung

Ø Bewertungen: 2

Tags

Kommentare (51)

#42
customavatars/avatar255568_1.gif
Registriert seit: 27.05.2016
München
Oberbootsmann
Beiträge: 972
Zitat fdsonne;24830220
S

Anstatt das du dich immer zu aufregst, wie wäre es mit selbst mal machen?
.


Willst du mich in den Arm nehmen??
Also sollen wir uns Blenden lassen Bravo, ich Gratuliere dir wirklich Bravo.

Intel Core i7-3960X Witcher 3 mit 2x GTX1080


Core i7-6950X Witcher 3 mit 2x GTX1080


Wenn du alle Zahlen vergleichen würdest mit dem GTX1070/GTX1080 SLI Review sind die mit diesen neuen TITAN Review 100% identisch. Also haben die FPS nicht geändert obwohl man eine 6950X Prozessor genommen hat.
Alleine wegen der 6950X müssten sich die FPS Werte anders ausfallen bei dem GTX1070/GTX1080 im SLI. Komisch oder die Punkte Zahlen sind 100% gleich geblieben also hat eine 6950X kein Performnce bei den GTX1070/GTX1080 gebracht aber dafür bei den TITAN oder wie??????
#43
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31926
Woher nimmst du das denn mit dem Prozessor???

In beiden Tests steht der alte 3960X mit 3,9GHz im Artikel.
Du schreibst erst was von 6950X, jetzt von 5960X...

Also entweder ich hab was auf den Augen oder du denkst dir da grad was aus...
Und natürlich sind die Werte 1:1 vom 1070/1080er Test übernommen, weil keine Redaktion sich die Arbeit 3x macht das durchzutesten und wie gesagt, die Karten meines Wissens nach zu NV zurück mussten...

EDIT:
Das steht da bei mir...



Und das bei dem anderen SLI Test:


Es ist sogar in beiden Fällen der gleiche Schreibfehler beim Board vorhanden...
#44
customavatars/avatar113331_1.gif
Registriert seit: 12.05.2009
de_dust2
Oberleutnant zur See
Beiträge: 1521
Zitat Fatal Justice;24829127
Das Potenzial ist groß, was da brach liegt.


Das ist aber nicht nur bei den Grakas so. Das ist überall so. Mal davon ab, dass bis auf ein paar Benchmarks, jegliche Software fehlt, die mit soviel Power umgehen könnte. Also wird die Power der Entwicklung der Software angepasst und Stück für Stück auf den Markt geworfen. So hast du jederzeit "neue" Angebote und "neue" Technik. Spielehersteller müssen sich ja auch irgendwie absprechen, bzw. anpassen mit Nvidia und AMD. Die brauchen ja auch nen paar Jahre für nen gutes Game. In den paar Jahren gibts aber 10 neue Karten wo jede 5,10,15% schneller ist als die vorige. Was soll Nvidia und AMD machen? Dicksten Vollausbau auf den Markt hauen der möglich ist und dann die nächsten 20 Jahre Urlaub? Stimm dir aber zu, möglich wär vermutlich einiges.
#45
customavatars/avatar65558_1.gif
Registriert seit: 06.06.2007

Leutnant zur See
Beiträge: 1240
@ dings

Ich bezog mich dabei auf das Problem von Kühlung, Lautstärke (gerade bei Referenzdesign) etc. einer GPU, die die Komponente ist, welche mit Abstand am meisten Strom konsumiert. Dort fällt das dann auch am meisten auf. Die CPU kommt etwas dahinter und die ist leise kühlbar, weil meist genügend Platz für Kühler aller Art vorhanden ist.
#46
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 29102
Ein paar Worte von mir:

Wir und auch andere Redaktionen können nicht mit jedem neuen NVIDIA- oder AMD-Treiber alle Karte neu durchtesten. Das passiert im Rahmen regelmäßiger Aktualisierungen, aber nicht bei jedem Treiber. Da sind wir aber auch nicht die einzigen. Im Falle der GeForce GTX 1080 und GTX 1070 im SLI waren die Treiber in der Tat nicht gut optimiert, wir haben aber nicht immer zwei GeForce GTX 1080 und GTX 1070 hier um das erneut testen zu können.

Was ich nächste Woche aber sofort machen werde ist beispielsweise die Radeon RX 480 und RX 470 mit dem 16.8.1 zu testen, da sich da einiges getan hat.

Was sich hier aber einige an Märchen mit unterschiedlichen Prozessoren etc. ausdenken grenzt an Lächerlichkeit und auf so etwas werde ich auch nicht mehr reagieren.
#47
Registriert seit: 31.12.2015

Matrose
Beiträge: 13
ich würde mir wünschen das die Redaktion bei den Benchmarks das Verhältnis zwischen Games und Pro Apps ein wenig in Balance bringen würde... was bringen mir Luxmark, GPUPI und Futuremark3D wenn bspw. unter Adobe CS, Resolve, Natron, Fusion, Nuke uva eventuell eine FuryX im Single- oder Crossfire-Betrieb die TitanX her brennt und das ums halbe Geld.

#48
customavatars/avatar165912_1.gif
Registriert seit: 03.12.2011
Room 101
Oberstabsgefreiter
Beiträge: 454
Danke für den Test. Was m.E. aber bei einem SLI-Test dazu gehört, ist das Thema Mikroruckler. Insbesondere, ob das mit den neuen HB-Brücken evtl. weniger auftritt.

Ein paar Frametimes dafür wären hilfreich gewesen.
#49
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31926
Zitat motiongroup;24832641
ich würde mir wünschen das die Redaktion bei den Benchmarks das Verhältnis zwischen Games und Pro Apps ein wenig in Balance bringen würde... was bringen mir Luxmark, GPUPI und Futuremark3D wenn bspw. unter Adobe CS, Resolve, Natron, Fusion, Nuke uva eventuell eine FuryX im Single- oder Crossfire-Betrieb die TitanX her brennt und das ums halbe Geld.


Und dann finden sich genau so noch andere Anwendungen, wo AMD GPUs gar nicht liefern, bspw. weil es nur Cuda Support gibt.
Was soll das bringen?

Die gewählte Software abseits der Games ist so oder so eigentlich unnütz, da man daraus für sogut wie keinen Fall eine Leistungsabschätzung herleiten kann. Gerade beim Thema GPGPU nicht. Dort läuft ohne dedizierte Anpassungen oftmals gar nix... :wink:
Ich halte es für grundätzlich den falschen Weg auf spezial Software zu setzen für ein Review, was einen grundlegenden Überblick und dazu klar mit dem Fokus auf Fames, geben will...

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat econaut;24834090
Danke für den Test. Was m.E. aber bei einem SLI-Test dazu gehört, ist das Thema Mikroruckler. Insbesondere, ob das mit den neuen HB-Brücken evtl. weniger auftritt.

Ein paar Frametimes dafür wären hilfreich gewesen.


Neja, ohne FCAT Messungen ist das ewas wenig aussagend. MR sind immernoch vorhanden. Mit der HB-Brücke sind es (teils) weniger starke Ausschläge als mit der alten Lösung.
Ob das allerdings auch mit niedrigen Auflösungen und Hz Werten gilt? Keine Ahnung...

Vielleicht testet Don ja bei passender Gelegenheit nochmal mit dem FCAT Verfahren die neue Generation. Für DX12/Vulcan gibt es das allerdings bis dato nicht! Also auch wieder mist...
#50
Registriert seit: 27.09.2010
Magdeburg
Oberbootsmann
Beiträge: 890
Leider wieder nur mit Geforce Treiber. Es bringt nichts, wenn man nur den Namen Geforce weglässt und damit sagen will es ist keine Gamerkarte und dann nur den Geforce Treiber als Unterstützung bietet. So fallen viele professionelle Programme wieder raus, die halt wirklich nach Quadro fragen und nur dann volle Programmbreite bereitstellen.
Jetzt muss man halt warten, ob die Karte sich dann wirklich mit einer M5000 in den gewünschten Anwendungen messen kann(GTX980 mit 8gb), ansonsten ist diese Karte immernoch ein Nieschenprodukt wie die anderen TITANS auch.

BTW: weil viele immer behaupten solche Karten kommen in kleinen Firmen und Forschungen mit niedrigen Budget vor, kann ich leider mit jain beantworten. Gerade in Deutschland werden Workstations zu 90% von Systemsellern gekauft. Und die verkaufen halt wirklich nur professional. Auch an Universitäten ist es schwierig Gelder für solche Karten zu bekommen. Hier ist es zwar öfter zu sehen, dass PC-Systeme von selbst aufgebaut werden, jedoch gibt es meist einen maximalen Kostensatz der dafür eingesetzt werden darf, ansonsten Systemseller.
Unter der Hand oder mit ein bisschen Zahlendrehen wird da auch was gehen, das ist mir bewusst. Es gibt auch, gerade für "Elite" Universitäten, Systemseller die bauen extra Workstations mit einer solchen Karte. Aber selbst hier dürfte der Absatzmarkt kein Ziel für Nvidia sein(siehe Treiber). Ich kenne keine Zahlen aber ich denke das Verhältnis Pro<->Gamer Nutzung fällt auf 1:1 bis max 1:2.

Edit:
Vielleicht sollte ich noch anführen, dass ich von Workstations rede. Bei Renderclients, Compute-Servern und anderen Rechenknechte ohne Softwarefrontend wird dass vielleicht anders aussehen.
#51
Registriert seit: 31.12.2015

Matrose
Beiträge: 13
Zitat fdsonne;24834165
Und dann finden sich genau so noch andere Anwendungen, wo AMD GPUs gar nicht liefern, bspw. weil es nur Cuda Support gibt.
Was soll das bringen?

Die gewählte Software abseits der Games ist so oder so eigentlich unnütz, da man daraus für sogut wie keinen Fall eine Leistungsabschätzung herleiten kann. Gerade beim Thema GPGPU nicht. Dort läuft ohne dedizierte Anpassungen oftmals gar nix... :wink:
Ich halte es für grundätzlich den falschen Weg auf spezial Software zu setzen für ein Review, was einen grundlegenden Überblick und dazu klar mit dem Fokus auf Fames, geben will...



welche wären denn das? die Welt dreht sich schon lange nicht mehr nur um Cuda und schon gar nicht um Games sondern auch ums Geldverdienen.

es gibt Standardverfahren und Tests für die Apps die auf allen Plattformen laufen sogar auf IGPUs nur dieser Test hat den Fokus auf die Spieler.. sei es drum man orientiert sich halt bei anderen Portalen.. schönen tag noch
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]