> > > > Neue Benchmarks und Leistungsdaten zur NVIDIA GeForce GTX Titan X aufgetaucht

Neue Benchmarks und Leistungsdaten zur NVIDIA GeForce GTX Titan X aufgetaucht

Veröffentlicht am: von

nvidia 2013 In der vergangenen Woche zeigte NVIDIA während der Game Developers Conference (GDC) in San Francisco überraschend seine neue GeForce GTX Titan X. Viele Details nannte der NVIDIA-Chef damals allerdings nicht, wenig später konnten anwesende Journalisten aber ein paar Detailaufnahmen der kommenden High-End-Grafikkarte schießen. Eine Woche später veröffentlicht die Gerüchteküche Videocardz.com die vermeintlichen Eckdaten und garniert diese mit neuen Benchmarks.

Zwar kennzeichnet man einen Großteil der Leistungsdaten noch als unbestätigt, die Taktraten aber gelten schon als sicher. Demnach soll die GeForce GTX Titan X mit einem Chiptakt von 1.002 MHz arbeiten, was etwas unterhalb einer NVIDIA GeForce GTX 980 angesiedelt ist, die sich mit einem Basistakt von 1.126 MHz ans Werk macht. Da der Speicher aber weiterhin mit 1.753 MHz arbeiten soll, leistet er zusammen mit dem auf 384 Bit erweiterten Speicherinterface eine Bandbreite von bis 336 GB/Sek und überholt damit die bisher schnellste „Maxwell“-Grafikkarte mit Leichtigkeit. Die Kapazität von 12 GB hatte NVIDIA bereits bestätigt.

Ansonsten sollen der neuen Titan X 3.072 Shadereinheiten, 192 Textur-Mapping-Units und 96 Rasterendstufen zur Verfügung stehen. Hier wartet man bei Videocardz.com aber noch auf eine mehr oder weniger offizielle Bestätigung, heißt es. Mit Strom versorgt wird der kommende 3D-Beschleuniger über einen 6- und einen zusätzlichen 8-Pin-PCI-Express-Stromstecker, womit theoretisch bis zu 300 Watt aus dem Netzteil gezogen werden könnten. Laut Videocardz.com soll die maximale Leistungsaufnahme allerdings bei nur etwa 250 Watt TDP liegen. Den Preis beziffert man auf 999 US-Dollar – genau wie bei den ersten Titan-Grafikkarten von NVIDIA.

Die synthetischen Benchmarks bescheinigen der NVIDIA GeForce GTX Titan X einen Leistungsanstieg gegenüber einer Gigabyte GeForce GTX 980 G1.Gaming von etwa 17 bis 21 Prozent. Eine auf 1.222 respektive 1.863 MHz übertaktete GeForce GTX Titan X legt im Extreme-Preset von Futuremarks 3DMark um weitere 16 Prozent zu und schließt fast mit einer AMD Radeon R9 295X2 auf. Doch getestet will man nicht nur ein einziges Modell haben, sondern gleich vier im 2-Way-, 3-Way- und 4-Way-SLI-Betrieb, wonach die GeForce GTX Titan X sehr gut skalieren soll.

Auch im Forum vom Chiphell, wo man bereits im Dezember die ersten Benchmarks zu den kommenden AMD- und NVIDIA-Grafikkarten geliefert haben will, sind neue Leistungswerte aufgetaucht. Sie attestieren der NVIDIA GeForce GTX Titan X gegenüber einer NVIDIA GeForce GTX 970 eine fast 50 Prozent höhere Leistung.

Bislang sind alle Leistungsdaten und Spezifikationen mit größter Vorsicht zu genießen. Vermutlich wird NVIDIA sein neues Single-GPU-Flaggschiff im Rahmen seiner GTC-Hausmesse in der nächsten Woche offiziell vorstellen. Wir sind gespannt und für unsere Leser natürlich live vor Ort in San Jose.

Spezifikationen der GeForce GTX Titan X im Vergleich (Gerüchte)
Modell NVIDIA GeForce GTX Titan NVIDIA GeForce GTX Titan Black Edition NVIDIA GeForce GTX Titan X NVIDIA GeForce GTX 980
Straßenpreis ab 965 Euro ab 883 Euro ca. 999 Euro (?) ab 483 Euro 
Homepage www.nvidia.de www.nvidia.de www.nvidia.de www.nvidia.de
Technische Daten
GPU GK110 GK110 GM200 GM204
Fertigung 28 nm 28 nm 28 nm 28 nm
Transistoren 7,1 Milliarden 7,1 Milliarden 8,0 Milliarden 5,1 Milliarden
GPU-Takt (Base Clock) 837 MHz 889 MHz 1.002 MHz 1.126 MHz
GPU-Takt (Boost Clock) 876 MHz 980 MHz ? 1.216 MHz
Speichertakt 1.502 MHz 1.750 MHz 1.750 MHz 1.750 MHz
Speichertyp GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 6.144 MB 6.144 MB 12.288 MB 4.096 MB
Speicherinterface 384 Bit 384 Bit 384 Bit 256 Bit
Speicherbandbreite 288,4 GB/Sek. 336 GB/Sek. 336 GB/Sek. 224 GB/Sek.
Shadereinheiten 2.688  2.880 3.072 (?) 2.048
Texture Units 224 240 192 (?) 128
ROPs 48 48 96 (?) 64
TDP 250 Watt 250 Watt 250 Watt(?) 165 Watt

Social Links

Kommentare (73)

#64
Registriert seit: 22.05.2007
NES
Vizeadmiral
Beiträge: 7529
Zitat w0mbat;23277149
Obwohl du noch nichtmal weißt, dass es dadurch überhaupt Limitierungen gibt? Wir reden hier nämlich von HBM der doppelt so viel Bandbreite wie aktueller GDDR5 liefert. Solche Aussagen...


eine 780ti hat auch wesentlich mehr bandbreite als eine 980 und trotzdem ist sie am stottern, wenn die 3gb voll sind
solche aussagen...
#65
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12472
Was aber auch nicht heisst dass die 4Gb limitieren müssen...
Aber ja, zumidnest fürs Flagschiff sollten aber wohl mehr drin sein. Bin gespannt ob die Gerüchte zur 8Gb Version sich bewahrheiten.
Dann hätte AMD auch gleich gegenüber einer mögliche GTX 980Ti ausgesorgt.
#66
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4828
Mit HBM hätte man ruhig bis zur (über-)nächsten Generation warten können, dann wären die Karten wahrscheinlich schon im Handel - und mit 8GB oder mehr VRAM.
#67
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4828
Zitat Red_Bull;23278977
naja evtl hat amd da drauf setzen müssen um die verlustleistung in grenzen zu halten


Wahrscheinlich. Aber wieso kriegen es die Grünen dann auch noch mit GDDR5 hin? Zu erwarten wäre, dass eine R9 390X mit HBM deutlich performanter sein sollte als eine Titan X mit GDDR5. Und anscheinend liegt man bei der Verlustleistung mit HBM sogar noch leicht über der Titan X. Wie würde es da dann mit GDDR5 ausschauen? :fresse:
#68
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12472
NV hat durchaus sehr respektable Stromspartechnologien in Maxwell integriert. Unbenötigte Teile werden extrem schnell an und ausgeschaltet, bzw. hoch und runtergetaktet. Das ist auch der Grund wieso die Effizienz nur bei Games so richtig gut ist. Bei synthetischen Aufgaben eher etwa auf Tonga niveau.
AMD ist mit PowerTune in Games leider bei weitem nicht so weit...
Woran das liegt kann ich ohne Know How allerdings nicht sagen.

Was HBM angeht: Jemand muss halt den Vorreiter spielen und NV hat für ende 2016 ja auch was ähnliches mit Pascal vor. GDDR5 ist früher oder später am Ende und HBM ebnet den Weg für richtiges 3D Stacking (RAM direkt auf der GPU, nicht auf einen Interposer wie bei HBM) was weitere Vorteile neben der Energieefizienz bietet.
#69
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4828
Zitat DragonTear;23279729
Was HBM angeht: Jemand muss halt den Vorreiter spielen und NV hat für ende 2016 ja auch was ähnliches mit Pascal vor. GDDR5 ist früher oder später am Ende und HBM ebnet den Weg für richtiges 3D Stacking (RAM direkt auf der GPU, nicht auf einen Interposer wie bei HBM) was weitere Vorteile neben der Energieefizienz bietet.


Ob bei derart stromhungrigen GPUs ein 3D-Stacking überhaupt machbar ist? Das 2,5D-Stacking ist ja gerade für hitzköpfige Chips mit hoher TDP gedacht, während sich das 3D-Stacking eher an Low-Power Lösungen richtet.
#70
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12472
Zitat Cippoli;23279752
Ob bei derart stromhungrigen GPUs ein 3D-Stacking überhaupt machbar ist? Das 2,5D-Stacking ist ja gerade für hitzköpfige Chips mit hoher TDP gedacht, während sich das 3D-Stacking eher an Low-Power Lösungen richtet.

Du meinst weil die zusätzlichen layer, die Hitzeabgabe erschweren? Ja, das wäre denkbar...
Bin mir allerdings recht sicher dass die Hersteller auf 3D Stacking auch bei den GPUs hinarbeiten.
Wobei Gerüchteweise, Pascal auch mit 2.5D kommen dürfte, obwohl die mal von 3D geredet haben (das war aber wohl damals noch nicht richtig definiiert - die RAM Chips sind ja selbst sehr wohl schon 3D-gestackt, nur nicht auch noch auf der GPU, sondern daneben).
#71
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4828
Zitat DragonTear;23279775
Du meinst weil die zusätzlichen layer, die Hitzeabgabe erschweren? Ja, das wäre denkbar...


Falls du dich für Details interessiert, schau mal bei Hynix in den Tech Docs nach.
#72
customavatars/avatar17977_1.gif
Registriert seit: 16.01.2005
HH\Wandsbek\Hinschenfelde
Fregattenkapitän
Beiträge: 2577
Einfach nur Lustig wie man von der Benchmarkleistung einer Titan X zu dem "nur 4GB" VRAM der AMD kommt. AMD kann gerne 4GB bringen, das ist auch absolut ausreichend, da der Mainstream mit FHD spielt. 4k Lösungen sollen laut AMD zwar ebenso machbar sein, was ja schon Hawaii konnte, aber nur weil UBISCHROTT und Oh Nee EA miese Spiele Programmieren, muss man diesen Trip nicht mitgehen.
Die TITAN X ist ein nettes Teil, aber auch für NV für Spiele eher Zweitrangig. Ich glaube nicht daran dass der GM200 keine DP Leistung mehr hat. Stimmt es jedoch, dann frage ich mich womit Nvidia dann die GK200 Karten im HPC Markt ablösen will. Eine 1200€ Gamer Gib Pe+++ Karte ist zwar Nvidias Handschrift aber selbst für NV zu Teuer. Die TITAN Dualkarte lag ja auch wie Blei in den Regalen. Und die NV Fans vergessen gerne, NV macht mit HPC das Doppelte an Gewinn und Marge, was sie im Gesamten Desktopmarkt machen ;) Es wäre also Durchaus Dumm GM200 in der DP leistung zu beschneiden. Ausser Pascal kommt 2015
#73
customavatars/avatar172838_1.gif
Registriert seit: 11.04.2012

Flottillenadmiral
Beiträge: 4861
Zitat DragonTear;23279729
Das ist auch der Grund wieso die Effizienz nur bei Games so richtig gut ist. Bei synthetischen Aufgaben eher etwa auf Tonga niveau.

(Das fett gedruckte muss ich verneinen: )
Es ist aber nicht nur dieses Power Tune, was die Maxwell Karten so effizient macht. Die Shader werden besser ausgelastet. Das sehe ich an meinen BOINC Programmen sehr gut, zum Beispiel GPUGrid. Trotz 2048 vs. 2880 (780 Ti) Shader ist die GTX 980 bei GPGPU schneller oder gleichschnell, und zieht dabei etwa 60W weniger unter (Dauer-)Volllast. Nix Gaming :D
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test

    Logo von IMAGES/STORIES/2017/ZOTAC-RTX1080TI

    Nach der Veröffentlichung und den ausführlichen Tests zur GeForce RTX 2080 Ti und GeForce RTX 2080 Founders Edition kommen wir nun zum ersten Test eines Custom-Modells. ZOTAC konnte uns die Gaming GeForce RTX 2080 Ti AMP bereits zum Start der neuen Generation zur Verfügung stellen, ein... [mehr]