> > > > Volta für Endkunden: NVIDIA präsentiert die Titan V

Volta für Endkunden: NVIDIA präsentiert die Titan V

Veröffentlicht am: von

titanvWie aus dem Nichts hat NVIDIA soeben die Titan V vorgestellt. Wie der Name bereits vermuten lässt, handelt es sich dabei um eine Titan-Karte auf Basis der Volta-Architektur. Zum Einsatz kommt die GV100-GPU mit 5.120 Shadereinheiten und auch die 640 Tensor-Cores sind hier natürlich vorhanden. Allerdings beschneidet NVIDIA das HBM2-Speicheinterface – dazu aber bei den technischen Daten später etwas mehr.

Als Bühne für die Präsentation der Titan V nutzte NVIDIA die Neural Information Processing Systems oder kurz NIPS, die derzeit in Long Beach in den USA stattfindet. Die Volta-Architektur hat man auf der GPU Technology Conference Mitte Mai ausführlich präsentiert. Die für das Computing ausgelegte Architektur ist bisher nur in der besagten GV100-GPU umgesetzt worden, ist hier aber in verschiedenen Hardware-Varianten erhältlich bzw. geplant. Die schnellste Variante sitzt auf ein MXM2-Modul und wird in speziellen Servern verbaut. Ebenfalls bereits verfügbar ist eine PCI-Expess-Variante, die der heute vorgestellten Titan V nicht ganz unähnlich ist, allerdings passiv bzw. durch die Belüftung im Server gekühlt wird. Ebenfalls bereits vorgestellt, aber bisher noch nicht das Licht der Welt erblickt, hat eine Tesla V100 im HHL-Format (Full Hight Half Length) und einer maximalen Leistungsaufnahme von 150 W.

Die NVIDIA Titan V im Detail

Mit den Titan-Modellen will NVIDIA einen Kompromiss zwischen den Consumerkarten der GeForce-Serie und den GPU-Beschleunigern gefunden haben. Während die ersten Titan-Modelle sich noch an den Spieler mit High-End-Ambitionen gerichtet haben, sind die verschiedenen Titan-Ausführungen der letzten 18 Monate eher in Richtung des professionellen Nutzers gerückt. Im April, also kurz vor der ersten Präsentation der Volta-Architektur, erschien die Titan Xp als bisher stärkste Karte auf Basis der Pascal-Architektur.

Zuletzt stellte NVIDIA für die Titan-Modelle mehr und mehr Schnittstellen zur Compute-Welt bereit. Sie sollen ein günstiger Einstieg für Forscher und Entwickler sein, die ihre Modelle zunächst auf solchen Karten testen und entwickeln, bevor dann eventuell die Nutzung größerer Compute-Infrastruktur in Frage kommt. Auch die Titan V dürfte sich eher an den (semi)professionellen Nutzer richten – nicht nur weil sie 3.100 Euro kostet.

Die technischen Daten der NVIDIA Titan V in der Übersicht
Modell: Titan VTitan XpTesla V100
Straßenpreis: 3.100 Euro1.299 Euro10.000 US-Dollar
Technische Daten
GPU: GV100GP102GV100
Fertigung: 12 nm16 nm12 nm
Transistoren: 21,1 Milliarden12 Milliarden21,1 Milliarden
GPU-Takt (Basis): 1.200 MHz1.485 MHz-
GPU-Takt (Boost):  1.455 MHz1.582 MHz1.370 MHz

Speichertakt:

850 MHz1.425 MHz875 MHz
Speichertyp:  HBM2GDDR5XHBM2
Speichergröße:  12 GB12 GB16 GB
Speicherinterface:  3.072 Bit384 Bit4.096 Bit
Bandbreite:  652,8 GB/s547 GB/s900 GB/s
DirectX-Version:  121212
Shadereinheiten: 5.1203.8405.120
Tensor-Cores: 640-640
Textureinheiten:  320240320
ROPs:  9696128
INT8-Rechenleistung: 110 TFLOPS-112 TFLOPS
FP16-Rechenleistung: 30 TFLOPS0,19 TFLOPS28 TFLOPS
FP32-Rechenleistung: 15 TFLOPS12,1 TFLOPS14 TFLOPS
FP64-Rechenleistung: 7,5 TFLOPS0,38 TFLOPS7 TFLOPS
Typische Boardpower:  250 W250 W250 W

Der größte Unterschied zwischen der Tesla V100 und der Titan V, die beide die GV100-GPU einsetzen, ist beim Speicher zu finden. Zwar setzen beide HBM2 ein und dies markiert damit den ersten Schritt für NVIDIA mit HBM2 im Endkundenbereich, aber auf der Titan V sind nur 12 anstatt 16 GB HBM2 verbaut und daher reduziert sich auch das Speicherinterface auf 3.072 Bit. Die Speicherbandbreite sinkt dementsprechend auf rund 650 GB/s, was je nach Anwendung zu den 900 GB/s des Vollausbaus einen klaren Unterschied ausmacht.

Aufgrund der Taktung der Titan V, liegt die Rechenleistung aber leicht über dem Niveau der Tesla V100, deren Details hier auf der PCI-Express-Variante basieren. Ansonsten sehen wir einen bereits bekannten Kühler, den NVIDIA in dieser Variante bei allen Founders-Edition-Karten verwendet. Vermutlich kommt hier die Variante mit Vapor-Chamber zum Einsatz. Die Kühlerelemente, die bisher silbern gehalten worden, glänzen nun aber in einem Gold.

Vor einiger Zeit haben wir etwas genauer ausgeführt, warum wir nicht davon ausgehen, dass NVIDIA die Volta-Architektur für Consumer-Karten einsetzen wird. Auch wenn die Titan V nominell der GeForce-10-Serie anhängig ist, so kann hier dennoch nicht die Rede von einer echten Consumer-Karte sein – dazu ist die Auslegung der Architektur einfach eine ganz andere.

NVIDIA adressiert mit der Titan V klar den professionellen Nutzer. Die Leistung bei Spielen einzuschätzen, ist aktuell nur schwer möglich, wird aber sicherlich in nächster Zeit geschehen. Wer sein Weihnachtsgeld bereits auf dem Konto hat, kann die Titan V ab sofort bei NVIDIA für 3.100 Euro bestellen. Sie soll auf Lager liegen und daher schnell ausgeliefert werden.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (220)

#211
customavatars/avatar105480_1.gif
Registriert seit: 31.12.2008
Hessen
Kackbratze
Beiträge: 31110
nvidia
#212
customavatars/avatar259161_1.gif
Registriert seit: 20.08.2016
Taucha b. Leipzig
Oberbootsmann
Beiträge: 990
Zitat Scrush;26015602
nvidia


Es wäre ja schön wenn im Vgl. auch Vega - Cf und 1080 SLI bedacht würden.
BANG for BUCK
#213
customavatars/avatar105480_1.gif
Registriert seit: 31.12.2008
Hessen
Kackbratze
Beiträge: 31110
unabhängig vom preis ist die schnellere singlegpu immer vorziehen, selbst wenn die single gpu in den max frames etwas darunter liegt.

selbst ein 1080 TI SLI wäre mit 1500-1800 euro weit unter dem preis einer titan v.

das das P/L der titan v in sachen gaming ultraschlecht ist, steht außer frage

aber das teil hier ist ja keine gaming karte.
#214
customavatars/avatar259161_1.gif
Registriert seit: 20.08.2016
Taucha b. Leipzig
Oberbootsmann
Beiträge: 990
@Scrush
Die Vorteile einer Singlekarte liegen auschließlich bei halbgaren Games. (mit FS2+Framepacing kein Thema mehr)
Sowas kommt mir nicht auf den PC.

Ich hatte angeregt TimeSpy Test 1 zu nehmen, damit wir mal sehen wie gut die 1080 noch ist.
Das kommt mir in den Reviews zu kurz. GameGpu macht leider auch nur Tag 0-Tests.
Das wäre doch auch für Dich eine gute Option.
Und wenn W2 nicht mitzieht dann ist eben Destiny2 vorzuziehen.
Bei Crysis gab es auch mGPU und fette Grafik. Das erwarte ich auch von heutigen Games.
#215
Registriert seit: 18.08.2015

Oberbootsmann
Beiträge: 868
Warum sollte man dann bitte nur einen Monitor mit Freesync 2 zum testen nehmen und damit alle Nvidia Karten per se benachteiligen? Oo Entweder Monitore für Gsync und Freesync oder nichts von beiden. Davon ab muss bei Freesync/HDR das Tonemapping im Bildschirm entfallen. Sonst funzt HDR mit Freesync nicht. ob dadurch das Inutlag wirklich merklich und messbar abnimmt zweifele ich erstmal an.

Auch die Aussage zur Singel GPU ist unsinnig. SLI/Crossfire ist grundsätzlich fehleranfälliger und benötigen massiv Pflege. Beide stehen vor oder sind EOL. Das hat absolut nix mit halbgaren Games und/oder FS2 zu tun. Was FS2 kann, kann Gsync schon einige Zeit. Beides kann per se nicht auffangen, wenn die Karten aufgrund SLI/Crossfire stark schwankende Frametimes liefern. FS2 snyt das Bild mit der Refreshrate des Moni. Liefert die Karte aufrgund eines langes Frametime Abstandes kein Bild, kann auch nix gesynct werden. Framepacing funzt nun in DX12, blöd nur, dass das nur wenige geames betrifft und auch dafür manuelle Anpassungen im Treiber pro Game notwendig sind. Nicht viel anders als die bisherigen Crossfire Profile. Darüber hinaus ging das schon in DX11 und hat das MutliGPU ruckeln auch nur leicht verbessert, nicht behoben.
#216
customavatars/avatar259161_1.gif
Registriert seit: 20.08.2016
Taucha b. Leipzig
Oberbootsmann
Beiträge: 990
Zitat Mustis;26016447
Warum sollte man dann bitte nur einen Monitor mit Freesync 2 zum testen nehmen und damit alle Nvidia Karten per se benachteiligen? Oo Entweder Monitore für Gsync und Freesync oder nichts von beiden. Davon ab muss bei Freesync/HDR das Tonemapping im Bildschirm entfallen. Sonst funzt HDR mit Freesync nicht. ob dadurch das Inutlag wirklich merklich und messbar abnimmt zweifele ich erstmal an.


Gerne für Beide neue Moni´s.
Da gabs bei PCGH schon mal nen Artikel über neue Monis 2018 mit 1ms. (Da müßte man nochmal schauen was die 1ms genau ist.)

Mir geht es dabei um den Hinweis für den Enduser:
Frametime + Monitorlag = die Spielerfahrung (Warum schwören soviele auf 144Hz ? Das hat schon seinen Grund.)
Fps + normaler Monitor und selbst HighEnd-HDR-TV (!) mit 20ms ist weitaus schlechter.

Im Prinzip müßte man mal eindeutig im Review schreiben:
Spielbar = 40fps mit 5ms .
Das entspricht ca. 36fps mit 1ms .
Das sehe ich schon einen großen praktischen Wert.

Mit einem TV brauchts dann schon 50..60fps bei 20ms!
#217
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 30948
Das lasse ich auch einmal hier fallen: NVIDIA Titan V: Volta-Architektur im Gaming-Test - Hardwareluxx ;)
#218
customavatars/avatar259161_1.gif
Registriert seit: 20.08.2016
Taucha b. Leipzig
Oberbootsmann
Beiträge: 990
Zitat Don;26017269
Das lasse ich auch einmal hier fallen: NVIDIA Titan V: Volta-Architektur im Gaming-Test - Hardwareluxx ;)


TimeSpy Ti vs.Tv vs. RX64-Cf im GFX1
GTX 1080 FE - SLI sollte wie RX64-Cf sein bei GFX1.
(GFX2 ist nur dumme Tess. - nicht beachten )
[ATTACH=CONFIG]420846[/ATTACH]

btw.
Wie spielt sich SWBF2 mit ner Ti. vs. Tv mit HDR ?
Don Dein subjektiver Eindruck ?
#219
customavatars/avatar75855_1.gif
Registriert seit: 29.10.2007
München
Vizeadmiral
Beiträge: 6441
Die Titan V soll enorm stark im Mining von Kryptowährungen sein:
NVIDIA TITAN V Crypto Mining Performance Tested By BitsBeTrippin | Spoiler: Its A MONSTER
Das macht sie zwar noch nicht wirtschaftlich aber sie kann was.
#220
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 30948
Zitat H_M_Murdock;26018878
Die Titan V soll enorm stark im Mining von Kryptowährungen sein:
NVIDIA TITAN V Crypto Mining Performance Tested By BitsBeTrippin | Spoiler: Its A MONSTER
Das macht sie zwar noch nicht wirtschaftlich aber sie kann was.


Ein entsprechender Test ging eben auch bei uns online: NVIDIA Titan V erreicht hohe Mining-Leistung – rechnet sich dennoch nicht - Hardwareluxx
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test

    Logo von IMAGES/STORIES/2017/ZOTAC-RTX1080TI

    Nach der Veröffentlichung und den ausführlichen Tests zur GeForce RTX 2080 Ti und GeForce RTX 2080 Founders Edition kommen wir nun zum ersten Test eines Custom-Modells. ZOTAC konnte uns die Gaming GeForce RTX 2080 Ti AMP bereits zum Start der neuen Generation zur Verfügung stellen, ein... [mehr]