> > > > Volta für Endkunden: NVIDIA präsentiert die Titan V

Volta für Endkunden: NVIDIA präsentiert die Titan V

Veröffentlicht am: von

titanvWie aus dem Nichts hat NVIDIA soeben die Titan V vorgestellt. Wie der Name bereits vermuten lässt, handelt es sich dabei um eine Titan-Karte auf Basis der Volta-Architektur. Zum Einsatz kommt die GV100-GPU mit 5.120 Shadereinheiten und auch die 640 Tensor-Cores sind hier natürlich vorhanden. Allerdings beschneidet NVIDIA das HBM2-Speicheinterface – dazu aber bei den technischen Daten später etwas mehr.

Als Bühne für die Präsentation der Titan V nutzte NVIDIA die Neural Information Processing Systems oder kurz NIPS, die derzeit in Long Beach in den USA stattfindet. Die Volta-Architektur hat man auf der GPU Technology Conference Mitte Mai ausführlich präsentiert. Die für das Computing ausgelegte Architektur ist bisher nur in der besagten GV100-GPU umgesetzt worden, ist hier aber in verschiedenen Hardware-Varianten erhältlich bzw. geplant. Die schnellste Variante sitzt auf ein MXM2-Modul und wird in speziellen Servern verbaut. Ebenfalls bereits verfügbar ist eine PCI-Expess-Variante, die der heute vorgestellten Titan V nicht ganz unähnlich ist, allerdings passiv bzw. durch die Belüftung im Server gekühlt wird. Ebenfalls bereits vorgestellt, aber bisher noch nicht das Licht der Welt erblickt, hat eine Tesla V100 im HHL-Format (Full Hight Half Length) und einer maximalen Leistungsaufnahme von 150 W.

Die NVIDIA Titan V im Detail

Mit den Titan-Modellen will NVIDIA einen Kompromiss zwischen den Consumerkarten der GeForce-Serie und den GPU-Beschleunigern gefunden haben. Während die ersten Titan-Modelle sich noch an den Spieler mit High-End-Ambitionen gerichtet haben, sind die verschiedenen Titan-Ausführungen der letzten 18 Monate eher in Richtung des professionellen Nutzers gerückt. Im April, also kurz vor der ersten Präsentation der Volta-Architektur, erschien die Titan Xp als bisher stärkste Karte auf Basis der Pascal-Architektur.

Zuletzt stellte NVIDIA für die Titan-Modelle mehr und mehr Schnittstellen zur Compute-Welt bereit. Sie sollen ein günstiger Einstieg für Forscher und Entwickler sein, die ihre Modelle zunächst auf solchen Karten testen und entwickeln, bevor dann eventuell die Nutzung größerer Compute-Infrastruktur in Frage kommt. Auch die Titan V dürfte sich eher an den (semi)professionellen Nutzer richten – nicht nur weil sie 3.100 Euro kostet.

Die technischen Daten der NVIDIA Titan V in der Übersicht
Modell: Titan VTitan XpTesla V100
Straßenpreis: 3.100 Euro1.299 Euro10.000 US-Dollar
Technische Daten
GPU: GV100GP102GV100
Fertigung: 12 nm16 nm12 nm
Transistoren: 21,1 Milliarden12 Milliarden21,1 Milliarden
GPU-Takt (Basis): 1.200 MHz1.485 MHz-
GPU-Takt (Boost):  1.455 MHz1.582 MHz1.370 MHz

Speichertakt:

850 MHz1.425 MHz875 MHz
Speichertyp:  HBM2GDDR5XHBM2
Speichergröße:  12 GB12 GB16 GB
Speicherinterface:  3.072 Bit384 Bit4.096 Bit
Bandbreite:  652,8 GB/s547 GB/s900 GB/s
DirectX-Version:  121212
Shadereinheiten: 5.1203.8405.120
Tensor-Cores: 640-640
Textureinheiten:  320240320
ROPs:  9696128
INT8-Rechenleistung: 110 TFLOPS-112 TFLOPS
FP16-Rechenleistung: 30 TFLOPS0,19 TFLOPS28 TFLOPS
FP32-Rechenleistung: 15 TFLOPS12,1 TFLOPS14 TFLOPS
FP64-Rechenleistung: 7,5 TFLOPS0,38 TFLOPS7 TFLOPS
Typische Boardpower:  250 W250 W250 W

Der größte Unterschied zwischen der Tesla V100 und der Titan V, die beide die GV100-GPU einsetzen, ist beim Speicher zu finden. Zwar setzen beide HBM2 ein und dies markiert damit den ersten Schritt für NVIDIA mit HBM2 im Endkundenbereich, aber auf der Titan V sind nur 12 anstatt 16 GB HBM2 verbaut und daher reduziert sich auch das Speicherinterface auf 3.072 Bit. Die Speicherbandbreite sinkt dementsprechend auf rund 650 GB/s, was je nach Anwendung zu den 900 GB/s des Vollausbaus einen klaren Unterschied ausmacht.

Aufgrund der Taktung der Titan V, liegt die Rechenleistung aber leicht über dem Niveau der Tesla V100, deren Details hier auf der PCI-Express-Variante basieren. Ansonsten sehen wir einen bereits bekannten Kühler, den NVIDIA in dieser Variante bei allen Founders-Edition-Karten verwendet. Vermutlich kommt hier die Variante mit Vapor-Chamber zum Einsatz. Die Kühlerelemente, die bisher silbern gehalten worden, glänzen nun aber in einem Gold.

Vor einiger Zeit haben wir etwas genauer ausgeführt, warum wir nicht davon ausgehen, dass NVIDIA die Volta-Architektur für Consumer-Karten einsetzen wird. Auch wenn die Titan V nominell der GeForce-10-Serie anhängig ist, so kann hier dennoch nicht die Rede von einer echten Consumer-Karte sein – dazu ist die Auslegung der Architektur einfach eine ganz andere.

NVIDIA adressiert mit der Titan V klar den professionellen Nutzer. Die Leistung bei Spielen einzuschätzen, ist aktuell nur schwer möglich, wird aber sicherlich in nächster Zeit geschehen. Wer sein Weihnachtsgeld bereits auf dem Konto hat, kann die Titan V ab sofort bei NVIDIA für 3.100 Euro bestellen. Sie soll auf Lager liegen und daher schnell ausgeliefert werden.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (221)

#212
customavatars/avatar105480_1.gif
Registriert seit: 31.12.2008
FFM
Admiral
Beiträge: 28241
nvidia
#213
customavatars/avatar259161_1.gif
Registriert seit: 20.08.2016
Taucha b. Leipzig
Bootsmann
Beiträge: 599
Zitat Scrush;26015602
nvidia


Es wäre ja schön wenn im Vgl. auch Vega - Cf und 1080 SLI bedacht würden.
BANG for BUCK
#214
customavatars/avatar105480_1.gif
Registriert seit: 31.12.2008
FFM
Admiral
Beiträge: 28241
unabhängig vom preis ist die schnellere singlegpu immer vorziehen, selbst wenn die single gpu in den max frames etwas darunter liegt.

selbst ein 1080 TI SLI wäre mit 1500-1800 euro weit unter dem preis einer titan v.

das das P/L der titan v in sachen gaming ultraschlecht ist, steht außer frage

aber das teil hier ist ja keine gaming karte.
#215
customavatars/avatar259161_1.gif
Registriert seit: 20.08.2016
Taucha b. Leipzig
Bootsmann
Beiträge: 599
@Scrush
Die Vorteile einer Singlekarte liegen auschließlich bei halbgaren Games. (mit FS2+Framepacing kein Thema mehr)
Sowas kommt mir nicht auf den PC.

Ich hatte angeregt TimeSpy Test 1 zu nehmen, damit wir mal sehen wie gut die 1080 noch ist.
Das kommt mir in den Reviews zu kurz. GameGpu macht leider auch nur Tag 0-Tests.
Das wäre doch auch für Dich eine gute Option.
Und wenn W2 nicht mitzieht dann ist eben Destiny2 vorzuziehen.
Bei Crysis gab es auch mGPU und fette Grafik. Das erwarte ich auch von heutigen Games.
#216
Registriert seit: 18.08.2015

Oberbootsmann
Beiträge: 791
Warum sollte man dann bitte nur einen Monitor mit Freesync 2 zum testen nehmen und damit alle Nvidia Karten per se benachteiligen? Oo Entweder Monitore für Gsync und Freesync oder nichts von beiden. Davon ab muss bei Freesync/HDR das Tonemapping im Bildschirm entfallen. Sonst funzt HDR mit Freesync nicht. ob dadurch das Inutlag wirklich merklich und messbar abnimmt zweifele ich erstmal an.

Auch die Aussage zur Singel GPU ist unsinnig. SLI/Crossfire ist grundsätzlich fehleranfälliger und benötigen massiv Pflege. Beide stehen vor oder sind EOL. Das hat absolut nix mit halbgaren Games und/oder FS2 zu tun. Was FS2 kann, kann Gsync schon einige Zeit. Beides kann per se nicht auffangen, wenn die Karten aufgrund SLI/Crossfire stark schwankende Frametimes liefern. FS2 snyt das Bild mit der Refreshrate des Moni. Liefert die Karte aufrgund eines langes Frametime Abstandes kein Bild, kann auch nix gesynct werden. Framepacing funzt nun in DX12, blöd nur, dass das nur wenige geames betrifft und auch dafür manuelle Anpassungen im Treiber pro Game notwendig sind. Nicht viel anders als die bisherigen Crossfire Profile. Darüber hinaus ging das schon in DX11 und hat das MutliGPU ruckeln auch nur leicht verbessert, nicht behoben.
#217
customavatars/avatar259161_1.gif
Registriert seit: 20.08.2016
Taucha b. Leipzig
Bootsmann
Beiträge: 599
Zitat Mustis;26016447
Warum sollte man dann bitte nur einen Monitor mit Freesync 2 zum testen nehmen und damit alle Nvidia Karten per se benachteiligen? Oo Entweder Monitore für Gsync und Freesync oder nichts von beiden. Davon ab muss bei Freesync/HDR das Tonemapping im Bildschirm entfallen. Sonst funzt HDR mit Freesync nicht. ob dadurch das Inutlag wirklich merklich und messbar abnimmt zweifele ich erstmal an.


Gerne für Beide neue Moni´s.
Da gabs bei PCGH schon mal nen Artikel über neue Monis 2018 mit 1ms. (Da müßte man nochmal schauen was die 1ms genau ist.)

Mir geht es dabei um den Hinweis für den Enduser:
Frametime + Monitorlag = die Spielerfahrung (Warum schwören soviele auf 144Hz ? Das hat schon seinen Grund.)
Fps + normaler Monitor und selbst HighEnd-HDR-TV (!) mit 20ms ist weitaus schlechter.

Im Prinzip müßte man mal eindeutig im Review schreiben:
Spielbar = 40fps mit 5ms .
Das entspricht ca. 36fps mit 1ms .
Das sehe ich schon einen großen praktischen Wert.

Mit einem TV brauchts dann schon 50..60fps bei 20ms!
#218
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 30173
Das lasse ich auch einmal hier fallen: NVIDIA Titan V: Volta-Architektur im Gaming-Test - Hardwareluxx ;)
#219
customavatars/avatar259161_1.gif
Registriert seit: 20.08.2016
Taucha b. Leipzig
Bootsmann
Beiträge: 599
Zitat Don;26017269
Das lasse ich auch einmal hier fallen: NVIDIA Titan V: Volta-Architektur im Gaming-Test - Hardwareluxx ;)


TimeSpy Ti vs.Tv vs. RX64-Cf im GFX1
GTX 1080 FE - SLI sollte wie RX64-Cf sein bei GFX1.
(GFX2 ist nur dumme Tess. - nicht beachten )
[ATTACH=CONFIG]420846[/ATTACH]

btw.
Wie spielt sich SWBF2 mit ner Ti. vs. Tv mit HDR ?
Don Dein subjektiver Eindruck ?
#220
customavatars/avatar75855_1.gif
Registriert seit: 29.10.2007
München
Vizeadmiral
Beiträge: 6268
Die Titan V soll enorm stark im Mining von Kryptowährungen sein:
NVIDIA TITAN V Crypto Mining Performance Tested By BitsBeTrippin | Spoiler: Its A MONSTER
Das macht sie zwar noch nicht wirtschaftlich aber sie kann was.
#221
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 30173
Zitat H_M_Murdock;26018878
Die Titan V soll enorm stark im Mining von Kryptowährungen sein:
NVIDIA TITAN V Crypto Mining Performance Tested By BitsBeTrippin | Spoiler: Its A MONSTER
Das macht sie zwar noch nicht wirtschaftlich aber sie kann was.


Ein entsprechender Test ging eben auch bei uns online: NVIDIA Titan V erreicht hohe Mining-Leistung – rechnet sich dennoch nicht - Hardwareluxx
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Gigabyte GeForce GTX 1080 Ti AORUS im Test

Logo von IMAGES/STORIES/LOGOS-2017/GIGABYTE-GTX1080TI-AORUS-LOGO

Bei den Grafikkarten scheint sich derzeit alles auf den High-End-Markt zu konzentrieren, denn besonders NVIDIA ist mit der Titan Xp und den Custom-Modellen der GeForce GTX 1080 Ti hier sehr gut aufgestellt. Heute nun wollen wir uns die Gigabyte GeForce GTX 1080 Ti AORUS einmal genauer anschauen,... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]