> > > > SIGGRAPH: NVIDIA präsentiert Turing-Architektur und dazugehörige Hardware

SIGGRAPH: NVIDIA präsentiert Turing-Architektur und dazugehörige Hardware

Veröffentlicht am: von

quadro-rtxNicht etwa zur GamesCom nächste Woche, sondern zur aktuell stattfindenden SIGGRAPH im kanadischen Vancouver stellt NVIDIA eine neue GPU-Architektur namens Turing vor und präsentiert auch gleich die erste Hardware. In Anbetracht der Tatsache, dass die Vorstellung auf der SIGGRAPH stattfindet, ist der Fokus auf professionelle, sprich Workstation-Hardware, nicht weiter verwunderlich.

Mit der Ankündigung von NVIDIA RTX und Microsoft DXR will NVIDIA das Ray-Tracing in Echtzeit möglichst bald in die Realität überführen. Auf der Games Developer Conference kündigen NVIDIA, Microsoft und weitere Partner nun eine Umsetzung an, welche ein Echtzeit-Ray-Tracing in Spielen ermöglichen soll. Die NVIDIA Titan V war bislang neben den Tesla-Karten auf Basis der Volta-Architektur die einzige Hardware, welche über eine entsprechende Hardwarebeschleunigung verfügt.

Turing-Architektur mit neuen Tensor Cores

Wichtigster Bestandteil der Turing-Architektur sollen neue Tensor Cores sein. Diese kennen wir bereits von der Volta-Architektur. Mit diesen konnte NVIDIA die Leistung in den für Deep Learning wichtigen FP32-Berechnungen auf 120 TFLOPS steigern. Jeder Tensor Core bietet ein Matrix-Array aus 4 x 4 x 4 Matrizen, welches in einer D = A x B + C Operation durchlaufen wird. Die Eingangs-Matrizen A und B sind FP16-Einheiten, die Akkumulation kann eine FP16- oder FP32-Einheit sein. Diese Tensor Cores sind auch in der Turing-Architektur vorhanden.

Darüber hinaus gibt es neue Tensor Cores. Diese beherrschen nun neben FP16-, INT8- und auch INT4-Berechnungen, die für das Inferencing eine wichtige Rolle spielen. NVIDIA gibt die Rechenleistung der neuen Tensor Cores mit 125 TFLOPS (FP16), 250 TOPS (INT8) und 500 TOPS (INT4) an.

Die RT Cores sind dediziert für die Berechnungen von Sound- und Licht-Rays vorgesehen und verhelfen der Turing-Architektur zu einer um den Faktor 25 gesteigerten Leistung in diesem Bereich. Bis zu 10 Gigarays pro Sekunde können alleine die 576 RT Cores der größten Ausbaustufe verarbeiten. Zudem gibt NVIDIA bekannt, dass die Rasterization-Leistung von Turing gegenüber Pascal um den Faktor drei gesteigert wurde.

Laut NVIDIA misst der große Turing-Chip 754 mm² und ist damit nur geringfügig kleiner, als die GV100-GPU mit 815 mm². Die Anzahl der Transistoren soll bei 18,6 Milliarden liegen, verglichen mit 21,1 Milliarden für die GV100-GPU. Daher ist so gut wie sicher, dass NVIDIA bei TSMC wieder auf die verbesserte Fertigung in 12 nm zurückgreift. Bestätigt ist dies jedoch nicht.

Weitere Details zur Turing-Architektur hat NVIDIA zum aktuellen Zeitpunkt nicht veröffentlicht. Man spricht nur von 10.000 Ingenieurs-Jahren an Arbeit, die in der Turing-Architektur stecken. Damit bewegt man sich auf dem Niveau der Volta-Architektur, die in der Entwicklung zwei Milliarden US-Dollar gekostet haben soll.

Quadro RTX GPUs mit bis zu 48 GB GDDR6

Zur SIGGRAPH stellt NVIDIA auch gleich drei Quadro-Karten vor, welche GPUs mit der neuen Turing-Architektur verwenden.

Die technischen Daten der Quadro-RTX-Serie in der Übersicht
Modell Quadro RTX 8000Quadro RTX 6000Quadro RTX 5000
UVP 10.000 US-Dollar6.300 US-Dollar2.300 US-Dollar
Technische Daten
GPU-Architektur TuringTuringTuring
Shadereinheiten 4.6084.6083.072
Speicher 48 GB GDDR624 GB GDDR616 GB GDDR6
Tensor Cores 576576384
Ray-Tracing-Leistung 10 Gigarays/s10 Gigarays/s6 Gigarays/s

Alle Karten verfügen über NVLink 2.0 mit einer Bandbreite von 100 GB/s. Über diese Schnittstelle können jeweils zwei dieser Karten miteinander verbunden werden. Der zur Verfügung stehende Speicher verdoppelt sich dann. Eine Quadro RTX 8000 kann demnach auf 96 GB GDDR6 zurückgreifen und bei der Quadro RTX 6000 und RTX 5000 sind es analog 48 bzw. 32 GB GDDR6.

Ebenfalls allen Karten gemein ist der Einsatz von VirtualLink als Display-Ausgang. VirtualLink soll VR-Headsets über ein Kabel anbinden. Das VirtualLink-Konsortium hat dazu einen eigenen USB-Type-C-Alternate-Modus entwickelt. Dieser verwendet sechs Lanes zur Datenübertragung. Vier sind für ein DisplayPort HBR 3 reserviert. Hinzu kommt ein USB-3.1-Gen-2-Datenlink über zwei weitere Lanes. Daneben wird eine Übertragung von bis zu 27 W ermöglicht, um die VR-Brille zu versorgen.

Die eben erwähnten 27 W Leistung für VirtualLink sind im Leistungsbudget inbegriffen, welches der Quadro RTX 8000 gegeben wird. Dieses soll bei 300 W liegen, so dass etwa 250 bis 270 W Thermal Design Power für diese Karte angenommen werden können. Der GDDR6-Speicher ist bei der Quadro RTX 8000 und Quadro RTX 6000 über ein 384 Bit breites Speicherinterface angebunden. Der Takt des Speichers liegt bei 1.750 MHz, so dass sich eine Speicherbandbreite von 672 GB/s ergibt. Die Quadro RTX 5000 verwendet ein 256 Bit breites Speicherinterface und kommt auf eine Speicherbandbreite von 448 GB/s. Diese Werte sind natürlich geringer als bei Verwendung von HBM2 über ein 3.072 oder gar 4.096 Bit breites Speicherinterface, gegenüber GDDR5(X) sprechen wir aber von einer Steigerung um 30 % bei einem 384 bzw. 256 Bit breiten Speicherinterface.

Eine Quadro RTX 8000 und RTX 6000 soll mit ihren 4.608 Shadereinheiten auf eine Rechenleistung von 16 TFLOPS kommen. Derzeit noch unklar ist, auf welchen Datentypen sich dies bezieht. Die Tesla V100 kommt auf 15,7 TFLOPS bei einfacher Genauigkeit, besitzt aber auch 5.120 Shadereinheiten.

Die verbesserten Tensor Cores sollen eine Rechenleistung von 500 TOPS (INT4) erreichen. Ausgehend davon, dass NVIDIA diese Leistung anhand der bis zu 576 Tensor Cores der Quadro RTX 8000 und 6000 angibt, konnte NVIDIA die Rechenleistung der speziellen Recheneinheiten mehr als vervierfachen – die NVIDIA Tesla V100 kommt mit 640 Tensor Cores auf 125 TOPS, rechnet hier allerdings auch mit INT8-Daten, die doppelt so groß sind.

Weitere Hardwarekomponenten sollen die Quadro-RTX-Server sein. Dabei handelt es sich um Cloudinstanzen, welche die neue Hardware verwenden und auf die Nutzer aus dem Netz heraus zugreifen können. Die Cloudinstanzen sollen flexibel einsetzbar und daher kosteneffektiv sein.

Die neuen Quadro-RTX-Karten und Quadro-RTX-Server werden zum Ende des dritten bzw. Anfang des vierten Quartals erhältlich sein. Einen genauen Termin nennt NVIDIA noch nicht.

Das Zusammenspiel aus Hard- und Software wird immer entscheidender

Neben der Hardware stellt NVIDIA eine Entwicklungsplattform namens RTX vor. Diese stellt die notwendigen Schnittstellen bereit, damit die Software auch von den Hardwarefunktionen (Tensor Cores und RT Cores) Gebrauch machen kann. Im gleichen Atemzug wurde NGX als "NVIDIA technology for bringing artificial intelligence into the graphics pipeline" genannt.

Zu den Softwarepaketen, die RTX bzw. NGX unterstützen sollen, gehören unter anderem Adobe Dimension CC, Autodesk Arnold, Dassault Systèmes 3DEXPERIENCE CATIA, EA SEED, Epic Games’ Unreal Engine, Otoy OctaneRender und Pixar Renderman.

Eine weitere Neuankündigung ist die MDL-Software. Dabei handelt es sich um ein Open Source Material Definition Language SDK. Das NVIDIA-MDL-SDK ermöglicht die Übertragung von Materialeigenschaften bzw. den dazugehörigen Simulationen über mehrere Anwendungen hinweg. Damit soll es Entwicklern ermöglicht werden, ihre Assets über das initiale Design, bis hin in den Editor der 3D-Engine konsistent zueinander zu verwenden. Epics Unreal Studio 4.20 unterstützt das NVIDIA-MDL-SDK bereits.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (60)

#51
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

BannedForEveR
Beiträge: 10444
Also GPU Monopol incoming…
900€ sind eigentlich viel zu wenig für eine RTX.
Aber eventuell ist Nvidia ja gnädig solange es noch keine Spiele dafür gibt.
#52
Registriert seit: 03.08.2006

Banned
Beiträge: 1674
Hätt ichs nur geahnt... ;)
#53
Registriert seit: 12.06.2015
Aachen
Kapitänleutnant
Beiträge: 1906
Richtig interessant wird es eh erst am 20.8. :coffee:
#54
Registriert seit: 13.09.2006

Bootsmann
Beiträge: 534
Mmh... also 2x RTX 5000 mit 32GB und 12 Gigarays/s für $4600 und 1x RTX 6000 mit 24GB und 10 Gigarays/s für $6300? Interessant...
#55
Registriert seit: 04.08.2015

Flottillenadmiral
Beiträge: 4904
Wohl eher 48 GB und 20 Gigarays/s ... da nennt man sich schon numerobis und stellt trotzdem komplett falsche Vergleiche auf :D
#56
customavatars/avatar30239_1.gif
Registriert seit: 24.11.2005

Großadmiral
Beiträge: 19404
Zitat Fliwatut;26461766
Richtig interessant wird es eh erst am 20.8. :coffee:


Isja nicht mehr lange hin :hail:
#57
Registriert seit: 13.09.2006

Bootsmann
Beiträge: 534
Zitat Alashondra;26462097
Wohl eher 48 GB und 20 Gigarays/s ... da nennt man sich schon numerobis und stellt trotzdem komplett falsche Vergleiche auf :D


Eine RTX 6000 mit 48 GB und 20 Gigarays/s für 6300€? Aha...
Also in der Tabelle, die ich hier sehe, hat die nur die Hälfte und die RTX 8000 ist die dickste Karte mit 48 GB...
#58
Registriert seit: 27.05.2008
Simmerath 52152
Oberbootsmann
Beiträge: 789
ihr habt feuchte träume

Nun das turing zur quadro Karte wird war abzusehen
allerdings glaube ich nicht an einer gt104 gt106 chips das wird eher ampere sein ga104 ga106 in nicht geplanten 12nm

hier hat nvidia einfach vorgezogen
man beachte das volta gv100 immer noch die max shader Anzahl hat (5120) und die höchste compute Leistung
Die RT core sind neu und völlig offen was diese tun
tensor cores sollen für ai sein was in workstation eher theoretischer natur ist als praxis

Bleibt ein neuer renderer raytraced + rasterizer
das dies jetzt mit den quadro in echtzeit geht glaube ich nicht eher wird es in echtzeit encodiert (pre rendert)
ähnlich wie bei volta mal demonstriert wurde
also in games wird raytraced noch laaaaaaaaaaange auf sich warten lassen.
Viele aussagen gehen dahin das man mindestens 21 tfops benötigt um dieselbe demo in genauer wie mit rasterizer bei 13 tflops
benötigt.
da ist nichts mit live gaming demo und Echtzeit raytraced also um dann das in Echtzeit abzuspielen zu können bräuchte man min das zehnfache an tflops also um die 100 tflops
mit Glück kann man ab 7nm die chips auf 8000 shader aufbohren big chip
Nur haben wir ein CPu limit ab 3584 shader bei 1080p in dieser Auflösung lief die raytraced demo.

aber abgesehen von raytraced ist das auffallende bei dieser demo das sehr gute texturen verwendet wurden die Farben sind schon lange in realfarbraum möglich nur hat man da extreme probleme beim datendurchsatz. Da hilft breites Si und viel schnellen vram ab 16gb
Der Hauptgrund dafür das es noch keine realitäts nahen farben in games gibt was viel an der beleuchtung +schatten liegt ist vram und cpu drawcalls
das erste kann man ausbessern auch die compute leistung wäre kein problem einfach mehr shader auf dem chip aber CPu singlecore leistung geht nicht viel mehr.
Darum der Ansatz zu RT cores was so ziemlich cpu cores entspricht die speziell eine Aufgabe haben Lichtquelllen mit schattenwürfen ohne mapping zu realisieren.Nur blöd das gerade der standard directx keinen multi render zulässt.
es ist alles auf einen thread als leistungs maßgebend
in raytraced hofft man das man die Bilderstellung per strahlen der Beleuchtung das Bild gerendert wird. nur da sind wir noch lange nicht angekommen ab 200 tflops denken wir mal darüber nach. und die derzeitigen shader erreichen diese effizienz einfach nicht und es hilft nur mehr shader die man dank cpu limit nicht auslasten kann.
Also ist bei den gamer gpu definitiv keine turing (ampere) gpu drin
Sondern die pascal refresh und später volta mit geringeren tensor cores aber ohne RT cores die kommen erst mit ampere 2022

Würde mich echt überraschen wenn nvidia ohne druck einfach die aktuellste gpu arch für gamer bringt + volta völlig ungenutzt lässt und das in einen Fertigungsprozess der dafür nicht geeignet ist.
chips werden teurer größer und benötigen mehr vram (SI halbiert würde ansonsten die Datenrate beim weniger als 12gb limitieren)
daher kann die Überraschung am 20.8 nur bedeuten volta in 7nm als neue high end oder pascal refresh als 11 series
Das teaser video ist ein hoax mehr als das was kommt sagt es nicht also pures es kommt was am 20.8 mehr sagt das nicht aus.
geheime Botschaften sind da keine.
#59
Registriert seit: 01.08.2017
ganz im Westen
Oberleutnant zur See
Beiträge: 1291
Zitat angelsdecay;26462978
das dies jetzt mit den quadro in echtzeit geht glaube ich nicht eher wird es in echtzeit encodiert (pre rendert)
ähnlich wie bei volta mal demonstriert wurde
also in games wird raytraced noch laaaaaaaaaaange auf sich warten lassen....

......da ist nichts mit live gaming demo und Echtzeit raytraced........



Liest du dir die Artikel und Kommentare der Redakteure überhaupt durch? Das was du leugnest, steht doch schwarz auf weis.
Zitat
Auf einer der neuen Quadro RTX 8000 soll die "Reflections"-Demo mit 24 FPS gelaufen sein. Grund dafür sollen aber die 24 Vollbilder pro Sekunde bei Kinofilmen gewesen sein.

Quelle:Hard- und Software: NVIDIA richtet sich vollständig auf das Ray Tracing in Echtzeit aus - Hardwareluxx

Und sie ist Interaktiv, wird also Live gerendert.
Zitat Don;26464205
Nein, die "Reflections"-Demo (Star Wars Trooper und Captain Phasma) lief auf der SIGGRAPH mit festen 24 FPS um die 24-Vollbilder eines Kinofilms nachzustellen. Wie hoch die FPS hätten sein können, ist nicht bekannt.

Und nein, die "Reflections"-Demo ist auch interaktiv, also nicht komplett vorgerendert. Ich habe die Demo schon gesehen, wo bestimmte Effekte zu- und abgeschaltet werden und auch Objekte hinzugefügt werden konnten.



Edit:
Ich versteh auch nicht, warum du die Leistung so stark abhängig von Shadern machst. Vertex-, Tesselation- und Geometry-Shader welche alle drei für geometrische Berechnungen genutzt werdem, wären stark entlastet, eben weil keine geometrischen Berechnungen durchgeführt werden müssen.
Sogar die Tflops der Graka sind nebensache, am ende kommt es doch nur da drauf an, wieviele Strahlen von den RT Cores berechnet werden können(Giga-Rays).
#60
Registriert seit: 18.08.2015

Oberbootsmann
Beiträge: 907
Zitat Mo3Jo3;26465848

Ich versteh auch nicht, warum du die Leistung so stark abhängig von Shadern machst. Vertex-, Tesselation- und Geometry-Shader welche alle drei für geometrische Berechnungen genutzt werdem, wären stark entlastet, eben weil keine geometrischen Berechnungen durchgeführt werden müssen.
Sogar die Tflops der Graka sind nebensache, am ende kommt es doch nur da drauf an, wieviele Strahlen von den RT Cores berechnet werden können(Giga-Rays).


Genau das sollte man sich markieren, denn man wird es noch sehr oft benutzen müssen um die teils völlig verqueren Behauptungen und das massive Unwissen zu Ray Tracing zu widerlegen. Ist derzeit im CB Forum auch ganz schlimm. Die meisten kapieren nicht im geringsten, wo der Unterschied zwischen Rasterization und Ray Tracing liegt.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • 7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

    Logo von IMAGES/STORIES/2017/AMD-RADEONVII

    Heute ist es endlich soweit: Es gibt in Form der Radeon VII endlich wieder eine neue Grafikkarte aus dem Hause AMD. Zwar kommt auch hier die bekannte Vega-Architektur zum Einsatz, durch die Kombination einer in 7 nm gefertigten GPU mit 16 GB an extrem schnellen HBM2, ist die Radeon VII aber... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]