> > > > Wie der DGX-1 Supercomputer mit NVIDIAs Tesla P100 entstanden ist

Wie der DGX-1 Supercomputer mit NVIDIAs Tesla P100 entstanden ist

Veröffentlicht am: von

Mit dem DGX-1 präsentierte NVIDIA im Frühjahr einen Deep-Learning-Supercomputer mit acht Tesla P100, die via NVLink miteinander verbunden sind. Alle Details zur verwendeten Pascal-Architektur im Hinblick auf die Compute-Funktionen haben wir in einer gesonderten Meldung bereits zusammengefasst. Wir sehen aktuell das Endergebnis einer jahrelangen Entwicklung, doch bei NVIDIA spricht man auch etwas über die Entwicklung des DGX-1 und hat dies in einem Blogpost zusammengefasst.

Demnach begann die Entwicklung des DGX-1 im Mai 2015 – NVIDIA spricht hier vom Supercomputer selbst, nicht von der Pascal-Architektur oder den dazugehörigen Chips, die sich auch zum damaligen Zeitpunkt bereits seit einigen Jahren in der Entwicklung befunden haben. Im Mai 2015 ist aber bereits die Entscheidung zum Einsatz eines Cube Mesh gefallen, in dem über NVLink acht GPUs miteinander organisiert werden. Zum damaligen Zeitpunkt standen aber noch keine GPUs mit NVLink zur Verfügung. Dies sollte erst einige Monate danach der Fall sein.

NVIDIA DGX-1 Supercomputer mit acht Tesla P100NVIDIA DGX-1 Supercomputer mit acht Tesla P100

NVIDIA DGX-1 Supercomputer mit acht Tesla P100

Nicht nur die Entwicklung der Hardware befand sich im Frühjahr des vergangenen Jahres im vollem Gange, auch die Software musste erst noch entwickelt werden, denn anders ist das Potenzial einer solchen Hardware kaum zu nutzen. NVIDIA entwickelte dazu eine NCCL (NVIDIA Collective Communication Library), welche die Verbindung zwischen der Hardware und den Deep-Learnging-Tools wie Caffe, Theano, Torch, TensorFlow und CNTK sein soll.

Im November feierte NVIDIA den Tape Out des GP100, der ersten GPU auf Basis der Pascal-Architektur. Für NVIDIA und den Auftragsfertiger TSMC ist eine solche GPU eine besondere Herausforderung, denn NVIDIA wechselte auf die Fertigung in 16 nm. Zusammen mit der Tatsache, dass erstmals HBM der 2. Generation zum Einsatz kommen sollte und die GPU alleine auf 15,7 Milliarden Transistoren kommt, eine Mammutaufgabe für jedes Ingenieursteam. Im Dezember konnten die ersten GPUs für den DGX-1 verwendet werden. In einem ersten Schritt wurden zwei GPUs, dann drei zusammengefasst. Eine vierte GPU konnte zunächst nicht eingebunden werden, da im Code für die NVLink-Infrastruktur noch Teile fehlten. Da auch das finale Gehäuse noch nicht verfügbar war, wurde eine Eigenkreation aus Plexiglas, Metallplatten und Klebeband erstellt.

QuantaPlex T21W-3UQuantaPlex T21W-3U

QuantaPlex T21W-3U

Ende März, nur eine Woche vor der GPU Technology Conference, auf der der DGX-1 offiziell präsentiert werden sollte, wurde der erste Prototyp aus Südkorea in die USA transportiert. Dort sollte er zum ersten Mal präsentiert werden, andere Prototypen dürften zu diesem Zeitpunkt bereits ersten Tests unterzogen worden sein. In einem Deep-Learning-Netzwerk von Google, AlexNet, sollte DGX-1 die 10-fache Leistung gegenüber vergleichbaren Systemen erreichen. Am 3. April, einen Tag vor der GTC 2016, erreichte DGX-1 durch Optimierungen sogar die 12-fache Leistung. Am 5. April präsentierte NVIDIAs CEO den DGX-1 auf der Keynote der GTC 2016.

Derzeit arbeitet der erste Prototyp des DGX-1 in einem Rechenzentrum von NVIDIA und verarbeitet dort Daten des Autonomous-Driving-Team von NVIDIA, welches in New Jersey sitzt. Seit dem 30. Mai wurden die ersten Endkunden-Systeme des DGX-1 an die Kunden ausgeliefert. Damit ist NVIDIA auch der erste Hersteller, der GPUs mit HBM der 2. Generation an Endkunden liefert. Ein DGX-1-Supercomputer kostet 129.000 US-Dollar.

Social Links

Kommentare (0)

Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]