> > > > Wie der DGX-1 Supercomputer mit NVIDIAs Tesla P100 entstanden ist

Wie der DGX-1 Supercomputer mit NVIDIAs Tesla P100 entstanden ist

Veröffentlicht am: von

Mit dem DGX-1 präsentierte NVIDIA im Frühjahr einen Deep-Learning-Supercomputer mit acht Tesla P100, die via NVLink miteinander verbunden sind. Alle Details zur verwendeten Pascal-Architektur im Hinblick auf die Compute-Funktionen haben wir in einer gesonderten Meldung bereits zusammengefasst. Wir sehen aktuell das Endergebnis einer jahrelangen Entwicklung, doch bei NVIDIA spricht man auch etwas über die Entwicklung des DGX-1 und hat dies in einem Blogpost zusammengefasst.

Demnach begann die Entwicklung des DGX-1 im Mai 2015 – NVIDIA spricht hier vom Supercomputer selbst, nicht von der Pascal-Architektur oder den dazugehörigen Chips, die sich auch zum damaligen Zeitpunkt bereits seit einigen Jahren in der Entwicklung befunden haben. Im Mai 2015 ist aber bereits die Entscheidung zum Einsatz eines Cube Mesh gefallen, in dem über NVLink acht GPUs miteinander organisiert werden. Zum damaligen Zeitpunkt standen aber noch keine GPUs mit NVLink zur Verfügung. Dies sollte erst einige Monate danach der Fall sein.

NVIDIA DGX-1 Supercomputer mit acht Tesla P100NVIDIA DGX-1 Supercomputer mit acht Tesla P100

NVIDIA DGX-1 Supercomputer mit acht Tesla P100

Nicht nur die Entwicklung der Hardware befand sich im Frühjahr des vergangenen Jahres im vollem Gange, auch die Software musste erst noch entwickelt werden, denn anders ist das Potenzial einer solchen Hardware kaum zu nutzen. NVIDIA entwickelte dazu eine NCCL (NVIDIA Collective Communication Library), welche die Verbindung zwischen der Hardware und den Deep-Learnging-Tools wie Caffe, Theano, Torch, TensorFlow und CNTK sein soll.

Im November feierte NVIDIA den Tape Out des GP100, der ersten GPU auf Basis der Pascal-Architektur. Für NVIDIA und den Auftragsfertiger TSMC ist eine solche GPU eine besondere Herausforderung, denn NVIDIA wechselte auf die Fertigung in 16 nm. Zusammen mit der Tatsache, dass erstmals HBM der 2. Generation zum Einsatz kommen sollte und die GPU alleine auf 15,7 Milliarden Transistoren kommt, eine Mammutaufgabe für jedes Ingenieursteam. Im Dezember konnten die ersten GPUs für den DGX-1 verwendet werden. In einem ersten Schritt wurden zwei GPUs, dann drei zusammengefasst. Eine vierte GPU konnte zunächst nicht eingebunden werden, da im Code für die NVLink-Infrastruktur noch Teile fehlten. Da auch das finale Gehäuse noch nicht verfügbar war, wurde eine Eigenkreation aus Plexiglas, Metallplatten und Klebeband erstellt.

QuantaPlex T21W-3UQuantaPlex T21W-3U

QuantaPlex T21W-3U

Ende März, nur eine Woche vor der GPU Technology Conference, auf der der DGX-1 offiziell präsentiert werden sollte, wurde der erste Prototyp aus Südkorea in die USA transportiert. Dort sollte er zum ersten Mal präsentiert werden, andere Prototypen dürften zu diesem Zeitpunkt bereits ersten Tests unterzogen worden sein. In einem Deep-Learning-Netzwerk von Google, AlexNet, sollte DGX-1 die 10-fache Leistung gegenüber vergleichbaren Systemen erreichen. Am 3. April, einen Tag vor der GTC 2016, erreichte DGX-1 durch Optimierungen sogar die 12-fache Leistung. Am 5. April präsentierte NVIDIAs CEO den DGX-1 auf der Keynote der GTC 2016.

Derzeit arbeitet der erste Prototyp des DGX-1 in einem Rechenzentrum von NVIDIA und verarbeitet dort Daten des Autonomous-Driving-Team von NVIDIA, welches in New Jersey sitzt. Seit dem 30. Mai wurden die ersten Endkunden-Systeme des DGX-1 an die Kunden ausgeliefert. Damit ist NVIDIA auch der erste Hersteller, der GPUs mit HBM der 2. Generation an Endkunden liefert. Ein DGX-1-Supercomputer kostet 129.000 US-Dollar.

Social Links

Kommentare (0)

Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]