> > > > NVIDIA pusht Tesla V100 auf eine TDP von 450 W

NVIDIA pusht Tesla V100 auf eine TDP von 450 W

Veröffentlicht am: von

nvidia-tesla-p100Wenngleich sich in den vergangenen Monaten vieles um die Turing-Architektur und die dazugehörigen GeForce-RTX-Grafikkarten gedreht hat, so kann NVIDIA weiterhin sein Datacenter-Business stärker ausbauen. Zentrales Produkt in diesem Bereich ist und bleibt die Tesla V100, die als SMX2-Modul bei einer Leistungsaufnahme von 300 W 7,8 TFLOPS an FP64-Rechenleistung bietet. Je nach Kühlung können die GPUs auch auf eine TDP von 350 W konfiguriert werden.

Nun aber scheint NVIDIA ein kleines Update bei der Tesla V100 vorzunehmen, denn mit dem DGX-2H bestückt NVIDIA den Server mit 16 Tesla V100 mit neuer Hardware. Anstatt der bisher genannten 350 W pro GPU (16x 350 W = 5.600 W) im DGX-2, setzt NVIDIA beim DGX-2H auf 450 W pro GPU. Dies ist eine signifikanten Steigerung um fast 30 % und dürfte sich dementsprechend auch in der Leistung niederschlagen. ServeTheHome hat das entsprechende Datenblatt vorliegen, dort wird allerdings keine Leistungssteigerung genannt. NVIDIA dürfte den Takt der GPUs aber deutlich angehoben haben. Mit der höheren Thermal Design Power dürfte es auch Änderungen in der Kühlung geben.

Anstatt des bisher eingesetzten Intel Xeon Platinum 8174 kommt nun ein Xeon Platinum 8168 zum Einsatz. Auch das Netzwerk hat ein Update erhalten und unterstützt nun 10/25/40/50/100GbE anstatt nur 10/25GbE. Die Leistungsaufnahme des gesamten Systems wird nun mit 12 anstatt 10 kW angegeben und die maximale Betriebstemperatur sinkt von 35 auf 25 °C. Insgesamt steigen also die Anforderungen am die Versorgung und Kühlung.

Was NVIDIA zu diesem Schritt bewogen hat, ist derzeit nicht bekannt. Mehr Leistung anbieten zu können ist aber natürlich grundsätzlich kein falscher Schritt. Was NVIDIA gerade jetzt in die Lage versetzt die V100-GPU als SMX2-Modell von 350 W auf 450 W anheben zu können, ist ebenfalls nicht bekannt. Im Circe, einem Supercomputer auf Platz 61 der Top500 der Supercomputer, kommen die NVIDIA DGX-2H bereits zum Einsatz.

Während es im Heimanwenderbereich gewisse Limits für den Verbrauch, bzw. die Leistungsaufnahme gibt, sind solche Grenzen im Datacenter ohnehin eher fließend. Mit einer TDP von 450 W bricht NVIDIA hier allerdings auch aus allen bisherigen Standards" heraus. Ob sich das erhöhte TDP-Limit auch in Zukunft fortsetzen wird, bleibt abzuwarten. Zumindest bei den PCI-Express-basierten GPU-Beschleunigern werden 300 W wohl vorläufig aufgrund des Kühlervolumens bei zwei Slots eine magische Hürde bleiben. Custom-Lösungen wie die SMX2-Module von NVIDIA könnten aber durchaus auch in Zukunft standardmäßig mehr verbrauchen.

Social Links

Ihre Bewertung

Ø Bewertungen: 2

Tags

Kommentare (16)

#7
customavatars/avatar287074_1.gif
Registriert seit: 29.08.2018

Oberleutnant zur See
Beiträge: 1371
Zitat Chasaai;26643823
aber als gamerkiddifanboy kann man auch alles nutzen um ein flamewar loszutreten...

Genau, jetzt kommt wieder der Unsinn, man merkt echt, daß man es hier meistens mit Gamern zu tun hat:\
#8
customavatars/avatar72612_1.gif
Registriert seit: 11.09.2007

Fregattenkapitän
Beiträge: 2870
Die ersten zwei Beträge mit selben inhaltlosen Mist vom Doppelaccount
„Gamerkind aka Holzmann“.....
Die geballte Weisheit, von der die ganze Halbleiter Industrie profitieren könnte!
#9
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

Admiral
Beiträge: 10722
Zitat Jaimewolf3060;26645053
Die ersten zwei Beträge mit selben inhaltlosen Mist vom Doppelaccount
„Gamerkind aka Holzmann“.....
Die geballte Weisheit, von der die ganze Halbleiter Industrie profitieren könnte!


Was ist bloss mit dir los :confused:

@Gamerkind ist im Gegensatz zur dir ja auch zu mir ein richtiger Auskenner, er spricht ein duzen Sprachen, kennt sich überall bestens aus und mit ein bisschen Glück hält er immer die Lösung bereits in den Händen.
Solche User haben ein wenig mehr Respekt verdient.
#10
customavatars/avatar72612_1.gif
Registriert seit: 11.09.2007

Fregattenkapitän
Beiträge: 2870
@Holzmann/Gamerkind
Ich verfolge deine Beiträge!
Bisher kommt wenig produktives von dir!
Aber das haben dir schon andere mitgeteilt.....


Genug OT!
#11
customavatars/avatar238501_1.gif
Registriert seit: 01.01.2016

Oberleutnant zur See
Beiträge: 1407
Naja, die "Zufälle" bei den beiden Accounts finde ich schon auch sehr auffällig.
Aber bisher hat es nur einer der zwei Accounts auf die Ignoreliste geschafft, also hält er sich wenigstens bei einem Account etwas zurück. ;-)
#12
Registriert seit: 03.07.2007

Obergefreiter
Beiträge: 92
Zitat Bucho;26644257
nV muß nicht das selbe wegen Vega 20 tun, eher erhöhen die die TDP um Vega 20 nicht herankommen zu lassen.
Um Äpfel mit Äpfel zu vergleichen nimmt man eine Quadro V100 und vergleicht sie mit einer Radeon Instinct MI60

Fast, eher ein Äpfel mit Birnen Vergleich. Die MI60 ist eine Karte für Rechenzentren, die Quadro ist für Workstations. Wenn, dann müsstest du die MI60 mit der Tesla V100 vergleichen.
Laut NVidia Seite ist die langsamer als die MI60:
Die V100 hat nur 14TFlop (FP32) und 7TFlop (FP64).
Die Quadro ist für Rechenzentren wegen ihrem Kühler nicht wirklich geeignet, die Tesla und die Instinct sind beide passiv gekühlt.
#13
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5994
@Oberst
Huch stimmt, hatte irgendwie am Radar daß die Radeon Instinct Displayausgänge und eine aktive Kühlung hat.
Klar so ist sie natürlich das Gegenstück zur Tesla V100 im PCI-E Format und ist damit einen Hauch schneller (bei höherer TDP, reale Werte müsste man wohl erst in Testparcours für beide Karten in Erfahrung bringen).

Anhand den Veränderungen der Vega 20 sieht man jedoch auch warum AMD meint daß die so nicht auf Gaming Karten kommt. Unter Anderem haben die ja das Speicherinterface aufgeblasen um 4 HBM2 Stacks anzusprechen. Im Gamingsektor sind bereits 16GB etwas overkill im Moment. Auch die anderen Änderungen wie Aufbohrung der Gleitkommaleistung und ECC für Cachestufen sind im Gamingsektor teils unnötig.
#14
customavatars/avatar287074_1.gif
Registriert seit: 29.08.2018

Oberleutnant zur See
Beiträge: 1371
Die möglichkeit 4 Stacks zu verbauen werden bei einer Gamerkarte nicht das Problem sein, AMD könnte Vega 20 ja dort auch mit nur 2 Stacks anbieten.

Aber die 7nm GPU mit ihren >300mm² dürfte dafür einfach viel zu teuer sein.

Da Vega 20 bei Gaming auch nicht viel schneller als Vega 10 wäre, könnte AMD auch maximal 500€ dafür verlangen, das rentiert sich einfach nicht.
#15
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5994
Problem ist das mit den 4 Stacks nicht, nur dazu hat AMD das Speicherinterface der Vega 20 wieder auf 4096 Bit aufgebohrt im Gegensatz zur alten Vega mit 2048 Bit, und das macht mitunter den Chip größer und somit teurer.

Ich bin auf jeden Fall gespannt wie es bei den High End GPUs (egal welcher Hersteller) weiter gehen wird. Bleibt man im HPC Sektor bei HBM? Anzunehmen wäre es ja da die Bandbreite ja nach wie vor enorm ist (je nach Ausbau) im Vergleich zu GDDR5/5X/6.
Es war ja mal die Rede daß man zumindest bei nV getrennte Wege gehen will und reine HPC GPUs bauen will die sich stark von GPUs für den Entertainment Sektor unterscheiden. Vielleicht geht ja AMD ähnliche Wege.
#16
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34349
GP100 und GV100 sind doch bei NV die HPC Chips - im Endeffekt das was FP64 in schnell kann. Bei AMD ist das aktuell Hawaii und dann der kommende Vega20.

Im Endeffekt kann man das aber eh nicht vergleichen, egal wie man es dreht, die klassische PCIe Beschleunigerkarte gibt es bei NV zwar mit gleichem Chip, aber der Fokus was HPC angeht liegt eher auf den Modulen. Denn dort kommt auch NVLink zum tragen respektive der Schritt ein komplettes System mit entsprechenden GPUs anzubieten. Hier ist man AMD seit Jahren bei NV einen Schritt vorraus - das ganze Softwarebeiwerk kommt auch noch drauf.

Warum schwenkt ihr jetzt hier zu den Gamerreihen? Das hat mit dem Thema quasi nix zu tun. MMn ist der Schritt von NV genau richtig, das Produkt scheint mir durchaus rund und wenn die Gegebenheiten mehr Leistungsaufnahme zulassen, warum nicht? Der Spaß steckt eh in proprietären Formfaktoren und ist damit nicht mit einer PCIe Beschleunigerkarte 1:1 vergleichbar. Letztere muss am Ende irgendwo kühlbar bleiben, klar kann ein Vega20 in 7nm hier auf dem Papier punkten - aber das Teil steht dafür noch nicht im Laden, technisch im Betrieb mit eigenem Lüfter als Quadro setzt wohl das Limit aktueller Umsetzungen - die Tesla PCIe ohne Lüfter im Gehäuseluftstrom könnten auch mehr wie 225/250W ab - wird halt lauter, interessiert im RZ aber eh keinen.

Zitat Oberst;26645585
Fast, eher ein Äpfel mit Birnen Vergleich. Die MI60 ist eine Karte für Rechenzentren, die Quadro ist für Workstations. Wenn, dann müsstest du die MI60 mit der Tesla V100 vergleichen.
Laut NVidia Seite ist die langsamer als die MI60:
Die V100 hat nur 14TFlop (FP32) und 7TFlop (FP64).


Wenn man das will drückt man den Turbo der V100 einfach bisschen und dass geht sich wieder aus. Der V100 fehlem 5-6% im Peak. Die MI60 soll mit 300W eingestuft sein, als 7nm GPU bei 32GB HBMv2 mit bisschen mehr Bandbreite. 20% mehr TDP Einstufung trotz neueren Prozess mit den angeblich fast doppeltem Perf/Watt Verhältnis?
Das ließt sich für mich wie die Erkaufung der letzten 5% auf wirklich der aller letzten Rille... Und zeigt leider auch eins der Probleme mit den aktuellen AMD GPUs - sie sind einfach in so manchem Vergleich deutlich ineffizienter. GCN scheint da einfach am Limit oder was auch immer der Grund ist warum nun schon die zweite Generation Fertigung bestätigt, dass zu einer Energieeffizienz ggü. den NV Umsetzungen bei AMD ein Prozessschritt mehr gemacht werden muss.


Ich bin gespannt wie sich das auch auf die anderen Bereiche auswirkt - Vega20 wird ja der Allrounder, der alles können soll. Navi schätze ich eher auf den Graphics Ableger ohne den HPC Beikram. Das steigert die Effizienz - aber ohne HBM büßt man bei Speicherinterface wieder ein. Mal schauen was am Ende bei rum kommt.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • 7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

    Logo von IMAGES/STORIES/2017/AMD-RADEONVII

    Heute ist es endlich soweit: Es gibt in Form der Radeon VII endlich wieder eine neue Grafikkarte aus dem Hause AMD. Zwar kommt auch hier die bekannte Vega-Architektur zum Einsatz, durch die Kombination einer in 7 nm gefertigten GPU mit 16 GB an extrem schnellen HBM2, ist die Radeon VII aber... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]