NEWS

Grafikkarten

NVIDIA Tesla V100S bietet schnelleren HBM2 und mehr Takt bei gleicher TDP

Portrait des Authors


NVIDIA Tesla V100S bietet schnelleren HBM2 und mehr Takt bei gleicher TDP
0

Werbung

NVIDIAs aktuelles Datacenter-Flaggschiff ist noch immer die Tesla V100, die als SXM2-Modul und PCI-Express-Karte in zwei Varianten verfügbar ist. Die Variante als SXM2-Modul hat NVIDIA bereits von einer Thermal Design Power von 300 W auf bis zu 450 W angehoben. In einigen DGX-Systemen ist dies der Fall, allerdings gibt NVIDIA keine Auskunft über die Rechenleistung und ob einfach nur der Takt gesteigert wurde.

Auf der Supercomputing 2019 machten nun einige Aufsteller zu einer Tesla V100S die Runde, ohne dass NVIDIA ein offizielles Wort dazu verloren hat. Anandtech und STH sind darauf aufmerksam geworden. Inzwischen sind die Änderungen zur normalen Version bekannt. So macht NVIDIA die aktualisierte PCI-Express-Variante schneller als das bisher schnellere SMX2-Modell. Weiterhin zum Einsatz kommt die GV100-GPU mit 5.120 Shadereinheiten und 640 Tensor Cores. Die RT Cores der Turing-Architektur kommen bei der Volta-Architektur noch nicht zum Einsatz. Die GV100-GPU respektive die Tesla V100 ist noch immer NVIDIAs Arbeitstier im Datacenter.

Für die Tesla V100S steigt die Rechenleistung in doppelter Genauigkeit (FP64) von 7 auf 8,2 TFLOPS an. Bei einfacher Genauigkeit (FP32) geht es von 14 auf 16,4 TFLOPS. Die Tensor-Leistung (INT8) bekommt von 112 auf 130 TOPS ein ebenso linear ansteigendes Plus. NVIDIA lässt die GV100-GPU seit 2017 in 12 nm bei TSMC fertigen. Inzwischen dürfte man also in der Lage sein, der GPU höhere Taktraten zu spendieren, was zum Leistungsplus führt.

Der weitere Grund für diese Leistungssteigerung dürfte in der höheren Speicheranbindung zu suchen sein. Die 32 GB an HBM2 haben bei der Tesla V100 eine Speicherbandbreite von 900 GB/s, bei der Tesla V100S sind es nun 1.134 GB/s. Damit dürfte NVIDIA den Speichertakt auf 1.134 MHz angehoben haben, was zugleich bedeutet, dass hier der aktuell schnellste HBM2 eingesetzt wird. Unklar ist, welchen HBM2 NVIDIA verwendet. Samsung präsentierte bereits vor einiger Zeit seinen schnelleren HBM2 alias Aquabolt und auch SK Hynix arbeitet an sogenanntem HBM2e.

Damit bietet die Tesla V100S eine um etwa 15 % höhere Rechenleistung als die vorherige PCI-Express-Variante und eine um 25 % höhere Speicherbandbreite. Zugleich ist sie damit etwas schneller (5 %) als die SXM2-Variante und bietet eine ebenso um 25 % höhere Speicherbandbreite.

Die Thermal Design Power der Karte soll weiterhin 250 W betragen, was die Effizienz der Karte natürlich deutlich steigert. NVIDIA verwendet weiterhin PCI-Express 3.0 – ein Umstand, den man mit der nächsten Generation sicherlich angehen wird.

Wie gesagt, die Tesla V100 wurde im Frühjahr 2017 vorgestellt und nach nun fast drei Jahren steht im nächsten Jahr sicherlich ein Nachfolger an. NVIDIA ist zwar noch immer die Größe bei den GP-GPUs im Datancenter, mit Intel und der "Ponte Vecchio" Xe-GPU erwächst ihnen aber gerade eine nicht zu unterschätzende Konkurrenz.