NVIDIA startet Serverinitiative für ARM-CPUs - Magnum IO für mehr Bandbreite

Veröffentlicht am: von

nvidiaNVIDIA kündigt zur Supercomputing 19 ein Referenzdesign für Server mit ARM-Prozessoren an – natürlich kombiniert mit den eigenen GPU-Beschleunigern. Zusammen mit ARM, Ampere, Cray, Fujitsu, HPE und Marvell wurde die Referenzplattform entwickelt, die dabei helfen soll, dass schnellstmöglich auch fertige Systeme auf den Markt kommen.

Derzeit verwendet NVIDIA in den eigenen Servern für die Anbindung der GPU-Beschleuniger meist Prozessoren aus dem Hause Intel. In den kommenden Jahren zeichnen sich aber auch viele Systeme an, die EPYC-Prozessoren mit NVIDIA-GPU kombinieren. NVLink kommt als Interconnect nur bei Servern mit IBMs Power9-Prozessoren zum Einsatz. Neuigkeiten im Bereich der GPU-Beschleuniger selbst hat man nicht zu verkünden. Auch eine neue HPC-Architektur hat man nicht vorgestellt. Stattdessen fokussiert man sich derzeit verstärkt auf den Ausbau der Softwareunterstützung.

» zur Galerie

Zudem gibt NVIDIA bekannt, dass eine erste Beta-Version von CUDA für die Integration von ARM-Prozessoren ab sofort verfügbar ist.

Eine weitere Neuerung auf der Supercomputing 19 ist die Ankündigung von Magnum IO. Dabei handelt es sich um eine GPU-beschleunigte Softwarelösung für einen schnelleren I/O-Zugriff.

» zur Galerie

Für den Einsatz eines DGX-2 spricht NVIDIA unter Verwendung des Magnum IO von einer Datenrate von 53 GB/s über die NVMe-SSDs und 100 GB/s über dem Interconnect. Wie hoch die Werte zuvor waren, verrät man leider nicht und auch unsere Recherche konnte keine Vergleichszahlen zu Tage fördern.

Weitere Ankündigungen hat NVIDIA zur Supercomputing 19 nicht zu machen.