Intel nennt Details zum Omni-Path-Interconnect

Veröffentlicht am: von

intel3Moderne Supercomputer sind längst nicht mehr nur abhängig von der Rechenleistung der Prozessoren und anderweitiger Beschleuniger, sondern auch von der Verbindung der tausenden Rechenkerne untereinander. AMD arbeitet dazu an einem kohärenten Fabric, NVIDIA wird im kommenden Jahr mit NVLink die GPUs an das restliche System anbinden und Intel hat mit Omni-Path ebenfalls bereits eine eigene neue Interconnect-Technologie in der Entwicklung.

Omni-Path wird Teil der zukünftigen Produktstrategie sein und sich großflächig im Portfolio wiederfinden. Zunächst seien hier die Xeon-Phi-Beschleuniger genannt, die gegen Ende des Jahres auf den Markt kommen werden. Knights Landing mit bis zu 72 Rechenkernen wird es auch in Versionen mit integriertem Omni-Path geben. Im kommenden Jahr sollen auch Xeon-Prozessoren folgen, die Omni-Path direkt anbieten.

Intels Omni-Path Host Fabric Interface (HFI)
Intels Omni-Path Host Fabric Interface (HFI)

Doch es muss nicht auf kommende Hardware gewartet werden, auch bestehende Server und Systeme können auf Omni-Path umgestellt werden. Gezeigt wird unter anderem eine PCI-Express-Adapterkarte, mit der sich Omni-Path nachrüsten lässt. Die Adapterkarten mit Omni-Path Host Fabric Interface (OPA HFI) schaffen pro Port 100 GBit/s. Selbst in dieser ersten Ausbaustufe ist dies schon mehr als die bisherige Lösung InfiniBand mit (IB FDR) bei 65 GBit/s.

Das Omni-Path-Netzwerk wird dabei wie ein Ethernet-Netzwerk über Kabel und Switches realisiert. Innerhalb von Racks erfolgt die Verbindung natürlich direkt, um mehrere Racks miteinander zu verbinden sind aber eben diese Switches notwendig. Statt eines offenen Standards kommt für das Protokoll aber eine proprietäre Lösung zum Einsatz. Dennoch nennt Intel einige Details. Für eine höhere Bandbreite und geringere Latenzen verzichtet Intel beispielsweise auf die Forward Error Correction mit mehreren kleinen Datenpaketen. Stattdessen wird eine einfache zyklische Redundanzprüfung bzw. Cyclic Redundancy Check (CRC) verwendet. Bis zu einer Kabellänge von 3 m sollen Übertragungsfehler aber nur sehr selten vorkommen, so dass ein einfacher CRC ausreicht. Verbesserungen will Intel auch hinsichtlich der Flussoptimierungen vorgenommen haben. Damit sollen Datenpakete besser organsiert werden können.

Omni-Path-Switches mit 24 und 48 Ports
Omni-Path-Switches mit 24 und 48 Ports

Omni-Path wird bereits in wenigen Monaten ein wichtiger Bestandteil in Servern rund um die Welt werden. Die engere Anbindung des Grafikspeichers an die GPU mittels High Bandwidth Memory zeigt auch im Heimbereich, dass solche Techniken eine immer wichtigere Rolle spielen.