> > > > Intel Interconnect Day 2019: Details zum CXL-Interconnect

Intel Interconnect Day 2019: Details zum CXL-Interconnect

Veröffentlicht am: von

cxlNach einer noch recht offen gehaltenen Ankündigung des Compute Express Link oder kurz CXL hat Intel auf einem Interconnect Day 2019 erste genauere Details zur Technik und dem Einsatzbereich verraten. CXL wird von Intel als ein offener Standard bezeichnet, allerdings wird der Zugang zu den dazu notwendigen Details nicht offen gestaltet. Vielmehr stellt Intel CXL als Konkurrenzprodukt zu CCIX, OpenCAPI und Gen-Z auf.

Zunächst einmal hat Intel den CXL in der Hierarchie der Interconnects und Netzwerkverbindungen eingeordnet und spricht davon, dass CXL ein Prozessor-Interconnect ist – also die Verbindung zwischen mehreren Prozessoren, ASICs, FPGAs und GPUs herstellen wird. CXL ist kein Datacenter-Interconnect, der wie InfiniBand oder Ethernet mehrere Knoten untereinander verbindet.

Die Motivation hinter dem CXL ist ganz ähnlich wie die hinter den eben erwähnten Techniken (CCIX, OpenCAPI und Gen-Z) und auch bereits etablierten Interconnects wie NVLink. NVIDIA sieht NVLink als derzeit einzige Möglichkeit, die aktuelle Hardware im Hinblick auf Datenrate, Latenzen und Funktionen wie Speicher-Kohärenz miteinander zu verknüpfen. Im Falle von NVLink gilt dies für die hauseigenen GPUs, von denen sich bis zu 16 zusammenfassen lassen. Intel verfolgt mit CXL einen ähnlichen Ansatz, stellt die Technik aber deutlich breiter auf.

Dies zeigt sich schon durch die Wahl der Übertragungstechnik. Anstatt einer eigenen physikalischen Übertragungstechnik setzt CXL auf PCI-Express. Startpunkt für den Einsatz von CXL soll PCI-Express 5.0 sein. PCI-Express 5.0 wird eine Übertragungsrate von 3,938 GB/s auf einer Lane und 63,01 GB/s auf 16 Lanes ermöglichen. Den Angaben von Intel zufolge wird CXL acht PCI-Express-5.0-Lanes verwenden und kommt damit auf etwa 32 GB/s.

Zum Vergleich: NVLink 2.0 kann 50 GB/s in Sende- und Empfangsrichtung pro Link übertragen und pro GV100-GPU sind bis zu sechs Links möglich.

Intel erwartet allerdings eine schnelle Umsetzung von PCI-Express 6.0 und will damit sicherlich auch der immer höheren Nachfrage hinsichtlich der Datenraten Rechnung tragen.

CXL ist nicht nur ein Interconnect, der auf eine möglichst hohe Datenrate ausgelegt ist, sondern der drei Protokolle in einer Verbindung vereint: CXL.io, CXL.cache und CXL.memory.

CXL.io stellt die Rückwärtskompatibilität zu PCI-Express her. Damit wird CXL.io das am häufigsten eingesetzte Protokoll sein, weil PCI-Express in Server allgegenwärtig ist und sein wird. CXL.cache ermöglicht den Zugriff auf die Caches eines Xeon-Prozessors. Die Cache-Kohärenz soll zwischen CPUs, FPGAs (beispielweise den neuen Agilex-Chips) und den dann von Intel vorgestellten GPU-Beschleunigern möglich sein. CXL.memory funktioniert in umgekehrter Richtung im Vergleich zu CXL.cache und ermöglicht dem Prozessor Zugriff auf den Speicher der per CXL angebundenen Beschleuniger. CXL.cache und CXL.memory sind auf besonders niedrige Latenzen ausgelegt und arbeiten im CXL-Stack in ihren eigenen Protokollschichten.

Anders als der aktuelle CPU-Interconnect QPI und UPI ist CXL asymmetrisch ausgelegt. Im UPI-Modell sind alle teilnehmenden Prozessoren sozusagen gleichwertig und haben jeweils eigenes Caching und Home Agent. Bei CXL ist dies alles in der CPU vereint und die Gegenstelle muss keine eigenen Caching und Home Agents haben, um im CXL-Netzwerk mitspielen zu können. Dies soll dafür sorgen, dass Intel selbst die teilnehmenden Beschleuniger einfacher gestalten kann, es anderen Herstellern aber auch einfacher gemacht wird einen zu CXL kompatiblen Chip zu entwickeln. Vor allem aber sorgt Intel dafür, das die eigenen Xeon-Prozessoren der zentrale Punkt eines CXL-Netzwerks sind und bleiben.

In einem kohärenten Speichersystem sollen alle Teilnehmer auf einen gemeinsamen Speicher zugreifen können. Dieser Speicher besteht aus der Summe des Speichers, der jedem Teilnehmer zur Verfügung steht. Zwei GPUs mit jeweils 16 GB HBM2 können sich somit 32 GB an Speicher teilen und auf die Speicherbereiche des jeweils anderen zugreifen.

Was auf den ersten Blick einfach klingt, ist aber alles andere als einfach, denn die Zugriffe müssen koordiniert werden und dies sorgt für Verzögerungen in den Speicherzugriffen und erhöht die Latenzen. Selbst wenn die GPU auf den eigenen Speicher zugreifen möchte, ist dies der Fall – nicht nur beim Zugriff auf den Speicher der zweiten GPU. Die Speicherkohärenz bietet also nicht alle denkbaren Freiheiten, sondern ist in gewisser Weise eingeschränkt.

Um dem entgegenzuwirken, sieht Intel verschiedene Zugriffsmethoden vor. So gibt es einen Device Bias, der ohne jegliche Verzögerungen einen Zugriff auf den kohärenten (eigenen) Speicher durch einen Beschleuniger zulässt. Für den Host Bias erfolgt der Zugriff immer über den zentralen Prozessor, was wiederum einige Verzögerungen und nicht die volle Bandbreite in den Zugriffen zur Folge hat. Laut Intel werden Device Bias, also der schnellere Zugriff, aber weitaus häufiger vorkommen, als der Host Bias.

Zusammenfassung

Intel stellt sich mit CXL gegen die Konkurrenzstandards wie CCIX, OpenCAPI und Gen-Z. Allesamt sehen die beteiligten Unternehmen einen Trend zu speicherkohärenten Systemen und dazu sind schnelle und latenzreduzierende Interconnects ein wichtiger Baustein. NVIDIA hat dies mit NVLink bereits vor geraumer Zeit erkannt und sich aufgrund fehlender Technologien einen eigenen Standard geschaffen. Dies tut nun auch Intel mit CXL.

CXL ist für Intel auch ein wichtiger Baustein, um die aktuellen Entwicklungen zusammen zu bringen. Die Xeon-Prozessoren werden CXL als zentrale Instanz in einem Server unterstützten. Per CXL angebunden werden weitere Prozessoren, vor allem aber FPGAs und die dann eigenen GPU-Beschleuniger. Damit CXL in der präsentierten Form funktioniert und umgesetzt werden kann, muss PCI-Express 5.0 umgesetzt sein. Die neuen Xeon-Scalable-Prozessoren der 2. Generation auf Basis der Cascade-Lake-Architektur unterstützen nur PCI-Express 3.0. AMD wird in diesem Sommer mit den EPYC- und Ryzen-Prozessoren der nächsten Generation den Starschuss für PCI-Express 4.0 geben. Intel wird auf diesen Zug erst mit Cooper Lake und Ice Lake irgendwann zum Jahreswechsel 2019/2020 aufspringen. PCI-Express 5.0 wird dann vermutlich erst Ende 2020 oder gar 2021 eingeführt werden und erst dann wird CXL für Intel auch eine Rolle spielen. Die Ankündigung der Agilex-FPGAs mit der Unterstützung für PCI-Express 5.0 zeigt aber, dass Intel sich hier etwas mehr Aggressivität in der Umsetzung wünscht.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (5)

#1
Registriert seit: 03.12.2018

Obergefreiter
Beiträge: 82
Spannend wirds erst, wenn alle Hersteller sich auf einen Standard einigen. Dann hätte man eine eilerlegende Wollmilchsau!

Ein Quartett aus Epyc, Xeon, Radeon und nVidia :vrizz:

Während der Xenon AVX-Anwendungen erledigt, wird der Epyc-Prozessor für Anwendungen genutzt, die viele Kerne brauchen. Eine nVidia-Karte für CUDA, während eine Radeon Pro OpenCL-Anwendungen abdeckelt.
#2
customavatars/avatar287074_1.gif
Registriert seit: 29.08.2018

Oberleutnant zur See
Beiträge: 1363
So einen Standard gibt es doch schon, nennt sich CCIX!

Xenon?
Du meinst wohl Xeon!

Aber warum sollte man für AVX-Anwendungen einen Xeon nehmen?
Das geht doch mit Epyc auch!
#3
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 31342
Zumindest bis AVX2 ja, wenn man schon genau sein will.
#4
customavatars/avatar293591_1.gif
Registriert seit: 20.02.2019

Matrose
Beiträge: 4
Zitat bschicht86;26895382
Spannend wirds erst, wenn alle Hersteller sich auf einen Standard wie CUDA einigen. Dann hätte man eine eilerlegende Wollmilchsau!

Ein Quartett aus Epyc, Xenon, Radeon und nVidia :vrizz:

Während der Xenon AVX-Anwendungen erledigt, wird der Epyc-Prozessor für Anwendungen genutzt, die viele Kerne brauchen. Eine nVidia-Karte für CUDA, während eine Radeon Pro OpenCL-Anwendungen abdeckelt.


Intel Xenon = gibt es nicht .... 'nur Xenonlicht' ;o)
AMD 'Radeon Pro' GCN OpenCL = nutzt keiner .... ROCm FAIL
Vega GCN OpenCL & Intel Xeon Phi Knights Mill (KNM) sind längst EOL .... ohne jegliche Marktrelevanz

Nvidia dominiert mit CUDA 10 seit etlichen Jahren, als "der GPU Compute Industrie-Standard" mit leistungsstarken NVSwitch/NVLink High-End-GPU's wie Volta V100 und P100, T4 den kompletten HPC GPU Data Center Accelerator Markt - alles bekanntlich ohne bedeutende Intel und AMD Konkurrenz und Markt-Präsenz!

Und mit dem Zukauf von führenden Mellanox-Technologien, wie 100 (200/400) Gbit/s EDR InfiniBand-Verbindung zwischen den (16x V100) GPU-Pod Cluster Nodes, wird Nvidia klar zum 'BigPlayer' im ganzen HPC 'GPU Acceleration' Marktsegment. AMD GCN Navi oder Intel Xe-GPUs .... müssen erst mal liefern, mit über Jahre optimal supporteter & ausgereifter GPGPU SDK Lösungen wie CUDA-X AI SDK von Nvidia.

The Widening Gyre Of Supercomputing | TheNextPlatform.com
NVIDIA Announces CUDA-X AI SDK - NVIDIA Developer News Center
NVIDIA Amps Up AI Cloud Strategy with ODM Partnerships | TOP500 Supercomputer Sites

[ATTACH=CONFIG]463777[/ATTACH]
#5
Registriert seit: 03.12.2018

Obergefreiter
Beiträge: 82
Ja sorry, habs verwechselt und korrigiert

Zitat MassGridParagon;26895553
[...]


Irgendwie erinnerst du mich an eine Werbedrohne aus einem anderen Forum...
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • AMD Ryzen Threadripper 2990WX und 2950X im Test: Mit Vollgas an Intel vorbei

    Logo von IMAGES/STORIES/2017/AMD_THREADRIPPER_2950X

    Pünktlich zum ersten Geburtstag startet AMD den Ryzen-Threadripper-Generationswechsel. Und wie schon im Frühjahr beim Sprung von Ryzen 1 zu Ryzen 2 vertraut man auf zwei Dinge: mehr Kerne und einen geringeren Preis. Beide sollen dabei helfen, dem Dauerrivalen Intel im... [mehr]

  • Intel Core i9-9900K im Test: Acht Kerne mit Luxuszuschlag

    Logo von IMAGES/STORIES/2017/INTEL_CORE_I9-9900K

    Nach monatelangen Spekulationen und zahlreichen durchgesickerten Informationen hat Intel vor knapp zwei Wochen seine neunte Generation der Core-Prozessoren vorgestellt. Ins Rennen werden mit dem Core i5-9600K, Core i7-9700K und Core i9-9900K zunächst drei Modelle geschickt, die nicht nur... [mehr]

  • Intel mit eigenen Benchmarks zum i9-9900K, i9-9980XE und i9-9900X (5. Update)

    Logo von IMAGES/STORIES/2017/INTEL

    Am gestrigen Nachmittag präsentierte Intel die kommenden Produktlinien bei den Desktop-Prozessoren. Besonders interessant sind dabei natürlich die Core-Prozessoren der 9. Generation, die mit dem Core i9-9900K nun auch ein Modell mit acht Kernen und 16 Threads beinhalten. Im November wird es... [mehr]

  • AMD soll Ryzen 7 2800X mit 10 Kernen in Vorbereitung haben

    Logo von IMAGES/STORIES/2017/AMD_RYZEN_TEASER_100

    Auf der spanischen Seite El chapuzas Informatico ist ein Bild aufgetaucht, welches die Cinebench-Ergebnisse eines Ryzen 7 2800X zeigen soll. Derzeit lässt sich die Echtheit des Screenshots nicht bestätigen und bisher sind auch noch keine weiteren Informationen zu einem Ryzen 7 2800X... [mehr]

  • AMD Ryzen 3000: Acht Zen-2-Kerne mit PCIe 4.0 ab Mitte 2019

    Logo von IMAGES/STORIES/2017/RYZEN3000-CES19

    Neben der Vorstellung der Radeon Vega 7 als erste Gaming-GPU aus der 7-nm-Fertigung hat AMD eine Vorschau auf die Ryzen-Prozessoren der 3000er-Serie gegeben. Die als Matisse geführten Desktop-Prozessoren werden im Sockel AM4 Platz finden, basieren aber auf der neuen Zen-2-Architektur und bieten... [mehr]

  • Intel Coffee Lake Refresh: Overclocking-Check

    Logo von IMAGES/STORIES/2017/INTEL_CORE_I9-9900K

    Nach dem Start der neuen Generation der Intel-Core-Prozessoren stellt sich die Frage, wie es um die Overclocking-Eigenschaften bestellt ist. Erste Ergebnisse lieferte bereits der Test des Core i9-9900K. Doch wie schon in den vergangenen Jahren soll ein umfangreicher Check zeigen, an welchen... [mehr]