Intels Cascade-Lake-Xeons mit viel Feintuning und Optane-Speichersubsystem

Veröffentlicht am: von

intel-xeon-platinumHeute fällt der Startschuss für die zweite Generation der Xeon-Scalable-Prozessoren von Intel. Auch diese werden die Purley-Plattform verwenden, die schon mit den Skylake-SP/AP-Modellen zum Einsatz gekommen ist. Doch es gibt Änderungen in der Architektur, vor allem aber im Speicher-Ökosystem, die Cascade-Lake-Xeons in zahlreichen Bereichen besser aussehen lassen sollen. Heute schauen wir uns die Architektur als solches an, wir werden die Hardware aber ebenfalls zu einem späteren Zeitpunkt noch unter die Lupe nehmen.

Bei Intel scheint sich die Erkenntnis durchgesetzt zu haben, dass man mit einer recht schwerfälligen zentralen CPU-Architektur nicht mehr weit kommen wird. Die Anwendungsfelder sind inzwischen derart divers, dass eine reine Auslegung auf FP64- und FP32-Rechenleistung ebenso wenig erfolgreich sein wird wie durch das reine Angebot spezieller Beschleuniger im Bereich der geringeren Rechengenauigkeit. Entsprechend bietet die Cascade-Lake-Architektur zahlreiche Änderungen, welche sie deutlich flexibler macht. Intel skaliert die flexible Architektur aber auch in Hardware in Form diverser Modelle und bietet nun eine Vielzahl an Varianten an, die sehr speziell auf eine bestimmte Anwendung ausgelegt sind.

» zur Galerie

Auch wenn alle Skylake-Derivate sich nur in wenigen Details unterscheiden, so sieht Intel für den Wechsel von Skylake auf Cascade Lake zahlreiche Punkte, die eine Neuauslegung rechtfertigen. So werden die Kapazität und Geschwindigkeit des Arbeitsspeichers erhöht – dazu gehört auch die Unterstützung für den Intel Optane DC Persistent Memory. Die Änderungen der Architektur sind auf eine Beschleunigung bestimmter Befehlssätze ausgelegt. Dazu gehören die AVX-512-Instruktionen mit der Erweiterung der Vector Neural Network Instructions (VNNI) sowie die dazugehörige Softwareoptimierung, die Intel unter DL-Boost zusammenfasst. Außerdem schließt Intel mit der Cascade-Lake-Architektur die Lücke für einige Sidechannel-Attacken, die als Spectre und Meltdown noch über Jahre eine Rolle spielen werden.

» zur Galerie

Beim Aufbau und den Uncore-Bereichen des Prozessors bleibt vieles bei durch Skylake-SP etablierten Strukturen. Auf die Detailverbesserungen in der DL-Boost-Beschleunigung sowie der Unterstützung des Optane DC Persistent Memory gehen wir später noch genauer ein.

Etwas unter dem Radar laufen die Verbesserungen in der Fertigung, denn auch wenn die Cascade-Lake-Prozessoren weiterhin in 14 nm gefertigt werden, so hat Intel hier doch einige Verbesserungen einfließen lassen, die dafür sorgen, dass die Boost-Taktraten der einzelnen Modelle im Vergleich zum Vorgänger leicht ansteigen. Zwischen 200 und 300 MHz höher takten die neuen Modelle. Große Sprünge machen die Xeon-Scalable-Prozessoren der zweiten Generation damit aber sicherlich nicht.

» zur Galerie

Im High-End-Segment sieht Intel eine neue 9200-Serie vor, die im Multi-Chip-Design zwei Cascade-Lake-Dies mit jeweils bis zu 28 Kernen in einem BGA-Package zusammenbringt. Damit kann Intel die Rechenleistung pro Sockel/Node deutlich steigern. Durch die Verdopplung der entsprechenden Ressourcen steigen auch die Speicherbandbreite und Interconnect-Datenraten an. Je nach Workload können solche großen NUMA-Nodes und L3-Cache-Speicherpools von Vorteil sein. Auf die Xeon-Prozessoren der 9200-Serie sind wir aber in einer gesonderten Meldung genauer eingegangen.

VNNI und DL-Boost: Flexibler durch neue Instruktionen

Bereits mehrfach hat Intel öffentlich auf die Unterstützung der neuen AVX-512-Instruktionen mit der Erweiterung der Vector Neural Network Instructions (VNNI) verwiesen. Deren Funktionsweise wird im Rahmen des öffentlichen Starts der Cascade-Lake-Prozessoren nun genauer ausgeführt.

Bisher werden Matrix-Multiplikationen über Fließkomma-Operationen berechnet. Der Dynamikumfang dieser Fließkomma-Operationen (FP32 kann bis zu 2128 Werte einnehmen) wird aber im Falle einfacher Matrix-Multiplikationen nicht benötigt, also wird für DL-Boost (so der Oberbegriff für alle Hard- und Softwarebeschleunigungen in diesem Bereich) der Datentyp INT8 als Eingangsdatentyp und INT32 als Ausgangsdatentyp verwendet. Wir sprechen hier also von deutlich weniger komplexen Zahlenwerten, denn INT8 bedeutet einen Wertebereich von 28 = 256 und INT32 von 232, was immer noch deutlich weniger komplexe Zahlen als 2128 bedeutet. Die geringere Komplexität wirkt sich auch auf die Belegung im Cache und die Speicherbandbreite aus.

» zur Galerie

Die Rechenleistung für einfache und doppelte Genauigkeit bleibt für die AVX512-Beschleunigung im Vergleich zwischen Skylake und Cascade Lake identisch, durch die Möglichkeit 4x INT Macs/Cycle im Vergleich zu AVX2 auf Skylake-SP zu berechnen, erreichen die Cascade-Lake-Prozessoren eine theoretisch vierfach so hohe Rechenleistung für solche Berechnungen – in der Praxis sind sie bis zu dreimal schneller.

Intel liefert dazu auch gleich eigene Benchmarks, welche dies belegen sollen:

» zur Galerie

Die VNNI-Optimierungen zeigen sich in einer höheren Leistung und/oder einer gleichzeitigen Reduzierung der Leistungsaufnahme. Zugleich sinkt die L2-Cache Missrate mit VNNI. Dies verhindern erneute Zugriffe auf den L3-Cache und reduziert damit dessen Belastung. Dritter Vorteil ist der reduzierte Bedarf nach Speicherbandbreite. Während ohne VNNI die Speicherbandbreite zum limitierenden Faktor werden kann, soll dies mit VNNI nicht mehr der Fall sein.

Die Anwendung von VNNI in den Xeon-Scalable-Prozessoren macht diese flexibler für den Einsatz im Training und Inferencing von Deep-Learning-Netzwerken. Noch immer aber sind für ein reines Inferencing, also eine Auswertung eines solchen Netzwerks, spezielle Prozessoren besser geeignet. Intel will diesen Bereich mit den Agilex-FPGAs abdecken.

Mehr Flexibilität durch Resource Director und Speed Select

Bereits mit den Broadwell-Xeons führte Intel die Resource Director Technology (RDT) ein. Mittels RDT macht es Intel möglich, die zur Verfügung stehenden Ressourcen besser anzupassen. Der Nutzer oder Besitzer der Hardware bzw. des Servers hat die Wahl, ob dessen Ressourcen einem bestimmten Workload exklusiv zur Verfügung stehen oder ob sich diese flexibel zuteilen lassen.

» zur Galerie

Dazu werden die Caches und Speicherbandbreite ständig kontrolliert und können entsprechend zugeteilt werden. Ziel ist es die Prozessoren und das Datacenter besser auszulasten, denn typischerweise liegt die Auslastung bei weitem nicht bei 100 %. Je nach Plattform sind sogar weniger als 50 % typisch. Viel Hardware läuft also einen nicht unerheblichen Zeitraum ohne genutzt zu werden. Die Betreiber der Hardware sind aber natürlich daran interessiert die Auslastung so hoch wie möglich zu halten. Die Resource Director Technology macht vor allem für Cloud-Anbieter Sinn, kann aber je nach Unternehmen und dessen Anforderungsprofil auch in eigenen Rechenzentren Anwendung finden.

Diese Technologie soll eine Steuerung zwischen hoch-priorisierten und niedrig-priorisierten Workloads ermöglichen. Damit soll eine bessere Auslastung der Hardware ermöglicht werden. Damit wird aber auch einen Teil der Kontrolle über die Hardware abgegeben. Für Workloads, die auf eine exklusive Leistung angewiesen sind, kann RDT natürlich nicht angewendet werden.

» zur Galerie

In eine ähnliche Kerbe wie die Resource Director Technology schlägt auch die Speed Select Technology (SST). Sie erlaubt es einer bestimmten Anzahl an Kernen besonders hoch zu takten. Dafür werden andere heruntergetaktet. Zum Start sieht Intel drei Xeon-Modelle vor, die über Profile verschieden angesteuert werden können.

Es gibt aber auch bestimmte Workloads, die sich auf einen gewissen Basistakt verlassen müssen, weil die Berechnung der Leistung entsprechend ausgelegt ist. Per Speed Select Technology lässt sich die Hardware auch hier besser steuern.

Hardware-Mitigationen gegen Sidechannel-Attacken

» zur Galerie

Noch eine ganze Zeit lang wird Intel die Sicherheitslücken Spectre und Meltdown begleiten. Diese lassen sich als Sidechannel-Attacken zusammenfassen. Cascade Lake sieht folgende Verbesserungen in dieser Hinsicht vor, die sich in Kombination aus Hard- und Software wie folgt darstellen:

» zur Galerie

Intel kompensiert einige Leistungsverluste durch die Mitigation durch die grundsätzlich höhere Leistung der neuen Prozessoren im Hinblick auf deren Taktfrequenz. Das Taktplus von 200 bis 300 MHz wird also durch den Leistungsverlust wieder egalisiert. Damit ausgestanden ist das Thema somit noch lange nicht und zukünftige CPU-Architekturen werden beweisen müssen, ob sie durch die Auslegung im Design gegen Sidechannel-Attacken weitestgehend immun sind.


Ein großer Fokus der Xeons auf Basis der Cascade-Lake-Architektur liegt auf der Unterstützung des Optane DC Persistent Memory. Bereits seit einigen Monaten macht Intel deutlich, dass die Verwendung von Optane DC Persistent Memory eine zentrale Rolle für der Cascade-Lake-Xeons spielen wird.

Ursprünglich geplant war die Verwendung von Optane DC Persistent Memory wohl auch schon mit den Skylake-SP-Prozessoren in der Purley-Plattform, letztendlich ausgeführt wird es aber erst mit den Cascade-Lake-Prozessoren. Da die Plattform aber bereits darauf vorbereitet ist, verfügen viele Server und Mainboards über die entsprechende Anzahl an DIMM-Steckplätzen, um die zusätzlichen Module für den Optane DC Persistent Memory aufzunehmen. Die Skylake-SP-Prozessoren und die dazugehörige Purley-Plattform konnte Intel zudem als Entwickler-Plattform für die Verwendung des Optane DC Persistent Memory verwenden.

» zur Galerie

Der Optane DC Persistent Memory ist das letzte fehlende Bindeglied in der von Intel viel zitierten Speicherpyramide. In Abhängigkeit von der Wichtigkeit der Daten und wie schnell auf diese zugegriffen werden soll, liegen sie auf unterschiedlichen Speichermedien.

Während wir für das Speicher-Subsystem von Nano- und Picosekunden für Cache-Zugriffe sprechen, können inzwischen mehrere hundert Gigabyte oder gar Terabyte an Daten im Arbeitsspeicher abgelegt werden. Die Zugriffszeiten liegen hier bei mindestens 100 ns. Die schnellen Optane DC SSDs bieten mehrere Terabyte an Kapazität, sind mit 10 ms aber vergleichsweise langsam. Dies setzt sich für Standard-SSDs, 3D NAND SSDs und HDDs entsprechend fort.

Am besten wäre es natürlich alles auf einer Art Ramdisk abzulegen, doch DRAM-Speicher ist teuer und in Servern knapp bemessen. Der Optane DC Persistent Memory schließt die Lücke zwischen DRAM und den Optane DC SSDs. Im Grunde sprechen wir hier also von einer Art Ramdisk.

» zur Galerie

Der Optane DC Persistent Memory soll sich in der Integration in der Plattform dadurch auszeichnen, dass es für den Anwender und Administrator letztendlich keine Rolle spielt, wie groß der Anteil an DRAM und Optane DC Persistent Memory nun genau ist. Darum kümmert sich der Speichercontroller, der über die gleichen physikalischen Verbindungen mit dem DRAM und dem Optane DC Persistent Memory kommunizieren kann.

Maximal die Hälfte der DIMM-Steckplätze kann mit Optane DC Persistent Memory bestückt werden (pro Kanal jeweils ein DRAM und ein DC Memory). Der Speicher wird in DIMMs mit einer Kapazität von 128, 256 und 512 GB verfügbar sein. Der maximaler Speicherausbau beläuft sich aktuell auf 6x 128 GB DDR4 + 6x 512 GB Optane DC Persistent Memory also insgesamt 3,84 TB pro Sockel. Sobald die entsprechenden DDR4-Module verfügbar sind, werden einige Xeon-Prozessoren auch 256 GB DDR4-Module unterstützen. Dann wären pro Sockel 4,5 TB möglich. In der Bestückung der Steckplätze ist darauf zu achten, dass der Optane DC Persistent Memory näher am Speichercontroller sitzt, als dies für den DRAM des gleichen Speicherkanals der Fall ist.

» zur Galerie

Es gibt Unterschiede in der Art und Weise, wie die Applikationen mit einer gemischten Bestückung aus DRAM und Optane DC Persistent Memory umgehen bzw. diesen ansprechen. Im App Direct Mode erfolgt eine dedizierte Auslegung der Zugriffe auf den Speicher. Intel hat dazu ein Standard Programming Model entwickelt, über das alle Applikationen im App Direct Mode mit dem Optane DC Persistent Memory sprechen.

Im zweiten Modus, dem Storage over App Direkt, wird der Optane DC Persistent Memory wie eine SSD oder HDD behandelt. Es gibt Blockgrößen und Dateisysteme, mit denen die Daten auf den Speicher geschrieben und davon gelesen werden können. Zudem gibt es noch einen Mixed Mode, in dem bestimmte Speicherkanäle jeweils unterschiedlich angesprochen werden können.

» zur Galerie

Für die Kommunikation mit dem Optane DC Persistent Memory wird das DDR-T Protokoll verwendet. Zugriffe auf den Optane DC Persistent Memory laufen immer über den DRAM. Dieses ist elektrisch und mechanisch identisch zum DDR4-Interface. Alle Daten werden im flüchtigen und nichtflüchtigen Speicher verschlüsselt abgelegt. Der dazugehörige Key befindet sich ausschließlich auf dem DIMM. Der Key wird bei jedem Boot und bei jedem Verlust an Versorgungsspannung verworfen und erneut erstellt. Somit sollen nicht berechtigte Speicherzugriffe über eine mechanische Manipulation verhindert werden.

Die Module mit Optane DC Persistent Memory sind nicht gerade sparsam, lassen sich in ihrem Verbrauch und damit in der Leistung aber konfigurieren. Zwischen 12 bis 18 W sind in 0,25-W-Schritten einstellbar. Abhängig von den jeweiligen Zugriffen auf den Speicher (lesen/schreiben) und der Konfiguration der Leistung liegt die Bandbreite zwischen 0,73 und 8,3 GB/s für ein DIMM.

Leistungswerte des Optane DC Persistent Memory

» zur Galerie

Neben der Leistung des Speichers stellt sich natürlich die Frage nach dessen Haltbarkeit. Laut Intel sind die Module des Optane DC Persistent Memory auf eine PBW (Petabyte Written) von etwas mehr als 200 bis über 350 PBW ausgelegt. Die Auslegung erfolgt auf einen dauerhaften Betrieb für fünf Jahre und ist abhängig vom jeweiligen Anwendungsfall. Je größer der Anteil der gelesenen Daten ist, desto höher ist die PBW. Es besteht auch eine Abhängigkeit zwischen der Lebensdauer und der Kapazität und dem Betriebsmodi hinsichtlich der Leistung bzw. Leistungsaufnahme. Obige Werte sind für den mittleren Bereich von 15 W pro Modul berechnet. Werden sie mit nur 12 W betrieben, sollen sie entsprechend länger halten.

» zur Galerie

Obiges Diagramm veranschaulicht noch einmal die Position des Optane DC Persistent Memory im Speichersystem. Die Latenzen sind durch die Bank besser als bei den Optane DC SSDs und klassischen NAND SSDs, doch diese haben bei großen Blöcken (4 KB) einen Vorteil hinsichtlich der Datenraten, den sie bei kleineren Blöcken (64 Bytes und 256 Bytes) natürlich gegenüber dem Optane DC Persistent Memory auch wieder verlieren. Die feinere Granularität in den Daten und der schnelle Zugriff darauf spielen also eine wichtige Rolle für den Einsatz von Optane DC Persistent Memory.

» zur Galerie

Wie bereits erwähnt erfolgen Zugriffe auf den Optane DC Persistent Memory  immer über den DRAM. Die Datenrate des Speichers ist aber extrem von der jeweiligen Anwendung abhängig. Steigt bei gewünschter Bandbreite die Missrate, bleibt die Bandbreite bei 16 und 40 GB/s relativ stabil. Bei 110 GB/s steigt die Missrate aber deutlich an und die gewünschte Speicherbandbreite kann nicht gehalten werden. Für den Einsatz von Optane DC Persistent Memory gilt es also auch die jeweilige Anwendung und den Bedarf nach Speicherbandbreite abzuwägen.

In der Praxis soll sich der Vorteil aus dem Einsatz von Optane DC Persistent Memory vor allem durch die höhere Kapazität ergeben. Anstatt 12x 128 GB DDR4, also 1.536 GB, können nun 6x 128 GB (oder gar 6x 256 GB) + 6x 512 GB, also 3,84 TB (4,5 TB), pro Sockel verbaut werden. Die größere Kapazität kann beispielsweise dazu genutzt werden, jeder virtuellen Machine (VM) mehr Speicher zur Verfügung zu stellen, oder aber es macht mehr VMs insgesamt auf einer Maschine möglich. Zugleich können Daten, die zuvor eventuell nicht mehr in den DRAM gepasst haben, nun im größeren Optane DC Persistent Memory abgelegt werden und sind schneller zugänglich, als dies über eine Auslagerung auf eine SSD der Fall wäre.

Auch preislich soll der Optane DC Persistent Memory einen Vorteil bieten. Ein solcher DIMM mit 128 GB soll 577 US-Dollar kosten, mit 256 GB sind es jeweils 2.125 US-Dollar und die derzeit größten Optane-DC-Persistent-Memory-Module mit jeweils 512 GB sollen 6.751 US-Dollar kosten. DDR4 mit ECC kostet bei einer Modulgröße von 64 GB rund 700 US-Dollar und für 128 GB werden weit mehr als 1.000 US-Dollar aufgerufen.


Kommen wir nun zur eigentlichen Hardware. Insgesamt sieht Intel 52 verschiedene Modelle der Xeon-Scalable-Prozessoren der 2. Generation vor – inklusive der Spezialmodelle für Intels Speed Select Technology, für den Betrieb unter besonders hohen Umgebungstemperaturen und solche, die für Netzwerkanwendungen ausgelegt sind.

» zur Galerie

Die Namensgebung der Xeon-Scalable-Prozessoren der 2. Generation verläuft fast analog zur ersten Generation. Die zweite Zahl im Produktnamen zeichnet den Prozessor als ein Modell der 2. Generation aus. Die Kategorisierung in Platinum, Gold, Silver und Bronze kennen wir bereits.

Bei den Optionen kommen einige neue Serien hinzu. Die letzten Buchstaben des Modellnamens beschreiben die Zugehörigkeit zu einer bestimmten Serie. Den Überblick zu behalten ist nicht ganz einfach.

Auf die neue 9000-Serie der Xeon-Platinum-Prozessoren gehen wir in einer weiteren Meldung noch genauer ein. Als MCM-Design haben sie einige Besonderheiten, auf die wir gesondert eingehen wollen.

Kommen wir nun zu den einzelnen Prozessoren der High-End-Klasse:

Gegenüberstellung der Xeon-Scalable-Prozessoren der 2. Generation
Modell Kerne / Threads Basis- / TurboCacheTDPDCPMMPreis
Xeon Platinum 928256 / 112 2,6 / 3,8 GHz77 MB400 W--
Xeon Platinum 924248 / 96 2,3 / 3,8 GHz71,5 MB350 W--
Xeon Platinum 9222
32 / 64 2,3 / 3,7 GHz71,5 MB250 W--
Xeon Platinum 922132 / 64 2,1 / 3,7 GHz71,5 MB250 W--
Xeon Platinum 8280
28 / 56 2,7 / 4,0 GHz38,5 MB205 W10.009 USD
Xeon Platinum 8270
26 / 52 2,7 / 4,0 GHz35,75 MB205 W7.405 USD
Xeon Platinum 8268
24 / 48 2,9 / 3,9 GHz35,75 MB205 W6.302 USD
Xeon Platinum 8256
24 / 48 3,8 / 3,9 GHz16,5 MB105 W7.007 USD
Xeon Gold 6254 18 / 36 3,1 / 4,0 GHz24,75 MB200 W3.803 USD
Xeon Gold 6244 8 / 16 3,6 / 4,4 GHz24,75 MB150 W2.925 USD
Xeon Gold 6242 16 / 32 2,8 / 3,9 GHz22 MB150 W2.529 USD
Xeon Gold 6234 8 / 16 3,3 / 4,0 GHz24,75 MB130 W2.214 USD
Xeon Gold 6226 12 / 24 2,8 / 3,7 GHz19,25 MB125 W1.776 USD
Xeon Gold 5222 4 / 8 3,8 / 3,9 GHz16,5 MB105 W1.221 USD
Xeon Gold 5217 8 / 16 3,0 / 3,7 GHz16,5 MB115 W1.522 USD
Xeon Gold 5215 10 / 20 2,5 / 3,4 GHz16,5 MB85 W1.221 USD
Xeon Silver 4215 8 / 16 2,5 / 3,5 GHz16,5 MB85 W794 USD

Unter allen oben genannten Modellen unterstützten der Xeon Platinum 8280 und der Xeon Gold 5215 auch DDR4-Speicher mit 256 GB pro Modul. Diese mit einer maximalen Unterstützung von 4,5 TB werden als gesondertes Modell verkauft. Preise zur Xeon-Platinum-9200-Serie gibt es aktuell noch nicht.

» zur Galerie

Scalable-Performance-Modelle:

Gegenüberstellung der Scalable-Performance-Modelle
Modell Kerne / Threads Basis- / TurboCacheTDPDCPMMPreis
Xeon Platinum 827628 / 56 2,2 / 4,0 GHz38,5 MB165 W8.719 USD
Xeon Platinum 826024 / 48 2,4 / 3,9 GHz35,7 MB165 W
4.702 USD
Xeon Platinum 8253
16 / 32 2,2 / 3,0 GHz35,7 MB165 W3.115 USD
Xeon Gold 625224 / 48 2,1 / 3,7 GHz35,75 MB150 W3.665 USD
Xeon Gold 6248
20 / 40 2,5 / 3,9 GHz27,5 MB150 W3.072 USD
Xeon Gold 6240 18 / 36 2,6 / 3,9 GHz24,75 MB150 W2.445 USD
Xeon Gold 6238
22 / 44 2,1 / 3,7 GHz30,25 MB140 W2.612 USD
Xeon Gold 6230
20 / 40 2,1 / 3,9 GHz27,5 MB125 W1.894 USD
Xeon Gold 5220 18 / 36 2,2 / 3,9 GHz24,75 MB125 W1.555 USD
Xeon Gold 5218 16 / 32 2,3 / 3,9 GHz22 MB125 W1.273 USD
Xeon Silver 4216 16 / 32 2,1 / 3,2 GHz16,5 MB100 W1.002 USD
Xeon Silver 4214
12 / 24 2,2 / 3,2 GHz16,5 MB85 W694 USD
Xeon Silver 4210
10 / 20 2,2 / 3,2 GHz13,75 MB85 W501 USD
Xeon Silver 4208
8 / 16 2,1 / 3,2 GHz11 MB85 W417 USD
Xeon Bronze 3204 6 / 12 1,9 / 1,9 GHz8,25 MB85 W213 USD

Unter allen oben genannten Modellen sind weitere, die DDR4-Speicher mit 256 GB pro Modul unterstützen. Auch hier gibt es dann jeweils eine zweite Variante des Xeon Platinum 8276, 8260, 8253 sowie des Xeon Gold 6240 und 6238. 

Kommen wir zu den Spezialmodellen:

Gegenüberstellung der Scalable-Performance-Modelle
Modell Kerne / Threads Basis- / TurboCacheTDPDCPMMPreis
Xeon Platinum 8260Y24 / 48 2,4 / 3,9 GHz35,75 MB165 W5.320 USD
Xeon Gold 6240Y18 / 36 2,6 / 3,9 GHz24,75 MB150 W
2.726 USD
Xeon Silver 4214Y
12 / 24 2,2 / 3,2 GHz16,5 MB85 W-768 USD
Xeon Gold 6252N24 / 48 2,3 / 3,6 GHz35,75 MB150 W3.984 USD
Xeon Gold 6230N
20 / 40 2,3 / 3,5 GHz27,5 MB125 W2.046 USD
Xeon Gold 5218N 16 / 32 2,3 / 3,9 GHz22 MB105 W1.375 USD
Xeon Gold 6262V
24 / 48 1,9 / 3,6 GHz33 MB135 W2.900 USD
Xeon Gold 6222V
20 / 40 1,8 / 3,6 GHz27,5 MB115 W1.600 USD
Xeon Gold 6238T 22 / 44 1,9 / 3,7 GHz30,25 MB125 W2.742 USD
Xeon Gold 6230T 20 / 40 2,1 / 3,9 GHz27,5 MB125 W1.988 USD
Xeon Gold 5220T 18 / 36 2,2 / 3,9 GHz24,75 MB105 W1.727 USD
Xeon Silver 4209T
8 / 16 2,2 / 3,2 GHz11 MB70 W-501 USD
Xeon Gold 5220S
18 / 36 2,7 / 3,9 GHz24,75 MB125 W2.000 USD

Soweit zur extrem breiten Produktpalette der Xeon-Scalable-Prozessoren der 2. Generation.

Für einige Modelle spricht Intel von einem Leistungsplus im Bereich von Faktor 1,6. Wenn man sich die einzelnen Modelle etwas genauer anschaut und mit den Vorgänger vergleicht, hebt Intel aber nicht nur den Takt leicht an, sondern spendiert den neuen Modellen auch mehr Kerne. Hatte der Intel Xeon 6130 derer nur 16, sind es beim Xeon 6230N nun 20. Analog lässt sich dies für einige weitere Modellvarianten feststellen.

Wir sind von Intel mit zwei Xeon Platinum 8280 versorgt worden und haben uns auch die weitere Hardware organisiert, um einige Tests machen zu können. Diese werden wir dann entsprechend nachreichen.

» zur Galerie

Auf der Veranstaltung bei Intel wurden natürlich auch einige Anwendungsszenarien präsentiert. Unter anderem vergleicht man die Leistung eines Cascade-Lake-AP mit 48 Kernen (also nicht das Topmodell) gegen AMDs EPYC 7602 mit 64 Kernen. Die Molekül-Simulation läuft auf dem Cascade-Lake-AP-System mit 10,65 ns pro Tag, auf dem EPYC-Prozessor mit 9,86 ns pro Tag. Was Intel mit den Xeon Platinum 8180 mit 28 Kernen nicht gelungen ist, machen die MCM-Xeons mit 48 Kernen in diesem Vergleich nun wieder möglich.

DL-Boost soll die automatische Auswertung von medizinischen Daten beschleunigen. Intel sprich hier vom Faktor fünf durch die Verwendung von INT8 anstatt FP32. Content Devilery Networks sollen durch die Vorhaltung besonders gefragter Daten im Optane DC Persistent Memory für eine schnellere Auslieferung sorgen, was zugleich für weniger Last im CDN selbst sorgt. CDNs, die große Datenmengen ausliefern, messen hier in Time to Last Byte (TTLB) und Videostreaming-Dienste in Time to First Frame (TTFF). In beiden Fällen soll der Optane DC Persistent Memory dazu beitragen, dass die Daten schneller und selbst bei hoher Bandbreite mit geringer Last aufgeliefert werden können.

Im Zusammenspiel mit der neuen Netzwerk-Hardware, die bis zu 800 MBit/s erreicht, ergeben sich für Intel weitere Synergien, die man dem Datacenter-Kunden weitergeben möchte. Auch wir werden uns einige dieser Bereiche wie die Leistung in großen Datenbanken und für das Training und Inferencing von Deep-Learning-Netzwerken noch anschauen.