Seite 3: Benchmarks: Speicherbandbreite und Latenzen

Anzahl der Kerne, Taktraten – das sind die oberflächlichen Faktoren für die Leistung eines Prozessors. Schaut man aber eine Stufe genauer darauf, wie die Leitung Zustande kommt, dann spielen vor allem die Latenzen zu den einzelnen Speicherebenen eine wichtige Rolle und davon hat ein moderner Prozessor gleich mehrer. Also haben wir uns angeschaut, welche Latenz wir zum L1-, L2- und L3-Cache messen und nicht nur für die Ryzen-Prozessoren spielt die DRAM-Latenz eine wichtige Rolle, sondern auch bei den Serverprozessoren.

Cache- und Speicher-Latenzen

Cache-Latenzen

ns
Weniger ist besser

Für die L1- und L2-Cache-Zugriffe liegen die EPYC-Prozessoren mit der aktuellen Umsetzung von Intel in etwa gleichauf. Der L3-Cache ist, so lange sich die Daten auf dem gleichen CCD befinden, sogar schneller als bei Intel. Liegen die Daten jedoch im L3-Cache eines anderen CCDs, nehmen die Zugriffszeiten natürlich dramatisch zu (16,1 zu 102,3 ns). Dies gilt auch und vor allem für den L3-Cache-Zugriff auf dem zweiten Sockel.

AMD bietet hier zwar den deutlich größeren L3-Cache, kann was die Zugriffszeiten betrifft aber nicht mit Intel mithalten. Die Größe des Caches ist natürlich auch ein Faktor für die Latenzen, vor allem aber kommt Intel hier das monolithische Design entgegen, während sich die Daten bei AMD im Zweifel auf einem entfernten CCD befinden. Je nach Anwendung kann dies eine mehr oder weniger große Rolle spielen. Die Größe des L3-Caches und dessen Latenzen müssen also zueinander abgewogen werden.

Kommen wir nun zu den Lantenzmessungen des Arbeitsspeichers:

Cache- und Speicher-Latenzen

DRAM-Latenz Lesen

ns
Weniger ist besser

Cache- und Speicher-Latenzen

DRAM-Latenz Lesend - Remote-Socket

ns
Weniger ist besser

Sprechen wir vom DRAM-Adressbereich des Sockels kommt AMD hier auf Latenzen von knapp über 100 ns, während diese bei Intel etwa 20 % kürzer ausfallen. In einem ähnlichen Bereich, wenn auch absolut etwas höher, liegen wir für Speicherzugriffe auf den Speicher des zweiten Sockels.

Speicherbandbreite

Mit acht Speicherkanälen für DDR4-3200 konnte AMD lange den Vorteil der schnelleren Speicheranbindung auf seiner Seite verbuchen. Mit Ice Lake-SP und den dazugehörigen Xeon-Prozessoren bietet Intel aber nun ebenfalls acht Speicherkanäle für DDR4-3200 und kann dies sogar für zwei DIMMs pro Speicherkanal realisieren, während bei AMD nur ein DIMM pro Kanal für DDR4-3200 bestückt sein darf. Sind es zwei DIMMs, fällt die Speichergeschwindigkeit auf DDR4-2933 zurück. Aber für die Tests der Speicherbandbreite spielt dies zunächst einmal keine Rolle, da wir hier 32x 16 GB und damit nur einen DIMM pro Kanal eingesetzt haben.

Stream

Add

MB/s
Mehr ist besser

Stream

Copy

MB/s
Mehr ist besser

Stream

Scale

MB/s
Mehr ist besser

Stream

Triad

MB/s
Mehr ist besser

Allerdings ist Intel offenbar nicht nur in der Anzahl der Speicherkanäle und deren Geschwindigkeit nachgezogen, sondern bietet aufgrund einiger Optimierungen im Integrated Memory Controller offenbar auch grundsätzlich eine etwas höhere Speicherbandbreite. Ob diese höhere Speicherbandbreite auch in einer höheren Leistung resultiert, hängt natürlich auch von der jeweiligen Anwendung ab.