> > > > AMDs EPYC-CPUs und NVIDIAs Tesla-GPUs für gemeinsam 100 PFLOPS

AMDs EPYC-CPUs und NVIDIAs Tesla-GPUs für gemeinsam 100 PFLOPS

Veröffentlicht am: von

amd-epyc-2Die Entstehung eines neuen Supercomputers ist für die beteiligten Unternehmen immer eine Gelegenheit, die eigenen Produkte in den Fokus zu rücken. Schaut man sich die aktuelle Top500-Liste der Supercomputer an, ist darunter nur noch ein einziges System mit AMD-Prozessoren. Der Titan setzt auf den Cray XK7 und das System wiederum auf Opteron 6274 mit jeweils 16 Kernen. Darüber hinaus sind Supercomputer mit Prozessoren aus dem Hause AMD eher rar.

Doch aufgrund der technischen Stärke der EPYC-Prozessoren, will AMD in diesem Bereich eine größere Rolle spielen und hat zusammen mit dem US-Energieministerium (DOE) sowie dem Lawrence Berkeley National Laboratory’s National Energy Research Scientific Computing Center (NERSC) einen neuen Supercomputer namens "Perlmutter" angekündigt. Benannt ist das System nach dem Astrophysiker Saul Perlmutter, der 2011 gemeinsam mit Brian P. Schmidt und Adam Riess für die Entdeckung der beschleunigten Expansion des Universums den Nobelpreis für Physik erhalten hat.

Der Supercomputer soll 146 Millionen US-Dollar kosten und 2020 in Betrieb gehen. Da es bis dahin sicherlich noch einige Entwicklungsschritte hinsichtlich der Hardware geben wird, ist über diese recht wenig bekannt. Ausführendes Unternehmen wird der Hersteller Cray sein, der verschiedenste Plattformen für Supercomputer im Angebot hat – unter anderem die neuen Cray-Shasta-Systeme. 

In diesem Fall sollen EPYC-Prozessoren von AMD und GPU-Beschleuniger aus dem Hause NVIDIA für die Rechenleistung von mindestens 100 PFLOPS sorgen. Je nach Entwicklung der Hardware können es aber auch bis zu 300 PFLOPS sein und damit läge der Perlmutter-Supercomputer in den Top5 der aktuellen Liste der Supercomputer, in der es bis 2020 aber noch einiges an Bewegung geben wird.

Welche Hardware nun genau zum Einsatz kommen wird, ist unklar. Die Pressemitteilung spricht nur von AMDs EPYC-Prozessoren und da die Inbetriebnahme für das Jahr 2020 vorgesehen ist, kommen die "Rome"-Modelle, die im kommenden Jahr vorgestellt werden sollen ebenso in Frage wie deren Nachfolger "Milan". Erst gestern berichteten wir darüber, dass AMD für die EPYC-Prozessoren der zweiten Generation auf bis zu neun Dies setzen könnte.

Die verwendeten NVIDIA-GPUs sollen auf Tensor Cores setzen, die in der aktuellen Volta- und Turing-Architektur zum Einsatz kommen. Hinzu kommt ein von Cray entwickelter Interconnect namens Slingshot und ein All-Flash-Speichersystem, welches 4 TB/s an Daten übertragen können soll.

Anfang November wird die Supercomputing 2018 stattfinden und von dort erwarten wir uns noch weitere Neuigkeiten aus diesem Bereich.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (15)

#6
Registriert seit: 09.04.2011

Kapitänleutnant
Beiträge: 1698
Zitat Gamerkind;26607487

Wäre halt toll, wenn NVIDIA auch CCIX unterstützt.
Aber wahrscheinlich kommt das nicht:\

Wozu? NVLink ist deutlich schneller, und IBMs POWER9 hat das schon direkt in der CPU eingebaut.
#7
customavatars/avatar39948_1.gif
Registriert seit: 10.05.2006

Fregattenkapitän
Beiträge: 3038
Zitat jdl;26607476
Die EPYCs taugen nur dazu für die nVidia GPGPUs die IO-Arbeit zu machen. Wegen der vielen PCIe Lanes, sind die EPYCs dafür ideal und senken so die Kosten. Fürs Numbercrunchen selbst taugen die EPYCs nicht, weil sie mangels AVX-512 nicht mit Intel CPUs mithalten können.


Diese allgemeine Aussage ist wie alle allgemeinen Aussagen: Unfug

Wait What? Epyc Is Actually Faster Than Xeon In Real World Use Cases That Leverage AVX-512? : AMD_Stock
#8
customavatars/avatar287074_1.gif
Registriert seit: 29.08.2018

Oberleutnant zur See
Beiträge: 1459
Zitat jdl;26607518
Wozu?

Weil es NVLink nicht bei Intel/AMD gibt und zumindest AMD CCIX unterstützt.
Weil CCIX mehr als doppelt so schnell wie PCIe 4.0 ist?

PCIe 4.0 = 16Gb/s
CCIX auf PCIe 4.0 basierend = 25Gb/s
NVLink 2.0 = 25Gb/s

NVIDIA erreich nur eine höhere Geschwindigkeit, weil sie mehr Lanes nutzen.

Die nächste Generation von CCIX soll schon 50Gb/s erreichen.
#9
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 31415
Zitat jdl;26607476
Die EPYCs taugen nur dazu für die nVidia GPGPUs die IO-Arbeit zu machen. Wegen der vielen PCIe Lanes, sind die EPYCs dafür ideal und senken so die Kosten. Fürs Numbercrunchen selbst taugen die EPYCs nicht, weil sie mangels AVX-512 nicht mit Intel CPUs mithalten können.


Es wird Teile des Supercomputers geben, die CPU-only sind und solche bei denen die EPYC-Prozessoren tatsächlich hauptsächlich der Anbindung der GPU-Beschleuniger dienen. Aber sie nur als IO-Chip zu sehen ist sicher nicht richtig.
#10
Registriert seit: 13.09.2014

Obergefreiter
Beiträge: 71
Weiß jemand eine Quelle wo man nachlesen kann wann es mit den Supercomputern los ging ?
Mich würde mal interessieren, welche Leistung der erste gelistete Supercomputer hatte.

#11
Registriert seit: 08.05.2018

Oberleutnant zur See
Beiträge: 1293
weniger als eine smartwatch würde ich tippe. gab ja schon analoge superrechner
#12
customavatars/avatar39948_1.gif
Registriert seit: 10.05.2006

Fregattenkapitän
Beiträge: 3038
Wikipedia "Supercomputer":
"Der erste offiziell installierte Supercomputer Cray-1 schaffte 1976 130 MegaFLOPS."

Zum Vergleich: Die GPU eines SD810 hat ca. 350 GigaFLOPS.
#13
Registriert seit: 01.09.2017

Matrose
Beiträge: 29
Zitat Don;26607889
Es wird Teile des Supercomputers geben, die CPU-only sind und solche bei denen die EPYC-Prozessoren tatsächlich hauptsächlich der Anbindung der GPU-Beschleuniger dienen. Aber sie nur als IO-Chip zu sehen ist sicher nicht richtig.


Die Realität ist noch ein wenig komplizierter. Denn oft hängt es vom Solver (Software) ab. Was für Hardware genutzt wird und auch wie gut.
Es gibt manche Solver die skallieren gut mit vielen Cores. Andere wiederum kommen gut mit Cuda bzw. OpenCL klar.
Wieder andere sagen, schön das du 32 Kerne zur Verfügung hast, ich (Solver) nutze trotzdem nur 2.
#14
Registriert seit: 09.04.2011

Kapitänleutnant
Beiträge: 1698

Die strukturellen Schwächen von SPECfp für Multithreading Systeme sind hoffentlich bekannt? Linpack liefert deutlich bessere Aussagen über optimale Parallelisierung als Linpack, obwohl AMD in der Vergangenheit den Linpack immer geschönt hat. Sprich die AMD Implementation der BLAS war nur auf DGEMM optimiert und der Rest wurde sehr vernachlässigt. Wie sehen die aktuellen Werte für BLAS und LAPACK für EPYC aus? Intel liefert die MKL mit sehr guter Performance, was liefert AMD ab?

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat Gamerkind;26607621

NVIDIA erreich nur eine höhere Geschwindigkeit, weil sie mehr Lanes nutzen.

Entscheidend ist, was in der Realität möglich ist. CCIX wird es wohl kaum für nVidia geben, sondern nur NVLink, und das ist nun einmal aktuell schneller als CCIX.

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat Don;26607889
Es wird Teile des Supercomputers geben, die CPU-only sind und solche bei denen die EPYC-Prozessoren tatsächlich hauptsächlich der Anbindung der GPU-Beschleuniger dienen. Aber sie nur als IO-Chip zu sehen ist sicher nicht richtig.

Der große Preisvorteil bei EPYC ergibt sich aus der Tatsache, dass man nur eine CPU für einen GPGPU Knoten braucht. Wie sehen echte Rechnungen auf dem EPYC bei AMD aus? Synthetische Benchmarks sind schön, aber nicht das alleinig seeligmachende.
#15
customavatars/avatar39948_1.gif
Registriert seit: 10.05.2006

Fregattenkapitän
Beiträge: 3038
Die strukturellen Schwächen deiner ersten Aussage sind auch bekannt? Aber hast ja inzwischen selbst angedeutet, dass es vom Anwendungsfall abhängt, welche CPU sinnvoller ist. Insofern alles gut...
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Interstellar: Hunderte CPUs berechnen schwarzes Loch

    Logo von IMAGES/STORIES/2017/SCHWARZES-LOCH

    Der Film Interstellar aus dem Jahre 2014 zeichnete sich vor allem durch eine möglichst realistische Darstellung und Simulation eines schwarzen Loches aus. Christopher und Jonathan Nolan schrieben das Drehbuch und zeichneten sich auch für die filmische Umsetzung verantwortlich. Der... [mehr]

  • Ende des Mining-Booms: Absätze bei den Grafikkarten brechen um bis zu 80 % ein...

    Logo von IMAGES/STORIES/2017/BITCOIN

    Investoren und Analysten mahnen seit Monaten vor einem Einbruch am Grafikkarten-Markt, doch bisher hat sich dies in den Absatz- und Umsatzzahlen der Hersteller noch nicht wirklich gezeigt. Nun mehren sich aber die Zeichen aus Asien, dass es ab März/April einen erheblich Einbruch bei den... [mehr]

  • Vodafone schaltet erste Gigabit-Anschlüsse über Kabel für 20 Euro

    Logo von IMAGES/STORIES/2017/VODAFONE_LOGO

    Vodafone versorgt ab sofort die ersten Kunden mit einer Geschwindigkeit von bis zu 1 Gbit/s. Das Unternehmen hat hierfür stellenweise sein Kabelnetz auf DOCSIS 3.1 umgerüstet und kann aktuell 400.000 Haushalte mit der schnellen Geschwindigkeit versorgen. Zu den ersten Städten mit der schnellen... [mehr]

  • Nachfrage bei den Grafikkarten soll weiter sinken

    Logo von IMAGES/STORIES/2017/BITCOIN

    Bereits im Mai deutete sich eine sprunghaft sinkende Nachfrage bei den Grafikkarten an, was besonders solche Hersteller zu spüren bekommen haben, die ausschließlich mit den Grafikkarten ihr Geld verdienen. Aus Taiwan kommen nun Meldungen, die eine sinkende bzw. geringe Nachfrage für die... [mehr]

  • Amazon geht mit manipulierten Paketen gegen Diebe vor

    Logo von IMAGES/STORIES/2017/AMAZON

    Amazon hat anscheinend mit immer größeren Problemen beim Diebstahl von Paketen zu kämpfen. Teilweise sollen die Lieferanten die Pakete verschwinden lassen und Amazon bleibt letztendlich auf dem Schaden sitzen. Wie ein Insider berichtet, soll das Unternehmen allerdings in der jüngeren... [mehr]

  • ASUS Software Updates mit Malware verseucht (2. Update)

    Logo von IMAGES/STORIES/2017/ASUS_LOGO

    Bereits mehrfach hat sich gezeigt, dass Software einiger Systemhersteller nicht wirklich mit Fokus auf eine möglichst hohe Software-Sicherheit entwickelt wird. So gab es bereits mehrfach große Sicherheitslücken in Software von ASUS und Gigabyte. Offenbar gab es bei ASUS aber auch noch andere... [mehr]