> > > > Neuer Supercomputer mit NVIDIAs ARM-Prozessoren und GPUs

Neuer Supercomputer mit NVIDIAs ARM-Prozessoren und GPUs

Veröffentlicht am: von
nvidia

Das Barcelona Supercomputing Center (BSC) entwickelt einen neuen Hybrid-Supercomputer, bei dem zum ersten Mal eine Kombination aus NVIDIAs stromsparenden ARM-basierten Tegra-CPUs in Kombination mit CUDA-GPUs zum Einsatz kommen. Ob es sich dabei schon um die Quad-Core-Tegra-3-Modelle handelt ist allerdings nicht bekannt. Endgültiges Entwicklungsziel des BSC ist, einen Exascale-Supercomputer zu realisieren, der 15- bis 30-mal weniger Energie als heutige Supercomputer verbraucht. Im Rahmen des so genannten EU Mont-Blanc Project werden HPC-Architekturen der nächsten Generation und Exascale-Applikationen entwickelt, die auf solchen energieeffizienten Lösungen ablauffähig sind. Erst kürzlich hat ARM seine neue ARMv8-Architektur vorgestellt, die auch 64-Bit-Befehlssätze ausführen kann. Hersteller wie AppliedMicro haben bereits Prozessoren angekündigt, die über bis zu 128 Kerne verfügen.

bsc-barcelona

"In heutigen Systemen verbrauchen CPUs den Löwenanteil an Energie, oft 40 Prozent oder mehr", betont Alex Ramirez, Leiter des Mont-Blanc-Projektes. "Im Vergleich dazu basiert die Mont-Blanc-Architektur auf energieeffizienten Rechenbeschleunigern und ARM-Prozessoren, die in Embedded-Systemen und mobilen Geräten genutzt werden, um eine 4- bis 10-fache Verbesserung der Energieeffizienz bis 2014 zu erreichen."

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (17)

#8
customavatars/avatar19920_1.gif
Registriert seit: 24.02.2005

Das was [email protected] sagt
Mäkeltante
Beiträge: 24504
Zitat Chezzard;17895271
PS: Was machst du so spät hier noch? Überstunden?


Wenn man sein Hobby zum Beruf macht, hat man kein Hobby mehr. Da sind leider die Grenzen fließend.. ;)
#9
Registriert seit: 28.03.2008

Oberbootsmann
Beiträge: 864
So interessant ich ARM CPUs auch finde, für den Einsatz in HPC Anwendungen sehe ich die Chancen von ARM CPUs eher kritisch.
Man erreicht vielleicht eine extrem hohe theoretische Rechenleistung, aber auch bei XEON oder Opteron Clustern sind heute schon meist Speicheranbindung und Kommunikation zwischen Rechnern oder CPUs begrenzend bezogen auf die Skalierbarkeit. Zumindest wenn man voneinander abhängige Daten zu verarbeiten hat.
Für stumpfe Algorithmen, wie z.B. Passwörter durchprobieren (skaliert linear mit Anzahl der Kerne) mag das alles eine super Lösung sein, komplexere Systeme zu Simulieren, wo öfter mal Gigabytes an Daten im RAM aktualisiert oder verschoben werden sind die Limits aber halt öfter Speicheranbindung und Interconnects wie Infiniband. Und je mehr Recheneinheiten beteiligt sind, destso höher ist der Kommunikations, Speichermanagement und Infrastrukturaufwand.

Eigentlich kann man ganz einfach sagen, es fehlen oft sinvolle Anwendungen die auf mehr als 1000 Kernen gut skalieren.
#10
customavatars/avatar64398_1.gif
Registriert seit: 21.05.2007
Wien
Kapitän zur See
Beiträge: 3745
Zitat [email protected];17895936
So interessant ich ARM CPUs auch finde, für den Einsatz in HPC Anwendungen sehe ich die Chancen von ARM CPUs eher kritisch.
Man erreicht vielleicht eine extrem hohe theoretische Rechenleistung, aber auch bei XEON oder Opteron Clustern sind heute schon meist Speicheranbindung und Kommunikation zwischen Rechnern oder CPUs begrenzend bezogen auf die Skalierbarkeit. Zumindest wenn man voneinander abhängige Daten zu verarbeiten hat.
Für stumpfe Algorithmen, wie z.B. Passwörter durchprobieren (skaliert linear mit Anzahl der Kerne) mag das alles eine super Lösung sein, komplexere Systeme zu Simulieren, wo öfter mal Gigabytes an Daten im RAM aktualisiert oder verschoben werden sind die Limits aber halt öfter Speicheranbindung und Interconnects wie Infiniband. Und je mehr Recheneinheiten beteiligt sind, destso höher ist der Kommunikations, Speichermanagement und Infrastrukturaufwand.

Eigentlich kann man ganz einfach sagen, es fehlen oft sinvolle Anwendungen die auf mehr als 1000 Kernen gut skalieren.


Man kann nicht den Weg in die Vergangenheit gehen!

Multithreaded muss kommen. Wenn ihr wisst das die Hersteller unfug machen müsst ihr es ihnen mitteilen!
#11
Registriert seit: 28.03.2008

Oberbootsmann
Beiträge: 864
Die "Hersteller" sitzen teilweise im Büro nebenan, es sind Problemstellungen, die eben nicht so einfach zu parallelisieren sind.
Meist sind es 3 dimensionale Systeme die voeneinander abhängige Daten haben. Um den nächsten Zeitschritt zu berechnen sind eben die Daten des vorherigen nötig und nicht nur die von einem Punkt aus dem System sondern auch von den umliegenden in alle richtungen.
Mit Systemgrößen bis zu mehreren 100GByte. Teilweise ist das Speichermanagement schon recht ausgefeilt, so dass für uninteressante Daten kein Platz benötigt wird um größere Gesamtsysteme simulieren zu können.

Teilweise wird auch komerzielle Software eingesetzt aber auch die skaliert nicht immer gut, je nach Problemstellung halt.
In den seltensten Fällen baut man ja einen großen Cluster um viele kleine voneinander unabhängige Rechnungen durchzuführen. Meist gehts ja um große komplexe Systeme und da gibt es halt Abhängigkeiten.

Immer über die Hersteller zu schimpfen ist einfach, aber selber mal was entwickeln, was bei komplexer Problemstellung bei >64 Kernen noch gut skaliert macht ja auch kaum einer.
#12
customavatars/avatar64398_1.gif
Registriert seit: 21.05.2007
Wien
Kapitän zur See
Beiträge: 3745
ok da hast du recht server funktionieren noch halbwegs, aber was ist mit den desktops, man muss sich alleine die ssd entwicklung anschauen.

Wieviele Büros verwenden Datenspeicher und Datenbearbeitung, da hätte der Fortschritt voranschreiten können.
#13
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33804
Zitat [email protected];17898188
Teilweise wird auch komerzielle Software eingesetzt aber auch die skaliert nicht immer gut, je nach Problemstellung halt.
In den seltensten Fällen baut man ja einen großen Cluster um viele kleine voneinander unabhängige Rechnungen durchzuführen. Meist gehts ja um große komplexe Systeme und da gibt es halt Abhängigkeiten.


Wobei man sagen muss, das sich die Technik für die Vernetzung der Clusternodes auch immer weiter entwickelt.
Das ganze dürfte denke ich so nahezu 1:1 skalieren. Sprich die Rechenleistung pro Node steigt wohl ähnlich stark wie die Bandbreiten intern. (wenn man gewisse längere Zeiträume betrachtet)

Das Größte Problem bleibt aber wohl die Anzahl der Ausführungseinheiten und die intelligente Aufteilung der Aufgaben auf eben diese. Hier muss wohl die Software ebenso 1:1 mit skalieren, was sie aber wohl nicht tut ;)


PS:
das Bild oben im Artikel scheint älter als die Meldung selbst zu sein, mir ist grad das hier über den Weg gelaufen:
http://www.bsc.es/media/366.jpg
Laut Aufschrift wohl von 2005... Zumindst gleicht die die Verkablung quasi 1:1 was dafür spricht, das es nicht das Bild der neuen Kisten ist :fresse:
#14
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Nicht nur ARM wird gefördert Nvidia hat wohl gerade auch ein recht großes Projekt mit Cray und seinen neuen Kepler GPUs am Start

Google Übersetzer
#15
Registriert seit: 09.04.2011

Kapitänleutnant
Beiträge: 1568
Zitat [email protected];17895936

Man erreicht vielleicht eine extrem hohe theoretische Rechenleistung, aber auch bei XEON oder Opteron Clustern sind heute schon meist Speicheranbindung und Kommunikation zwischen Rechnern oder CPUs begrenzend bezogen auf die Skalierbarkeit.

Das Problem wurde in den letzten Jahren dadurch umgangen in dem die Hersteller die Knoten in NUMA Systeme umgewandelt haben. Jetzt hat man in so einem Cluster nicht mehr nur die Aufteilung in Knoten sondern auch noch in NUMA Knoten. Der übliche Weg die Kommunikation zwischen den Knoten zu realisieren ist MPI, daß dann physikalisch meist über Infiniband übertragen wird. (IB FDR ist in einigen Testsysteme im Einsatz.)

Mit OpenMP kann man bequem nur auf einem NUMA Knoten rechnen, für das Skalieren über NUMA Knoten hinweg, muß man sich mit der libnuma herumschlagen, das bedeutet einen nicht unerheblichen Mehraufwand.

Zitat [email protected];17895936

Eigentlich kann man ganz einfach sagen, es fehlen oft sinvolle Anwendungen die auf mehr als 1000 Kernen gut skalieren.

Es gibt Programme aus der Festkörperphysik oder Quantenchemie, die das hinbekommen.
#16
Registriert seit: 28.03.2008

Oberbootsmann
Beiträge: 864
Ich sagte nicht, dass es solche Programme garnicht gibt, es gibt nur eben noch genug Programme die andere Problemstellugnen angenen, die eben nicht so gut
skalieren.

MPI über Infiniband ist eben auch immer mit etwas Aufwand und Kosten für Infrastruktur verbunden. Ein port am IB-switch in einer non-blocking Infrastruktur kostet ab einer gewissen Größe deutlich mehr als so ein paar ARM CPUs.
Vor allem ist oben ja schon erwähnt, dass die über 10GBe kommunizieren sollen.
Meist sind ja eher die Latenzen als die Bandbreite problematisch.

Wenn man den Energieverbrauch wirklich um Faktoren drücken will und CPUs ca. 40% des gesammternergieverbrauchs ausmachen kommt man eh nicht drumherum, auch Infrastruktur neu zu entwickeln. Fest auf Platinen aufgebrachte Interconnects könnten Netzwerkgeräte überflüssig machen. Von so ein paar ARM cpus passen ja doch einige auf eine Platine.
#17
Registriert seit: 09.04.2011

Kapitänleutnant
Beiträge: 1568
Zitat [email protected];17900794

Wenn man den Energieverbrauch wirklich um Faktoren drücken will und CPUs ca. 40% des gesammternergieverbrauchs ausmachen kommt man eh nicht drumherum, auch Infrastruktur neu zu entwickeln.

Das gibt es schon: IBM BlueGene. Und die Dinger sind in der neusten Version Energie effizienter als GPGPU Systeme.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Intel kämpft mit schwerer Sicherheitslücke (Update: Intel veröffentlicht...

Logo von IMAGES/STORIES/2017/INTEL

Vor, während und zwischen den Feiertagen herrschte ein wildes Treiben in der Linux-Community. Zunächst war nicht ganz klar, was hier genau vor sich geht, inzwischen aber scheinen die Auswirkungen deutlich zu werden: Intel hat nach einer Lücke in der Management Unit eines jeden... [mehr]

Coffee Lake: Intel Core i7-8700K, i5-8600K und i5-8400 im Test

Logo von IMAGES/STORIES/2017/INTEL8GEN

Der sechste und letzte (?) CPU-Launch in diesem Jahr kommt von Intel: Mit den unter dem Codenamen Coffee Lake zusammengefassten Core-i7- und i5-Modellen kommen bei Intel erstmals Sechskern-Prozessoren in den Mainstream-Markt. Bedanken darf man sich aber wohl nicht bei Intel, sondern bei der... [mehr]

Coffee Lake: Overclocking-Check

Logo von IMAGES/STORIES/LOGOS-2016/KABYLAKE

Nach dem ausführlichen Overclocking-Check für Skylake-Prozessoren sowie dem Overclocking-Check für Kaby Lake-Prozessoren ist es nach Veröffentlichung der neuen Generation mit Codenamen Coffee-Lake erneut Zeit für einen Overclocking-Check. Wir werfen einen Blick auf die Übertaktbarkeit... [mehr]

Threadripper: AMDs Ryzen Threadripper 1950X und 1920X im Test

Logo von IMAGES/STORIES/2017/THREADRIPPER_TEASER

AMD strotzt vor Selbstbewusstsein: Wie lässt es sich sonst erklären, dass man ein Produkt mit einem so coolen Namen ausstattet? Die als "Threadripper" bezeichneten Ryzen-Prozessoren sollen AMD in den Benchmarks an den ersten Rang katapultieren - zumindest in Thread-intensiven Benchmarks. Wir... [mehr]

Intel vs. AMD, Akt 2: Skylake-X und Kaby-Lake-X im Test gegen Ryzen

Logo von IMAGES/STORIES/2017/7900AUFMACHER

In den letzten Monaten wurde die CPU-Vorherrschaft von Intel gebrochen und den Prozessormarkt durcheinandergewirbelt. Nach dem Ryzen-Tornado blieb Intel nichts anderes über, als mit schnell vorgestellten neuen Multikern-Prozessoren aus der X-Serie auf sich aufmerksam zu machen. Mit dem Core i9... [mehr]

Intel Core i5-8250U und i7-8550U im Test: Mal ein kleiner, mal ein großer...

Logo von IMAGES/STORIES/2017/MEDION_P7649_KABY_LAKE_REFRESH

Im Gleichschritt marschierten Intels Desktop- und Mobil-Prozessoren schon länger nicht mehr. Ein so gravierender Unterschied wie derzeit ist aber völlig neu - und für den Verbraucher einmal mehr irritierend. Denn mit der 8. Core-Generation spendiert Intel beiden Plattformen eine eigene... [mehr]