> > > > ARMv8 mit bis zu 128 Kernen und 3 GHz

ARMv8 mit bis zu 128 Kernen und 3 GHz

DruckenE-Mail
Erstellt am: von

arm_logoARM hat vor wenigen Tagen erste Details zur neuen ARMv-Architektur veröffentlicht, die erstmals auch 64-Bit-Befehlssätze verarbeiten kann. Als einer der ersten Kunden hat AppliedMicro nun einen SoC auf Basis dieser neuen Architektur vorgestellt. SoC steht dieses mal aber nicht für "System on a Chip", sondern für "Server on a Chip". Der X-Gene getaufte Chip verfügt über zwei bis 128 CPU-Kerne, die auch bei der maximalen Anzahl mit bis zu 3 GHz arbeiten. AppliedMicro gibt eine Leistungsaufnahme von maximal zwei Watt pro Kern an, so dass ein voll ausgebauter Prozessor auf einen Verbrauch von etwa 256 Watt kommt. Gefertigt werden soll der Chip von TSMC im 40 oder 28 nm Verfahren.

Da es sich bim X-Gene um einen SoC handelt, sind zahlreiche weitere Komponenten eines Servers direkt in den Chip integriert. Darunter auch ein 10Gbit Ethernet Controller. Es können auch mehrere X-Gene-Prozessoren in einer Multi-Chip-Konfiguration zusammengefasst werden. Diese sprechen dann über ein 100 GBit/s schnelles Interface miteinander. Zum Vergleich: Intels QPI zwischen den Xeon-Prozessoren kommt auf 204,8 GBit/s.

Den Stromverbrauch von maximal zwei Watt pro Kern haben wir bereits angesprochen. Doch entscheidend ist auch der Verbrauch im Idle-Betrieb. Dieser liegt bei 0,5 Watt, so dass ein X-Gene mit 128 Kernen zwischen 64 und 256 Watt verbraucht. Auch hier ein Vergleich zu konventionellen Servern: Ein Intel Xeon 5680 kommt auf 130 Watt. Dabei soll ein X-Gene-Prozessor aber bis zu dreimal schneller als ein auf Sandy Bridge basierender E3-Xeon-Prozessor sein.

Es wird aber noch einige Zeit dauern. bis erste Designs auf Basis der ARMv8-Architektur auf den Markt kommen werden. Zur Mitte nächsten Jahres werden die ersten Samples erwartet - auch AppliedMicro will dann erste X-Gene an die Kunden ausliefern.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (17)

#8
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Flottillenadmiral
Beiträge: 5797
Zitat Don;17798681
Doch entscheidend ist auch der Verbrauch im Idle-Betrieb. Dieser liegt bei 0,5 Watt, so dass ein X-Gene mit 128 Kernen zwischen 64 und 256 Watt verbraucht.

Sind diese 64 W unter Idle eine offizielle Angabe? Was ist mit Power-Gating? Beherrscht das der Prozessor nicht? Damit sollten doch Kerne komplett abgeschaltet werden können, so dass die Leistungsaufnahme unter Idle deutlich geringer ist.

Zitat Don;17798681
Dabei soll ein X-Gene-Prozessor aber bis zu dreimal schneller als ein auf Sandy Bridge basierender E3-Xeon-Prozessor sein.

Klingt jetzt nicht gerade prickelnd bei 128 Kernen, zumal diese auch recht hoch getaktet sind. Da ist wohl die Frage, ob GPU Architekturen in Zukunft nicht doch besser geeignet sind für solche Many-Core Prozessoren. Selbst wenn man Einschränkungen in der GP-Funktionalität hinnehmen müsste.
#9
customavatars/avatar135442_1.gif
Registriert seit: 31.05.2010

Leutnant zur See
Beiträge: 1073
Zitat mr.dude;17802205
Da ist wohl die Frage, ob GPU Architekturen in Zukunft nicht doch besser geeignet sind für solche Many-Core Prozessoren. Selbst wenn man Einschränkungen in der GP-Funktionalität hinnehmen müsste.

Du meinst die Richtung die nvidia mit ihren "Project Denver" einschlägt?
#10
customavatars/avatar64398_1.gif
Registriert seit: 21.05.2007
Wien
Kapitän zur See
Beiträge: 3296
Zitat scully1234;17801333
Hört sich zwar beeindruckend an 128Kerne mit 3GHZ Basistakt bei 256Watt nur lässt man sich nicht über deren Rechenleistung in Anwendungsszenarien aus.

128Kerne lassen sich nunmal schlechter auslasten wie 6 oder 8 mit HT bei Intel

Wenn er eine praxisbezogene Rechenleistung auf Höhe der Xeons hat wäre es natürlich auch wegen der 64bit Befehlssätze vielleicht ein attraktiver Gegenpol


Man wird früher oder später auf kerne setzen müssen!
#11
Registriert seit: 09.04.2011

Leutnant zur See
Beiträge: 1080
Zitat mr.dude;17802205
Da ist wohl die Frage, ob GPU Architekturen in Zukunft nicht doch besser geeignet sind für solche Many-Core Prozessoren. Selbst wenn man Einschränkungen in der GP-Funktionalität hinnehmen müsste.

Wenn man sich IBMs BlueGene/Prototypen anschaut, dieser führt momentan die Green500 an, dann würde ich eher sagen nein. Beim Prozessor handelt es sich um einen "normalen" 16+1 Core PowerA2.
#12
customavatars/avatar122193_1.gif
Registriert seit: 27.10.2009

Oberstabsgefreiter
Beiträge: 498
Zitat scully1234;17801333
Hört sich zwar beeindruckend an 128Kerne mit 3GHZ Basistakt bei 256Watt nur lässt man sich nicht über deren Rechenleistung in Anwendungsszenarien aus.

128Kerne lassen sich nunmal schlechter auslasten wie 6 oder 8 mit HT bei Intel

Wenn er eine praxisbezogene Rechenleistung auf Höhe der Xeons hat wäre es natürlich auch wegen der 64bit Befehlssätze vielleicht ein attraktiver Gegenpol


Das Ding ist auch nicht für den Desktop PC, denn da lassen sich sowieso meistens nicht mehr als 3 kerne auslasten wodurch das ding der mega epicfail wäre....sondern für serverfarmen die dann rechenkapazität für 100te anwendungen vermieten bzw. direkt VMs drauf laufen lassen.
Auf dem Desktop wird man wenn überhaupt mal so 4kerner ARMs als thin client sehen (mit win8 evtl.)
#13
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Flottillenadmiral
Beiträge: 5797
Zitat Timbaloo;17802626
Du meinst die Richtung die nvidia mit ihren "Project Denver" einschlägt?

Nein, ich meine eher die Richtung, in die zB AMD mit Fusion einschlägt. Das geht noch einen Schritt weiter als Denver. Auch sollte man Intels Tera Scale im Auge behalten. Ist zwar auf den ersten Blick ein ähnlicher Ansatz wie dieser ARM hier. Auf den zweiten Blick allerdings wesentlich fokussierter auf SIMD/MIMD (512/1024-bit) und daher mehr vergleichbar mit GPU Shadern. AMDs GCN Architektur wird zB ebenfalls auf 512-bit (16-wide FP32) Vektoreinheiten aufbauen. ARM bietet meines Wissens bisher nur eine 128-bit SIMD Pipeline.


Zitat jdl;17808629
Wenn man sich IBMs BlueGene/Prototypen anschaut, dieser führt momentan die Green500 an, dann würde ich eher sagen nein.

Dann sollte dir aber auch aufgefallen sein, dass sich bereits direkt dahinter GPU basierte Supercomputer einordnen. Und wir stehen hier gerade mal am Anfang dieser Entwicklung. Das Potenzial von GPUs bei Supercomputern ist noch nicht mal ansatzweise ausgeschöpft. Ganz abgesehen davon, dass es nicht nur um Energieeffizienz geht, sondern auch um maximale Rechenleistung und Anschaffungskosten. Und da ist Blue Gene nicht gerade die Messlatte.
#14
Registriert seit: 10.02.2005

Vizeadmiral
Beiträge: 6624
Zitat temnozor;17808692
Das Ding ist auch nicht für den Desktop PC, denn da lassen sich sowieso meistens nicht mehr als 3 kerne auslasten wodurch das ding der mega epicfail wäre....sondern für serverfarmen die dann rechenkapazität für 100te anwendungen vermieten bzw. direkt VMs drauf laufen lassen.
Auf dem Desktop wird man wenn überhaupt mal so 4kerner ARMs als thin client sehen (mit win8 evtl.)

1 Die hat nur 2 Kerne, die 128 Kerne gibts nur in SMP Aufbau mit dann eben 96 Sockel.
128Kerne auf einem DIE wären etwas viel, selbst für ARM :fresse:
#15
customavatars/avatar40366_1.gif
Registriert seit: 19.05.2006
unterwegs
SuperModerator
Märchenonkel
Jar Jar Bings
Beiträge: 21802
Es liest sich aber so, als wären maximal 128 Kerne pro SoC möglich.
#16
Registriert seit: 09.04.2011

Leutnant zur See
Beiträge: 1080
Zitat mr.dude;17809338

Dann sollte dir aber auch aufgefallen sein, dass sich bereits direkt dahinter GPU basierte Supercomputer einordnen. Und wir stehen hier gerade mal am Anfang dieser Entwicklung. Das Potenzial von GPUs bei Supercomputern ist noch nicht mal ansatzweise ausgeschöpft.

Dir sind die Probleme bei GPGPUs bekannt?
Das größte Problem ist die aufwendige Programmierung und der sehr begrenzte Arbeitsspeicher. Die GPGPUs sind nur sehr langsam mit dem System verbunden, das limitiert zusätzlich die Probleme für die man GPGPUs einsetzen kann. Selbst ein PCIe PEG Slot ist langsam, wenn man das mit dem Hauptspeicherdurchsatz eines aktuellen Mainboards vergleicht.

GPGPU Computing klingt ganz toll, aber in der Realität kann man sehr viele Probleme auf GPGPUs gar nicht rechnen, weil der Arbeitsspeicher nicht ausreichend ist. Das sind aber gerade die Bereiche der Naturwissenschaften, bei denen es den größten Bedarf an Computerrechenleistung gibt (Quantenchemie, Festkörperphysik, ...). Man muß sich also entweder auf alte Rechenverfahren begrenzen, die deutlich schlechtere Ergebnisse liefern, oder man muß die Problemgröße drastisch reduzieren. Was bei vielen Probleme in der Chemie den Rechner komplett unbrauchbar macht.

Zitat mr.dude;17809338

Ganz abgesehen davon, dass es nicht nur um Energieeffizienz geht, sondern auch um maximale Rechenleistung und Anschaffungskosten. Und da ist Blue Gene nicht gerade die Messlatte.

Bei großen Clustern wird die Luft sehr schnell sehr dünn, so daß man bei einem der großen Anbieter landet, der Preis ist somit meist vergleichbar hoch. Einfach mal so zusammenschrauben funktioniert nicht. Desweiteren sind die Klimakosten und der Stromverbrauch ein nicht unerhebliches Problem. Der Betrieb verschlingt bei einem Top100 Cluster Hunderttausende im oberen Bereich auch schnell mal Millionen von Euro pro Jahr.

Was die absolute Rechenleistung betrifft, schon einmal angeschaut wieviel BlueGene/Q Kerne IBM in ein Rack stopft? Laut Heise sind's 16.384 Kerne, und das Warmwasser gekühlt. Das spart massiv an Klimakosten.
#17
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Flottillenadmiral
Beiträge: 5797
Zitat jdl;17815973
Das größte Problem ist die aufwendige Programmierung und der sehr begrenzte Arbeitsspeicher. Die GPGPUs sind nur sehr langsam mit dem System verbunden, das limitiert zusätzlich die Probleme für die man GPGPUs einsetzen kann. Selbst ein PCIe PEG Slot ist langsam, wenn man das mit dem Hauptspeicherdurchsatz eines aktuellen Mainboards vergleicht.

Ich sag nur -> Fusion. Lies dich mal ins Thema ein. Die Entwicklung wird nicht auf dem Stand von heute stehen bleiben.

Neue GPU Architekturen werden mehr Funktionalität bieten, wodurch sie flexibler im Einsatz werden. Natürlich wird dann auch die Komplexität der Shader-Architektur steigen, was Auswirkungen auf die Effizienz hat. Die Kunst wird dann sein, den Sweet Spot aus Flexibilität und Effizienz zu finden. Weder CPUs noch GPUs haben diesen heutzutage schon erreicht.

Durch das direkte Integrieren der GPU Shader in die CPU, genau das ist ja das Ziel von Fusion, steht den GPU Shadern natürlich auch die gleiche Infrastruktur zur Verfügung, inklusive Interconnects, Speicher, etc. Bereits Llano besitzt ein entsprechendes Interface, Onion/Garlic, was natürlich erst der Anfang ist. Dein Argument mit dem Arbeitsspeicher ist für mich daher nicht nachvollziehbar.

Zitat jdl;17815973
Bei großen Clustern wird die Luft sehr schnell sehr dünn, so daß man bei einem der großen Anbieter landet, der Preis ist somit meist vergleichbar hoch. Einfach mal so zusammenschrauben funktioniert nicht. Desweiteren sind die Klimakosten und der Stromverbrauch ein nicht unerhebliches Problem. Der Betrieb verschlingt bei einem Top100 Cluster Hunderttausende im oberen Bereich auch schnell mal Millionen von Euro pro Jahr.

Sicherlich. Das ist trotzdem kein Argument, wenn Rechenleistung gefragt ist. Damit können diese beiden Blue Gene Rechner nun mal nicht punkten. Und die Rechner dahinter sind bezüglich Energieeffizienz auch nicht soweit entfernt, bieten teils aber deutlich mehr Rechenleistung.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Test: Intel Xeon E3-1230 v5 (Skylake)

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Vor ein paar Tagen stellte Intel die Xeon-Prozessoren mit Sockel 1151 aus der Skylake-Familie vor. Diese sind hauptsächlich für den Workstation- und Entry-Level-Server-Bereich gedacht, die Vorgänger-CPUs fanden sich aber auch in vielen PCs unserer Leser wieder. Der Clou der Prozessoren ist das... [mehr]

Skylake richtig einstellen: Was man machen sollte, was man lassen sollte

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Intels Skylake-Chips wurden vor nunmehr vier Monate vorgestellt und sind leider immer noch nur spärlich verfügbar. Nach unserem Test der Core i7-6700K- und Core i5-6600K-Prozessoren zum Launch haben wir uns bereits diverse Z170-Boards angesehen, die Mobilversionen getestet und sind aufs... [mehr]

Core i7-6950X im Test: Dicker Motor, alte Karosse

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/6950X/6950X-LOGO

Intels letzter CPU-Launch ist schon eine Weile her - Ende Oktober 2015 testeten wir den Xeon E5-1230v5 auf Skylake-Basis, seitdem war zumindest im Desktop-Bereich nichts neues mehr vom Marktführer zu hören. Am heutigen Tag aktualisiert Intel endlich die High-End-Plattform und bringt mit dem Core... [mehr]

Intel 'Kaby Lake': Die siebte Core-Generation im Detail vorgestellt

Logo von IMAGES/STORIES/LOGOS-2016/INTEL_7TH_CORE_GEN

Im Zuge der kommenden "Kaby Lake"-Plattform, deren breite Verfügbarkeit für das erste Quartal 2017 erwartet wird, nutzt Intel heute die Gelegenheit, die siebte Core-Generation offiziell im Detail vorzustellen und bereits ein paar Prozessoren auf den Markt zu bringen. Wir konnten uns bereits vor... [mehr]

So schnell ist Kaby Lake: Erste eigene Benchmarks zum i7-7500U

Logo von IMAGES/STORIES/REVIEW_TEASER/INTEL_KABY_LAKE

Offiziell vorgestellt hat Intel die 7. Generation der Core-Prozessoren bereits Ende August, doch erst jetzt ist Kaby Lake in Form des ersten Notebooks verfüg- und damit testbar. Dabei handelt es sich um das Medion Akoya S3409 MD60226, in dem ein Core i7-7500U verbaut wird. Während das Notebook... [mehr]

Delid Die Mate im Test

Logo von IMAGES/STORIES/IMAGES/STORIES/GALLERIES/REVIEWS/2016/DDM/DDM

Seit der Ivy-Bridge-Generation verlötet Intel Die und Heatspreader nicht mehr miteinander, was leider in deutlich schlechteren Kern-Temperaturen resultiert. Abhilfe dagegen schafft nur das Delidding (das sogenannte „Köpfen“) der CPU sowie der anschließende Austausch der Wärmeleitpaste durch... [mehr]