> > > > HPE The Machine: Der Speicher ist wichtiger als der Prozessor

HPE The Machine: Der Speicher ist wichtiger als der Prozessor

Veröffentlicht am: von

HPEWenn wir uns modernen Supercomputer anschauen oder aber die entsprechenden Beschleuniger in Form von Prozessoren, Custom-Hardware oder auch GPUs, dann wird vor allem eines deutlich: Der Anbindung von Speicher und dessen Geschwindigkeit kommt eine immer wichtigere Bedeutung zu. Ebenso verhält es sich mit schnellen Interconnects, die Speicher und einzelne Rechenbeschleuniger miteinander verbinden. Bis zu 400 GBit sind heute bereits üblich, mehrere Terabyte pro Sekunde sollen es in Zukunft sein.

Hewlett Packard Enterprise (HPE) lenkt den Fokus nun noch weiter in Richtung des Speichers, denn mit der Vorstellung eines Server-Prototypen namens The Machine will man die derzeit gültigen Annahmen im Bereich des Supercomputings auf den Kopf stellen. Nicht mehr möglichst viele und schnelle Recheneinheiten spielen hier die wichtigste Rolle, sondern der Speicher. Dazu hat man eine Art Universalspeicher geschaffen, der alle bisher bekannten Speicherhierarchien aufhebt.

Register, L1-, L2-, L3- und L4-Caches, schnell angebundener eDRAM und vieles mehr – Prozessoren und GPUs sind umringt von verschiedenen Speichertypen in den unterschiedlichsten Hierarchien. Allesamt weisen diese Speicher unterschiedliche Kapazität und Geschwindigkeiten auf und eben dies muss bei der Nutzung auch beachtet werden. Alleine auf die Verwaltung dieser unterschiedlichen Speicher verwendet die Hardware bereits einen gewissen Teil an Rechenleistung auf und wird dennoch durch diese Struktur limitiert.

Der "The Machine"-Prototyp von HPE räumt mit diesem Konzept nun auf und zeigte einen fertigen Server, der modular aufgebaut aus mehreren Racks besteht – wie im Server-Segment üblich. Pro Platine kommen dabei vier Speichercontroller zum Einsatz, die jeweils 1 TB an DRAM anbinden. Wie schnell dieser Speicher dabei genau ist, sagt HPE nicht. Damit die Racks auch untereinander ihre Daten schnell austauschen können, verwendet HPE ein Fabric, also eine schnelle Direktverbindung. In diesem Interface befindet sich auch ein ARM-Prozessor sowie ein Memory-Fabric-Switch. Auf einer höheren Ebene kommt ein Interconnect auf Basis von Silicon Phototonics Link zum Einsatz. Dabei werden als Übertragungsmedium nicht mehr Kupferleitungen oder ein Fabric verwendet, sondern Lichtwellenleiter. Jeder angeschlossene Prozessor hat die gleichen Zugriffsrechte und Geschwindigkeiten auf den gemeinsamen Speicher.

Derzeit arbeitet "The Machine" noch mit DRAM, der bei Abschaltung und Stromausfall sämtliche Daten verliert. Zukünftig aber soll schneller, nicht flüchtiger Speicher zum Einsatz kommen. Denkbar wäre die Verwendung von NVDIMM, den HPE bereits für einige Server anbietet. Denkbar und möglich ist aber auch der Einsatz von ReRAM, der ebenfalls nicht flüchtig aber dennoch fast so schnell wie DRAM ist.

Was nun aber zunächst einmal passieren muss, ist die Anpassung und Entwicklung von Software, denn diese ist gänzlich auf den klassischen Aufbau der Hardware mit mehreren Speicherebenen ausgelegt. Derzeit wird ein speziell angepasstes Linux verwendet, derzeit wird aber auch ein eigenes MachineOS entwickelt. 2018 oder 2019 soll dann die erste produktive Software mit dem Prinzip von "The Machine" erste Berechnungen ausführen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (0)

Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Coffee Lake: Intel Core i7-8700K, i5-8600K und i5-8400 im Test

Logo von IMAGES/STORIES/2017/INTEL8GEN

Der sechste und letzte (?) CPU-Launch in diesem Jahr kommt von Intel: Mit den unter dem Codenamen Coffee Lake zusammengefassten Core-i7- und i5-Modellen kommen bei Intel erstmals Sechskern-Prozessoren in den Mainstream-Markt. Bedanken darf man sich aber wohl nicht bei Intel, sondern bei der... [mehr]

Intel kämpft mit schwerer Sicherheitslücke (Update: Intel veröffentlicht...

Logo von IMAGES/STORIES/2017/INTEL

Vor, während und zwischen den Feiertagen herrschte ein wildes Treiben in der Linux-Community. Zunächst war nicht ganz klar, was hier genau vor sich geht, inzwischen aber scheinen die Auswirkungen deutlich zu werden: Intel hat nach einer Lücke in der Management Unit eines jeden... [mehr]

Coffee Lake: Overclocking-Check

Logo von IMAGES/STORIES/LOGOS-2016/KABYLAKE

Nach dem ausführlichen Overclocking-Check für Skylake-Prozessoren sowie dem Overclocking-Check für Kaby Lake-Prozessoren ist es nach Veröffentlichung der neuen Generation mit Codenamen Coffee-Lake erneut Zeit für einen Overclocking-Check. Wir werfen einen Blick auf die Übertaktbarkeit... [mehr]

Intel Core i5-8250U und i7-8550U im Test: Mal ein kleiner, mal ein großer...

Logo von IMAGES/STORIES/2017/MEDION_P7649_KABY_LAKE_REFRESH

Im Gleichschritt marschierten Intels Desktop- und Mobil-Prozessoren schon länger nicht mehr. Ein so gravierender Unterschied wie derzeit ist aber völlig neu - und für den Verbraucher einmal mehr irritierend. Denn mit der 8. Core-Generation spendiert Intel beiden Plattformen eine eigene... [mehr]

Gelungener Feinschliff: AMD Ryzen 7 2700X und Ryzen 5 2600X im Test

Logo von IMAGES/STORIES/2017/AMD_RYZEN_7_2700X

Rund ein Jahr nach dem Start der Ryzen-Prozessoren legt AMD nach und bringt die zweite Generation in den Handel. Die soll schneller und effizienter arbeiten und den Druck auf Intel weiter erhöhen. Allerdings lautet die Devise Evolution statt Revolution, statt gravierender Änderungen gibt es vor... [mehr]

AMD Ryzen 5 2400G und Ryzen 3 2200G im Test: Die Lücke ist gestopft

Logo von IMAGES/STORIES/2017/AMD_RYZEN_5_2400G

Während Notebook-Käufer sich bereits seit einigen Wochen von den Vorzügen der Zen-basierten Raven-Ridge-APUs überzeugen können, musste sich das Desktop-Lager noch gedulden. Nun aber heißt es auch hier: Intel erhält neue Konkurrenz. Und die könnte einen noch größeren Einfluss als die... [mehr]