> > > > NVIDIA forscht an Multi-Chip-Modulen für GPUs

NVIDIA forscht an Multi-Chip-Modulen für GPUs

Veröffentlicht am: von

nvidia Multi-Chip-Module sind keine neue Technik und werden immer wieder zum Thema, wenn es um zukünftige Chipentwicklungen geht. AMD setzt solche MCM (Multi-Chip-Module) bei den aktuellen Ryzen- und Epyc-Prozessoren ein und tat dies bereits in der Vergangenheit. Die ersten Dual-Core-Prozessoren bestanden aus zwei Single-Core-Dies, die einfach in einem Package zusammengebracht wurden.

Bei den GPUs spielen Multi-Chip-Module hingegen noch keine Rolle. Dies könnte sich in Zukunft aber ändern, denn auch wenn die Hersteller dies aktuell noch verneinen, angesichts der immer komplexeren Fertigung und immer größeren GPUs mit inzwischen 15 Milliarden Transistoren auf 815 mm² ist derzeit nicht abzusehen, wie eine Leistungssteigerung mit monolithischen GPUs weiter erreicht werden soll.

Dementsprechend gibt es offenbar auch bei den GPUs Entwicklungen hin zu MCM-Designs. NVIDIA hat nun zusammen mit einigen Wissenschaftlern der Arizona State University, University of Texas at Austin und dem Barcelona Supercomputing Center ein Papier mit dem Titel "MCM-GPU: Multi-Chip-Module GPUs for Continued Performance Scalability" ( PDF) veröffentlicht.

In diesem wird auf die Entwicklung eines recht "einfachen" GPU-Modules (GPMs) eingegangen, welches dann zum Beispiel in einem Mesh mit weiteren solchen Modulen in einem MCM zusammengebracht wird. Es handelt sich dabei um spezielle MCM-GPUs, die auf die Bedürfnisse in einem MCM angepasst sind. Damit erreichen die Forscher eine um den Faktor fünf reduzierte interne GPU-Kommunikation über einen internen Interconnect und gleichzeitig kann die Leistung des einzelnen GPM um 22,8 % gesteigert werden.

Eine im MCM-Design simulierte GPU kann deutlich komplexer sein als dies in einem monolithischen Design der Fall ist. Gleichzeitig soll die Leistung sich in etwa im gleichen Bereich (+/- 10 %) bewegen. Gegenüber klassischen Multi-GPU-Systemen sind die speziellen MCM-Designs um 26,8 % im Vorteil.

Für ein MCM-Design ist es wichtig, einen Datenaustausch zwischen den einzelnen Modulen möglichst gering zu halten. Daten zwischen verschiedenen Modulen auszutauschen wird zum einen durch die Bandbreite limitiert, zum anderen aber auch durch die Latenzen. Welche Auswirkungen dies haben kann, zeigt die aktuelle Strategie bei AMD und Intel.

Vergleicht man die Chipgröße der aktuellen Intel- und AMD-Prozessoren, fällt auf, dass beide unterschiedliche Strategien bei den größeren Chips anwenden. Während AMD auf einen modularen Aufbau setzt, verwendet Intel große monolithische Chips mit enormer Fläche.

Beides hat seine Vor- und Nachteile. Chips im MCP-Design lassen sich relativ einfach fertigen, sind jedoch von einem schnellen Interconnect abhängig. Große monolithische Chips hingegen erreichen inzwischen enorme Größen, sind entsprechend aufwändig zu fertigen, die Kommunikation innerhalb des Chips ist aber hinsichtlich der Bandbreite und vor allem Latenz berechenbarer. Dies alles lässt sich auf die GPUs übertragen.

Zurück zum Forschungspapier: Neben jeder Menge Details zur Cache-Hierarchie und einem dazugehörigen Aufbau kommt das Papier zum Schluss, dass ein MCM-Design bei den GPUs durchaus Sinn macht. Vor allem im Hinblick auf die immer größer und komplexer werdenden Chips könnten solche MCM-Designs ein Ausweg sein.

Mit dem High Bandwidth Memory und dem Interposer ist die grundsätzliche Technik dazu bereits vorhanden, denn ein Interposer wäre notwendig, um die Kommunikation zwischen den Chips und dem Speicher zu bewerkstelligen.

Auch AMD scheint bei den GPUs an MCM zu arbeiten

Wirft man einen Blick auf AMDs GPU-Roadmap, werden auch hier Ansätze für MCM-Designs sichtbar. Nach der Vega-Architektur soll Navi erscheinen. Für diese nennt AMD eine neue Speichertechnologie als wichtiges Merkmal, auch wenn derzeit nicht abzusehen ist, um was es sich dabei genau handeln könnte. Außerdem nennt AMD im Zusammenhang mit Navi Scaleability, also Skalierbarkeit. Darauf gab es zu Beginn bereits einen Hinweis, denn in Zukunft erwartet AMD einen immer weiter steigenden Bedarf nach GPU-Rechenleistung. Dazu beitragen soll auch das Thema Virtual Reality. Immer höher auflösende Displays sind der treibender Faktor hinter dieser Entwicklung. Dieser Bedarf wird durch eine Recheneinheit oder eine GPU immer schwieriger abzudecken sein und auch hierzu gab AMD bereits im März 2016 erste Hinweise.

Der Interposer biete außerdem Möglichkeiten, über die aktuell zwar noch nicht konkret nachgedacht werde, die aber in wenigen Jahren ebenfalls eine Rolle spielen könnten. Denn trotz immer kleinerer Fertigungsgrößen sei es zunehmend schwerer, darin große Chips zu fertigen. Bei den GPUs werde aber versucht, mehr und mehr Shader und weitere GPU-Infrastruktur in einem Chip unterzubringen, so dass diese natürlich immer komplizierter werden. Die Interposer-Technologie biete nun die Möglichkeit, mehrere GPUs auf einem Interposer zu verbinden – eine Art integriertes CrossFire. Wie gesagt, dabei handelt es sich um theoretische Überlegungen und noch nicht um konkrete Pläne:

Robert Hallock: "Yes, it is absolutely possible that one future for the chip design industry is breaking out very large chips into multiple small and discrete packages mounted to an interposer. We're a long ways off from that as an industry, but it's definitely an interesting way to approach the problem of complexity and the expenses of monolithic chips."

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (9)

#1
customavatars/avatar148454_1.gif
Registriert seit: 20.01.2011

Leutnant zur See
Beiträge: 1065
Na ja, im Gegenzug zu Intel scheint Nvidia die Zeichen der Zeit erkannt zu haben. Ich nehme an, was AMD mit Navi vor hat will Nvidia nach Volta schaffen.
#2
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Kapitän zur See
Beiträge: 3159
Das könnte ein Grund sein, warum es keine Roadmap gibt bei NV. Die waren sich einfach lange nicht sicher, welche Strategie in Zukunft wichtig wird.
#3
Registriert seit: 18.10.2006

Hauptgefreiter
Beiträge: 196
AMD dürfte da doch deutlichen Vorsprung haben da sie zum einen Interposer seit Fiji verkaufen und zum anderen MCMs im CPU-Bereich seit den ersten Mehrkernern und jetzt auch wieder mit Ryzen/Epyc im Programm haben. Was die Interkommunikation anbelangt hat AMD mit hUMA und ihren APUs ohnehin schon Vorarbeit geleistet. Interessant wäre wie nVidia die Erfahrungen aus dem Tegra und PX1 etc nutzen kann.
#4
Registriert seit: 10.03.2005

Oberleutnant zur See
Beiträge: 1423
war amd nicht ganz stolz darauf einen"echten" dualcore zu fertigen während intel noch interposer nutzte?

hab mich das gar nicht getraut bei der mesh diskussion zu posten.

ich denke bei chip Größen wie volta, die selbst geshrinkt noch monster sind ist es eben nur der nächste logische schritt.

die Verkleinerung der Strukturen geht dem Ende zu.
mit direct x12 ist ja eigentlich auch einiges bei sli/cf möglich, das wird aber noch sehr stiefmütterlich behandelt. ist eben auch die frage wie lange der high end gpu markt überhaupt noch bedient werden wird.
Anfänge solcher Entwicklung sieht man ebenfalls bei volta.
#5
customavatars/avatar54828_1.gif
Registriert seit: 01.01.2007
Exil
Der Saft ist mit euch!
Beiträge: 8479
Ja, AMDs Manchester/Toledo war schon ein natives Dual Core Design, während Intels Presler zwei gekoppelte Die hatte.
#6
customavatars/avatar262521_1.gif
Registriert seit: 25.11.2016
Leipzig
Bootsmann
Beiträge: 521
Zitat Stamfy;25656181
AMD dürfte da doch deutlichen Vorsprung haben da sie zum einen Interposer seit Fiji verkaufen und zum anderen MCMs im CPU-Bereich seit den ersten Mehrkernern und jetzt auch wieder mit Ryzen/Epyc im Programm haben.


Das Cluster-based Multithreading vergessen oder es fundamental nicht begriffen!?
#7
customavatars/avatar73342_1.gif
Registriert seit: 22.09.2007

Admiral
Beiträge: 18649
Bezügl. der Cllustertechnik hat Intel ansätze im Bassin Falls Lineup, ja, aber tests eigen ja auch, dass das bis 10 Kerne noch gar nicht richtig greift ;)

Andererseits liegt AMD mit der Modulbauweise der Ryzen eben schon in Serie udn hat erste Erfahrungen mit der IF sammeln können. Sowas stünde bei Intel z.B. noch aus, udn auch Nvidia hat dahingehend afaik nicht diese Erfahrung.

Ich sehe jedenfalls eine Herausforderung für die Chipschmieden und einen Vorteil für den Kunden.

Wenne ine HighEnd karte demnächst eben aus 6 Modulen besteht, die Mainstreamkarte nur aus 4 udn LowEnd aus 2, dürfte dass die Preisgefüge wieder etwas besser rücken könnmen. Schließlich ist ein defektes Modul im Wafer dann nur ein kleiner Verlust.
#8
customavatars/avatar270924_1.gif
Registriert seit: 12.06.2017
Magierturm
Hauptgefreiter
Beiträge: 182
Wichtig erscheint mir, daß so ein MCM von der Software als Singlecore behandelt werden kann, sonst geht bei nicht optimierter oder gar kompatibler Software massiv Leistung flöten oder auch gar nichts.
#9
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6349
Zitat Shevchen;25656068
Na ja, im Gegenzug zu Intel scheint Nvidia die Zeichen der Zeit erkannt zu haben.

Intel forscht seit einiger Zeit schon an sowas, Stichwort EMIB. AMD hat es bereits umgesetzt, siehe Zen. Eigentlich ist es Nvidia, die wieder mal spät dran sind. Aber wie heisst es so schön, besser spät als nie. ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

NVIDIA Titan V: Volta-Architektur im Gaming-Test

Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

Sapphire Radeon RX Vega 64 Nitro+ im Test

Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

ZOTAC GeForce GTX 1080 Ti Mini: 1080-Ti-Leistung auf gerade einmal 21 Zentimeter

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-MINI-LOGO

Wir haben uns bereits mehr als ein Dutzend verschiedene Modelle der GeForce GTX 1080 Ti angeschaut. Mit von der Partie waren standard-luftgekühlte und wassergekühlte Modelle, mit All-in-One-Wasserkühlung und Custom-Open-Loop – die Vielfalt lässt sicherlich kaum Wünsche offen. ZOTAC hat nun... [mehr]