> > > > NVIDIA forscht an Multi-Chip-Modulen für GPUs

NVIDIA forscht an Multi-Chip-Modulen für GPUs

Veröffentlicht am: von

nvidia Multi-Chip-Module sind keine neue Technik und werden immer wieder zum Thema, wenn es um zukünftige Chipentwicklungen geht. AMD setzt solche MCM (Multi-Chip-Module) bei den aktuellen Ryzen- und Epyc-Prozessoren ein und tat dies bereits in der Vergangenheit. Die ersten Dual-Core-Prozessoren bestanden aus zwei Single-Core-Dies, die einfach in einem Package zusammengebracht wurden.

Bei den GPUs spielen Multi-Chip-Module hingegen noch keine Rolle. Dies könnte sich in Zukunft aber ändern, denn auch wenn die Hersteller dies aktuell noch verneinen, angesichts der immer komplexeren Fertigung und immer größeren GPUs mit inzwischen 15 Milliarden Transistoren auf 815 mm² ist derzeit nicht abzusehen, wie eine Leistungssteigerung mit monolithischen GPUs weiter erreicht werden soll.

Dementsprechend gibt es offenbar auch bei den GPUs Entwicklungen hin zu MCM-Designs. NVIDIA hat nun zusammen mit einigen Wissenschaftlern der Arizona State University, University of Texas at Austin und dem Barcelona Supercomputing Center ein Papier mit dem Titel "MCM-GPU: Multi-Chip-Module GPUs for Continued Performance Scalability" ( PDF) veröffentlicht.

In diesem wird auf die Entwicklung eines recht "einfachen" GPU-Modules (GPMs) eingegangen, welches dann zum Beispiel in einem Mesh mit weiteren solchen Modulen in einem MCM zusammengebracht wird. Es handelt sich dabei um spezielle MCM-GPUs, die auf die Bedürfnisse in einem MCM angepasst sind. Damit erreichen die Forscher eine um den Faktor fünf reduzierte interne GPU-Kommunikation über einen internen Interconnect und gleichzeitig kann die Leistung des einzelnen GPM um 22,8 % gesteigert werden.

Eine im MCM-Design simulierte GPU kann deutlich komplexer sein als dies in einem monolithischen Design der Fall ist. Gleichzeitig soll die Leistung sich in etwa im gleichen Bereich (+/- 10 %) bewegen. Gegenüber klassischen Multi-GPU-Systemen sind die speziellen MCM-Designs um 26,8 % im Vorteil.

Für ein MCM-Design ist es wichtig, einen Datenaustausch zwischen den einzelnen Modulen möglichst gering zu halten. Daten zwischen verschiedenen Modulen auszutauschen wird zum einen durch die Bandbreite limitiert, zum anderen aber auch durch die Latenzen. Welche Auswirkungen dies haben kann, zeigt die aktuelle Strategie bei AMD und Intel.

Vergleicht man die Chipgröße der aktuellen Intel- und AMD-Prozessoren, fällt auf, dass beide unterschiedliche Strategien bei den größeren Chips anwenden. Während AMD auf einen modularen Aufbau setzt, verwendet Intel große monolithische Chips mit enormer Fläche.

Beides hat seine Vor- und Nachteile. Chips im MCP-Design lassen sich relativ einfach fertigen, sind jedoch von einem schnellen Interconnect abhängig. Große monolithische Chips hingegen erreichen inzwischen enorme Größen, sind entsprechend aufwändig zu fertigen, die Kommunikation innerhalb des Chips ist aber hinsichtlich der Bandbreite und vor allem Latenz berechenbarer. Dies alles lässt sich auf die GPUs übertragen.

Zurück zum Forschungspapier: Neben jeder Menge Details zur Cache-Hierarchie und einem dazugehörigen Aufbau kommt das Papier zum Schluss, dass ein MCM-Design bei den GPUs durchaus Sinn macht. Vor allem im Hinblick auf die immer größer und komplexer werdenden Chips könnten solche MCM-Designs ein Ausweg sein.

Mit dem High Bandwidth Memory und dem Interposer ist die grundsätzliche Technik dazu bereits vorhanden, denn ein Interposer wäre notwendig, um die Kommunikation zwischen den Chips und dem Speicher zu bewerkstelligen.

Auch AMD scheint bei den GPUs an MCM zu arbeiten

Wirft man einen Blick auf AMDs GPU-Roadmap, werden auch hier Ansätze für MCM-Designs sichtbar. Nach der Vega-Architektur soll Navi erscheinen. Für diese nennt AMD eine neue Speichertechnologie als wichtiges Merkmal, auch wenn derzeit nicht abzusehen ist, um was es sich dabei genau handeln könnte. Außerdem nennt AMD im Zusammenhang mit Navi Scaleability, also Skalierbarkeit. Darauf gab es zu Beginn bereits einen Hinweis, denn in Zukunft erwartet AMD einen immer weiter steigenden Bedarf nach GPU-Rechenleistung. Dazu beitragen soll auch das Thema Virtual Reality. Immer höher auflösende Displays sind der treibender Faktor hinter dieser Entwicklung. Dieser Bedarf wird durch eine Recheneinheit oder eine GPU immer schwieriger abzudecken sein und auch hierzu gab AMD bereits im März 2016 erste Hinweise.

Der Interposer biete außerdem Möglichkeiten, über die aktuell zwar noch nicht konkret nachgedacht werde, die aber in wenigen Jahren ebenfalls eine Rolle spielen könnten. Denn trotz immer kleinerer Fertigungsgrößen sei es zunehmend schwerer, darin große Chips zu fertigen. Bei den GPUs werde aber versucht, mehr und mehr Shader und weitere GPU-Infrastruktur in einem Chip unterzubringen, so dass diese natürlich immer komplizierter werden. Die Interposer-Technologie biete nun die Möglichkeit, mehrere GPUs auf einem Interposer zu verbinden – eine Art integriertes CrossFire. Wie gesagt, dabei handelt es sich um theoretische Überlegungen und noch nicht um konkrete Pläne:

Robert Hallock: "Yes, it is absolutely possible that one future for the chip design industry is breaking out very large chips into multiple small and discrete packages mounted to an interposer. We're a long ways off from that as an industry, but it's definitely an interesting way to approach the problem of complexity and the expenses of monolithic chips."

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (9)

#1
customavatars/avatar148454_1.gif
Registriert seit: 20.01.2011

Leutnant zur See
Beiträge: 1062
Na ja, im Gegenzug zu Intel scheint Nvidia die Zeichen der Zeit erkannt zu haben. Ich nehme an, was AMD mit Navi vor hat will Nvidia nach Volta schaffen.
#2
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Kapitän zur See
Beiträge: 3075
Das könnte ein Grund sein, warum es keine Roadmap gibt bei NV. Die waren sich einfach lange nicht sicher, welche Strategie in Zukunft wichtig wird.
#3
Registriert seit: 18.10.2006

Hauptgefreiter
Beiträge: 175
AMD dürfte da doch deutlichen Vorsprung haben da sie zum einen Interposer seit Fiji verkaufen und zum anderen MCMs im CPU-Bereich seit den ersten Mehrkernern und jetzt auch wieder mit Ryzen/Epyc im Programm haben. Was die Interkommunikation anbelangt hat AMD mit hUMA und ihren APUs ohnehin schon Vorarbeit geleistet. Interessant wäre wie nVidia die Erfahrungen aus dem Tegra und PX1 etc nutzen kann.
#4
Registriert seit: 10.03.2005

Leutnant zur See
Beiträge: 1272
war amd nicht ganz stolz darauf einen"echten" dualcore zu fertigen während intel noch interposer nutzte?

hab mich das gar nicht getraut bei der mesh diskussion zu posten.

ich denke bei chip Größen wie volta, die selbst geshrinkt noch monster sind ist es eben nur der nächste logische schritt.

die Verkleinerung der Strukturen geht dem Ende zu.
mit direct x12 ist ja eigentlich auch einiges bei sli/cf möglich, das wird aber noch sehr stiefmütterlich behandelt. ist eben auch die frage wie lange der high end gpu markt überhaupt noch bedient werden wird.
Anfänge solcher Entwicklung sieht man ebenfalls bei volta.
#5
customavatars/avatar54828_1.gif
Registriert seit: 01.01.2007
Exil
Der Saft ist mit euch!
Beiträge: 8417
Ja, AMDs Manchester/Toledo war schon ein natives Dual Core Design, während Intels Presler zwei gekoppelte Die hatte.
#6
customavatars/avatar262521_1.gif
Registriert seit: 25.11.2016
Leipzig
Oberstabsgefreiter
Beiträge: 393
Zitat Stamfy;25656181
AMD dürfte da doch deutlichen Vorsprung haben da sie zum einen Interposer seit Fiji verkaufen und zum anderen MCMs im CPU-Bereich seit den ersten Mehrkernern und jetzt auch wieder mit Ryzen/Epyc im Programm haben.


Das Cluster-based Multithreading vergessen oder es fundamental nicht begriffen!?
#7
customavatars/avatar73342_1.gif
Registriert seit: 22.09.2007

Admiral
Beiträge: 17293
Bezügl. der Cllustertechnik hat Intel ansätze im Bassin Falls Lineup, ja, aber tests eigen ja auch, dass das bis 10 Kerne noch gar nicht richtig greift ;)

Andererseits liegt AMD mit der Modulbauweise der Ryzen eben schon in Serie udn hat erste Erfahrungen mit der IF sammeln können. Sowas stünde bei Intel z.B. noch aus, udn auch Nvidia hat dahingehend afaik nicht diese Erfahrung.

Ich sehe jedenfalls eine Herausforderung für die Chipschmieden und einen Vorteil für den Kunden.

Wenne ine HighEnd karte demnächst eben aus 6 Modulen besteht, die Mainstreamkarte nur aus 4 udn LowEnd aus 2, dürfte dass die Preisgefüge wieder etwas besser rücken könnmen. Schließlich ist ein defektes Modul im Wafer dann nur ein kleiner Verlust.
#8
customavatars/avatar270924_1.gif
Registriert seit: 12.06.2017
Magierturm
Hauptgefreiter
Beiträge: 182
Wichtig erscheint mir, daß so ein MCM von der Software als Singlecore behandelt werden kann, sonst geht bei nicht optimierter oder gar kompatibler Software massiv Leistung flöten oder auch gar nichts.
#9
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6272
Zitat Shevchen;25656068
Na ja, im Gegenzug zu Intel scheint Nvidia die Zeichen der Zeit erkannt zu haben.

Intel forscht seit einiger Zeit schon an sowas, Stichwort EMIB. AMD hat es bereits umgesetzt, siehe Zen. Eigentlich ist es Nvidia, die wieder mal spät dran sind. Aber wie heisst es so schön, besser spät als nie. ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]