> > > > NVIDIA forscht an Multi-Chip-Modulen für GPUs

NVIDIA forscht an Multi-Chip-Modulen für GPUs

Veröffentlicht am: von

nvidia Multi-Chip-Module sind keine neue Technik und werden immer wieder zum Thema, wenn es um zukünftige Chipentwicklungen geht. AMD setzt solche MCM (Multi-Chip-Module) bei den aktuellen Ryzen- und Epyc-Prozessoren ein und tat dies bereits in der Vergangenheit. Die ersten Dual-Core-Prozessoren bestanden aus zwei Single-Core-Dies, die einfach in einem Package zusammengebracht wurden.

Bei den GPUs spielen Multi-Chip-Module hingegen noch keine Rolle. Dies könnte sich in Zukunft aber ändern, denn auch wenn die Hersteller dies aktuell noch verneinen, angesichts der immer komplexeren Fertigung und immer größeren GPUs mit inzwischen 15 Milliarden Transistoren auf 815 mm² ist derzeit nicht abzusehen, wie eine Leistungssteigerung mit monolithischen GPUs weiter erreicht werden soll.

Dementsprechend gibt es offenbar auch bei den GPUs Entwicklungen hin zu MCM-Designs. NVIDIA hat nun zusammen mit einigen Wissenschaftlern der Arizona State University, University of Texas at Austin und dem Barcelona Supercomputing Center ein Papier mit dem Titel "MCM-GPU: Multi-Chip-Module GPUs for Continued Performance Scalability" ( PDF) veröffentlicht.

In diesem wird auf die Entwicklung eines recht "einfachen" GPU-Modules (GPMs) eingegangen, welches dann zum Beispiel in einem Mesh mit weiteren solchen Modulen in einem MCM zusammengebracht wird. Es handelt sich dabei um spezielle MCM-GPUs, die auf die Bedürfnisse in einem MCM angepasst sind. Damit erreichen die Forscher eine um den Faktor fünf reduzierte interne GPU-Kommunikation über einen internen Interconnect und gleichzeitig kann die Leistung des einzelnen GPM um 22,8 % gesteigert werden.

Eine im MCM-Design simulierte GPU kann deutlich komplexer sein als dies in einem monolithischen Design der Fall ist. Gleichzeitig soll die Leistung sich in etwa im gleichen Bereich (+/- 10 %) bewegen. Gegenüber klassischen Multi-GPU-Systemen sind die speziellen MCM-Designs um 26,8 % im Vorteil.

Für ein MCM-Design ist es wichtig, einen Datenaustausch zwischen den einzelnen Modulen möglichst gering zu halten. Daten zwischen verschiedenen Modulen auszutauschen wird zum einen durch die Bandbreite limitiert, zum anderen aber auch durch die Latenzen. Welche Auswirkungen dies haben kann, zeigt die aktuelle Strategie bei AMD und Intel.

Vergleicht man die Chipgröße der aktuellen Intel- und AMD-Prozessoren, fällt auf, dass beide unterschiedliche Strategien bei den größeren Chips anwenden. Während AMD auf einen modularen Aufbau setzt, verwendet Intel große monolithische Chips mit enormer Fläche.

Beides hat seine Vor- und Nachteile. Chips im MCP-Design lassen sich relativ einfach fertigen, sind jedoch von einem schnellen Interconnect abhängig. Große monolithische Chips hingegen erreichen inzwischen enorme Größen, sind entsprechend aufwändig zu fertigen, die Kommunikation innerhalb des Chips ist aber hinsichtlich der Bandbreite und vor allem Latenz berechenbarer. Dies alles lässt sich auf die GPUs übertragen.

Zurück zum Forschungspapier: Neben jeder Menge Details zur Cache-Hierarchie und einem dazugehörigen Aufbau kommt das Papier zum Schluss, dass ein MCM-Design bei den GPUs durchaus Sinn macht. Vor allem im Hinblick auf die immer größer und komplexer werdenden Chips könnten solche MCM-Designs ein Ausweg sein.

Mit dem High Bandwidth Memory und dem Interposer ist die grundsätzliche Technik dazu bereits vorhanden, denn ein Interposer wäre notwendig, um die Kommunikation zwischen den Chips und dem Speicher zu bewerkstelligen.

Auch AMD scheint bei den GPUs an MCM zu arbeiten

Wirft man einen Blick auf AMDs GPU-Roadmap, werden auch hier Ansätze für MCM-Designs sichtbar. Nach der Vega-Architektur soll Navi erscheinen. Für diese nennt AMD eine neue Speichertechnologie als wichtiges Merkmal, auch wenn derzeit nicht abzusehen ist, um was es sich dabei genau handeln könnte. Außerdem nennt AMD im Zusammenhang mit Navi Scaleability, also Skalierbarkeit. Darauf gab es zu Beginn bereits einen Hinweis, denn in Zukunft erwartet AMD einen immer weiter steigenden Bedarf nach GPU-Rechenleistung. Dazu beitragen soll auch das Thema Virtual Reality. Immer höher auflösende Displays sind der treibender Faktor hinter dieser Entwicklung. Dieser Bedarf wird durch eine Recheneinheit oder eine GPU immer schwieriger abzudecken sein und auch hierzu gab AMD bereits im März 2016 erste Hinweise.

Der Interposer biete außerdem Möglichkeiten, über die aktuell zwar noch nicht konkret nachgedacht werde, die aber in wenigen Jahren ebenfalls eine Rolle spielen könnten. Denn trotz immer kleinerer Fertigungsgrößen sei es zunehmend schwerer, darin große Chips zu fertigen. Bei den GPUs werde aber versucht, mehr und mehr Shader und weitere GPU-Infrastruktur in einem Chip unterzubringen, so dass diese natürlich immer komplizierter werden. Die Interposer-Technologie biete nun die Möglichkeit, mehrere GPUs auf einem Interposer zu verbinden – eine Art integriertes CrossFire. Wie gesagt, dabei handelt es sich um theoretische Überlegungen und noch nicht um konkrete Pläne:

Robert Hallock: "Yes, it is absolutely possible that one future for the chip design industry is breaking out very large chips into multiple small and discrete packages mounted to an interposer. We're a long ways off from that as an industry, but it's definitely an interesting way to approach the problem of complexity and the expenses of monolithic chips."

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (9)

#1
customavatars/avatar148454_1.gif
Registriert seit: 20.01.2011

Leutnant zur See
Beiträge: 1115
Na ja, im Gegenzug zu Intel scheint Nvidia die Zeichen der Zeit erkannt zu haben. Ich nehme an, was AMD mit Navi vor hat will Nvidia nach Volta schaffen.
#2
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Kapitän zur See
Beiträge: 3216
Das könnte ein Grund sein, warum es keine Roadmap gibt bei NV. Die waren sich einfach lange nicht sicher, welche Strategie in Zukunft wichtig wird.
#3
Registriert seit: 18.10.2006

Hauptgefreiter
Beiträge: 196
AMD dürfte da doch deutlichen Vorsprung haben da sie zum einen Interposer seit Fiji verkaufen und zum anderen MCMs im CPU-Bereich seit den ersten Mehrkernern und jetzt auch wieder mit Ryzen/Epyc im Programm haben. Was die Interkommunikation anbelangt hat AMD mit hUMA und ihren APUs ohnehin schon Vorarbeit geleistet. Interessant wäre wie nVidia die Erfahrungen aus dem Tegra und PX1 etc nutzen kann.
#4
Registriert seit: 10.03.2005

Kapitänleutnant
Beiträge: 1572
war amd nicht ganz stolz darauf einen"echten" dualcore zu fertigen während intel noch interposer nutzte?

hab mich das gar nicht getraut bei der mesh diskussion zu posten.

ich denke bei chip Größen wie volta, die selbst geshrinkt noch monster sind ist es eben nur der nächste logische schritt.

die Verkleinerung der Strukturen geht dem Ende zu.
mit direct x12 ist ja eigentlich auch einiges bei sli/cf möglich, das wird aber noch sehr stiefmütterlich behandelt. ist eben auch die frage wie lange der high end gpu markt überhaupt noch bedient werden wird.
Anfänge solcher Entwicklung sieht man ebenfalls bei volta.
#5
customavatars/avatar54828_1.gif
Registriert seit: 01.01.2007
Exil
Der Saft ist mit euch!
Beiträge: 8661
Ja, AMDs Manchester/Toledo war schon ein natives Dual Core Design, während Intels Presler zwei gekoppelte Die hatte.
#6
customavatars/avatar262521_1.gif
Registriert seit: 25.11.2016
Leipzig
Bootsmann
Beiträge: 543
Zitat Stamfy;25656181
AMD dürfte da doch deutlichen Vorsprung haben da sie zum einen Interposer seit Fiji verkaufen und zum anderen MCMs im CPU-Bereich seit den ersten Mehrkernern und jetzt auch wieder mit Ryzen/Epyc im Programm haben.


Das Cluster-based Multithreading vergessen oder es fundamental nicht begriffen!?
#7
customavatars/avatar73342_1.gif
Registriert seit: 22.09.2007

Admiral
Beiträge: 21443
Bezügl. der Cllustertechnik hat Intel ansätze im Bassin Falls Lineup, ja, aber tests eigen ja auch, dass das bis 10 Kerne noch gar nicht richtig greift ;)

Andererseits liegt AMD mit der Modulbauweise der Ryzen eben schon in Serie udn hat erste Erfahrungen mit der IF sammeln können. Sowas stünde bei Intel z.B. noch aus, udn auch Nvidia hat dahingehend afaik nicht diese Erfahrung.

Ich sehe jedenfalls eine Herausforderung für die Chipschmieden und einen Vorteil für den Kunden.

Wenne ine HighEnd karte demnächst eben aus 6 Modulen besteht, die Mainstreamkarte nur aus 4 udn LowEnd aus 2, dürfte dass die Preisgefüge wieder etwas besser rücken könnmen. Schließlich ist ein defektes Modul im Wafer dann nur ein kleiner Verlust.
#8
customavatars/avatar270924_1.gif
Registriert seit: 12.06.2017
Magierturm
Hauptgefreiter
Beiträge: 182
Wichtig erscheint mir, daß so ein MCM von der Software als Singlecore behandelt werden kann, sonst geht bei nicht optimierter oder gar kompatibler Software massiv Leistung flöten oder auch gar nichts.
#9
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6350
Zitat Shevchen;25656068
Na ja, im Gegenzug zu Intel scheint Nvidia die Zeichen der Zeit erkannt zu haben.

Intel forscht seit einiger Zeit schon an sowas, Stichwort EMIB. AMD hat es bereits umgesetzt, siehe Zen. Eigentlich ist es Nvidia, die wieder mal spät dran sind. Aber wie heisst es so schön, besser spät als nie. ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]