> > > > GTC 2013: Stacked Memory ermöglicht höhere Speicherdichten

GTC 2013: Stacked Memory ermöglicht höhere Speicherdichten

Veröffentlicht am: von

gtc2012-neuMit Hilfe von "Stacked Memory" will NVIDIA das Bandbreiten-Problem aktueller Grafikkarten lösen. "Volta" soll die erste Dekstop-GPU mit dieser Technologie sein. Heise.de hat nun ein Interview mit Sumit Gupta von NVIDIA geführt und einige weitere Details erfahren. Beim "Stacked Memory" wird der DRAM-Speicher nicht mehr neben der GPU auf dem PCB untergebracht, sondern direkt auf der GPU selbst. Dazu werden zusätzliche Silizium-Layer auf der GPU angebracht, sogenannte Through Silicon Vias (TSVs) verbinden beide Komponenten. Durch die direkte Positionierung des Speichers auf der GPU sind die Verbindungen zwischen Speicherinterface und Speicher selbst extrem kurz und kompakt gehalten. Moderne GPUs werden in ihrer Speicherbandbreite vor allem durch die komplizierte Anbindung des Speicherinterfaces mit dem Speicher limitiert. So muss beim GPU-Design bereits die Position und Verdrahtung für das Speicherinterface beachtet werden. "Stacked Memory" vereinfacht dies über die Through Silicon Vias (TSVs) erheblich. So kann der Speicher nicht nur schneller takten und die Latenzen sind durch die kurze Anbindung gering, auch die Breite des Speicherinterfaces kann deutlich erhöht werden.

NVIDIA GTC 2013:
NVIDIA GTC 2013: "Volta"-GPU-Design mit Stacked DRAM

Mit "Volta" soll die Speicherbandbreite auf 1 TB/s ansteigen. Zum Vergleich: Die GeForce GTX Titan bietet derzeit eine Speicherbandbreite von 288,4 GB/s. Uns stellte sich noch die Frage nach der Speicherkapazität. Moderne CPUs zeigen, dass ein großer Cache und damit viel Speicher vor allem eines bedeuten: ein komplexes CPU-Design mit mehreren Milliarden Transistoren. NVIDIA hat mit dem GF110 bereits die derzeit komplexeste GPU - 7,1 Milliarden Transistoren arbeiten hier. Wenn man sich nun noch vorstellt, dass 6 GB und mehr an DRAM auf der GPU untergebracht werden sollen, ist die Komplexität eines solchen Chips zu erahnen. Sumit Gupta aber versuchte diese Bedenken und zerstreuen. Ganz im Gegenteil, mit Hilfe von "Stacked Memory" seien sogar größere Speicherkapazitäten denkbar, als dies heute möglich sei.

Man vertraue dabei besonders auf die Fertigungstechnologien von TSMC. Bis "Volta" erscheinen soll, werden auch noch einige Jahre ins Land ziehen. Vor Ende 2015 wird kein Produkt mit "Stacked Memory" erwartet und bis dahin sollten die Fertigungstechnologien einen großen Sprung gemacht haben, die auch komplexe GPUs und dazugehörigen großen DRAM möglich machen.

Social Links

Kommentare (7)

#1
customavatars/avatar106293_1.gif
Registriert seit: 11.01.2009
Gelnhausen/Hanau
Kapitänleutnant
Beiträge: 1980
Man sollte aus GF110 evtl. GK110 machen ;-)
#2
Registriert seit: 12.01.2011

Obergefreiter
Beiträge: 74
Wie will man dann eigentlich die Wärme von der GPU abführen wenn da noch ein paar Millimeter DRAM drauf sind?
#3
Registriert seit: 12.06.2012
D-63xxx
Kapitänleutnant
Beiträge: 1732
kleinere Struktur :P einfach weniger hitze produzieren
#4
customavatars/avatar91773_1.gif
Registriert seit: 18.05.2008
90762 Fürth
Oberleutnant zur See
Beiträge: 1530
Ich gehe davon aus, dass mit GPU hier nicht der DIE gemeint ist, auf dem der RAM in Zukunft sitzen soll, sondern vielmehr das gesamte Package.

Folglich wird das Ganze ähnlich aussehen, wie es Intel derzeit mit ihren GPUs auf den Core i-Prozessoren macht. Da ist schon noch einiges an Platz, außerderm kann die Größe des Packages beinahe beliebig erhöht werden, was man ebenfalls der Abbildung in der News entnehmen kann.
#5
Registriert seit: 09.03.2008
Schweinfurt
Oberstabsgefreiter
Beiträge: 480
Hört sich nicht unbedingt nach einer kostensenkenden Maßnahme an.
#6
customavatars/avatar151263_1.gif
Registriert seit: 04.03.2011
Niedersachsen
Hauptgefreiter
Beiträge: 169
Ist stacked Memory auch quasi als großer Cache mit Rückendeckung von den konventionellen PCB-Speicherchips möglich? Wäre das nicht ein Mittelweg zwischen Leistung und Kosten, oder wäre die Kombination als Prinzip sinnlos?

Also gäbe es da nur Ganz oder Garnicht?
#7
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34404
Zitat Blauschwein;20362505
Ist stacked Memory auch quasi als großer Cache mit Rückendeckung von den konventionellen PCB-Speicherchips möglich? Wäre das nicht ein Mittelweg zwischen Leistung und Kosten, oder wäre die Kombination als Prinzip sinnlos?

Also gäbe es da nur Ganz oder Garnicht?


Im Prinzip nicht...
Je nachdem gibt es ja einige "Prozesse", die auf den RAM zugreifen, dabei aber mit größter Warscheinlichkeit nicht alle wirklich volle Bandbreite benötigen.

Die große Preisfrage ist aber, wie man sowas intelligent trenen will.
Ich denke, wenn man den Texturcache mal ganz ausklammert, was in aktuellen Games der mit Abstand meiste Platzfresser ist, hat man immernoch das Problem, das im Profibereich mit GPGPU der Bedarf an schnellem und auch großem RAM ganz andere Größenordnungen beschreibt.
Eine Mischung von beiden wäre zwar grundsätzlich möglich, nur lässt sich unsererseits sehr schwer vorhersagen, ob und in welchem Maß das überhaupt helfen würde.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • 7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

    Logo von IMAGES/STORIES/2017/AMD-RADEONVII

    Heute ist es endlich soweit: Es gibt in Form der Radeon VII endlich wieder eine neue Grafikkarte aus dem Hause AMD. Zwar kommt auch hier die bekannte Vega-Architektur zum Einsatz, durch die Kombination einer in 7 nm gefertigten GPU mit 16 GB an extrem schnellen HBM2, ist die Radeon VII aber... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]