> > > > AMD erläutert Details zum High Bandwidth Memory

AMD erläutert Details zum High Bandwidth Memory

DruckenE-Mail
Erstellt am: von

amd hbm logoHigh Bandwidth Memory soll der Heilsbringer der GPU-Hersteller werden und gleich mehrere Probleme lösen, die sich im Zusammenhang mit der Anbindung und der Leistung von Grafikspeicher in letzten Jahren aufgebaut haben. Höhere Speicherbandbreite, mehr Speicherkapazität, geringere Leistungsaufnahme und geringerer Platzbedarf sind die wichtigsten Vorteile von HBM, die wir teilweise bereits beleuchtet haben, die AMD nun aber noch einmal genauer erklären möchte.

Bereits mehrfach haben wir uns mit dem Thema HBM beschäftigt. Schon im Sommer letzten Jahres sprach SK Hynix erstmals über HBM und kündigte in der Folge im November die baldige Massenproduktion des neuen Speichers an. Auf der GPU Technology Conference von NVIDIA stellte SK Hynix aus und präsentierte weitere technische Details. Eigentlich aber wurde HBM in technischer Hinsicht bereits im vergangenen Jahr umrissen, sowohl von AMD, wie auch von NVIDIA und SK Hynix selbst. Aus den bisher verfügbaren Informationen haben wir einen umfangreichen Artikel erstellt, der die Vorteile von HBM genauer erläutert und auch klärt, warum HBM mehr als nur eine Erhöhung der Speicherbandbreite ist. Nun spricht auch AMD wieder einmal offiziell über HBM und nennt seine Gründe für den baldigen Wechsel der Speichertechnologie für den Grafikspeicher.

AMD: High Bandwidth Memory (HBM)
AMD: High Bandwidth Memory (HBM)

Gleich mehrere Gründe sorgen dafür, dass GDDR5 bald an seine Grenzen kommen wird bzw. schon an diesen arbeitet. Sowohl Samsung wie auch SK Hynix bieten GDDR5-Speicher aktuell mit maximalen Taktraten von 2.000 MHz an. Diese sind in Kapazitäten von 4, 6 und 8 GBit pro Chip verfügbar, was 512, 768 und 1.024 MByte entspricht. Allerdings muss aufgrund des hohen Taktes auch eine Spannung von 1,35 bis 1,5 V angelegt werden und auch bei der Fertigung kommen die Hersteller an ihre Grenzen. Ändert sich an einigen Ausgangsparametern für GDDR5 nichts, erreicht dieser in Kürze einen Stand, an dem er nicht mehr effektiv eingesetzt werden kann. Die Balance aus Leistung der GPU und dem Potenzial, welches aus dem Grafikspeicher heraus zur Verfügung steht, gerät aus dem Gleichgewicht.

Eine Limitierung durch die Speicherbandbreite kann derzeit weder AMD mit den "Hawaii"-GPUs noch NVIDIA mit dem großen "Maxwell" alias GM200 nachgesagt werden. Allerdings gehen beide Hersteller inzwischen auch unterschiedliche Wege, um eine eventuelle Limitierung zu umgehen. Bei AMD hat man sich für ein äußerst komplexes Speicherinterface auf "Hawaii" entschieden, dass mit 512 Bit größer als bei allen anderen GPUs ist. NVIDIA hingegen hat von 384 auf 256 Bit den Rückwärtsgang eingelegt, implementiert aber auch eine Speicherkomprimierung, um dies etwas auszugleichen.

AMD: High Bandwidth Memory (HBM)AMD: High Bandwidth Memory (HBM)

AMD: High Bandwidth Memory (HBM)

Es ist nicht nur die Speicherbandbreite, die zum Wechsel von GDDR5 auf HBM animiert, dies macht AMD klar, in dem man einen Größenvergleich präsentiert. Um eine möglichst hohe Bandbreite zu erreichen, werden möglichst viele Speicherchips gleichzeitig angesprochen. Die Stromversorgung des Speichers ist neben dem Platzbedarf der eigentlichen Speicherchips inzwischen auch ein ausschlaggebendes Argument. Um eine möglichst gleichmäßige Signallaufzeit zu den Speicherchips zu haben, platzieren die Hersteller die Chips gleichmäßig um die GPU – auch dies ist aus verschiedenen Aspekten nicht ideal.

Vergleicht man jedoch die konkreten Zahlen für den Platzbedarf, wird dieser Aspekt besonders deutlich. 1 GB an Speicherkapazität bestehend aus GDDR5-Speicher misst 24 x 28 mm, also 672 mm2. Durch das Stapeln von bis zu vier Ebenen belegen 1 GB HBM nur 5 x 7 mm, also 35 mm2. Dies entspricht einer Platzeinsparung von 94 %.

AMD: High Bandwidth Memory (HBM)
AMD: High Bandwidth Memory (HBM)

Noch deutlicher werden die Verhältnisse aber, wenn man moderne High-End-GPUs mit 4, 8 oder gar 12 GB an Speicher bestückt. So kommt eine Radeon R9 290X mit ihren 4 GB GDDR5-Speicher auf 9.900 mm2 Fläche auf dem PCB. Die gleiche GPU auf einem Interposer zusammen mit HBM kommt auf weniger als 4.900 mm2. Die Rechenbeispiele aus dem obigen Fall lassen sich also nicht ohne die technischen Voraussetzungen von HBM durch das Trägermaterial vergleichen, dennoch sprechen wir von einer Einsparung von 50 %.

AMD: High Bandwidth Memory (HBM)AMD: High Bandwidth Memory (HBM)

AMD: High Bandwidth Memory (HBM)

Laut AMD eignet sich DRAM bzw. GDDR auch nicht für eine Integration auf einer Logikeinheit – auch wenn andere Hersteller dies in gewisser Weise genau so machen. So packt Intel DRAM zusammen mit der CPU oder SoC in ein Package. So zum Beispiel beim eDRAM der "Crystalwell"-GPU alias Iris Pro Graphics. Ein ähnliches Verfahren kommt auch bei den APUs in der Xbox 360 und der Nintendo Wii U zum Einsatz.

Auf die Beschränkungen der zukünftigen Entwicklung von GDDR5 durch den immer höheren Bedarf an Spannung und damit eine immer höhere Leistungsaufnahme sind wir bereits eingegangen. GDDR5 bewegt sich aktuell in einem noch machbaren Bereich, doch die Grenzen des möglichen oder besser gesagt sinnvollen sind erreicht.

AMD: High Bandwidth Memory (HBM)
AMD: High Bandwidth Memory (HBM)

Allerdings gelingt die Integration von HBM nicht einfach so und bedarf einiger technischer Kniffe. Dazu gehört auch der Interposer, der als Träger für CPU/GPU und HBM dient. Der Interposer dient dabei als Schnittstelle zwischen den verschiedenen Chips sowie einem notwendigen Interface zwischen diesen und dem PCB. Viele Chips mit Ball Grid Array (BGA) verwenden einen Interposer. Der Pentium II von Intel ist eines der frühesten Beispiele und einige mehr sind in der Zwischenzeit dazu gekommen.

Die räumliche Nähe von HBM zur GPU auf dem Interposer ist eine Voraussetzung für ein breites Speicherinterface. Die Verdrahtung erfolgt nicht mehr über Leiterbahnen auf dem PCB, sondern direkt durch den Interposer. Auch wird das Ansprechen des Speichers über das Speicherinterface damit einfacher, da die Timings nicht mehr derart exakt abgestimmt werden müssen. Hier bietet HBM ohnehin eine größere Flexibilität, wie wir in einem weiteren Artikel bereits erläuterten.

Allerdings musste sich AMD bei der Fertigung auch neue Partner suchen, um die eigenen GPUs zusammen mit HBM auf einem Interposer unterbringen zu können. Diese hat man mit ASE, Amkor und UMC gefunden.

AMD: High Bandwidth Memory (HBM)
AMD: High Bandwidth Memory (HBM)

Wie genau der Aufbau von HBM auf dem Interposer zusammen mit einer GPU aussieht, zeigt AMD ebenfalls. In diesem Beispiel ist ein HBM mit vier Schichten zu sehen, die mittels TSVs (Through Silicon Vias) miteinander verbunden sind. Zur direkten Verbindung ebenfalls zum Einsatz kommen sogenannte µBumps, die auch dazu verwendet werden die Abwärme aus den dazwischenliegenden Schichten abzuführen. Auch dazu haben wir bereits vor einigen Tagen einige Details veröffentlicht.

Die physikalische Schnittstelle zwischen Speicher und GPU befindet sich direkt unterhalb des Speichers. Auch hier werden die Verbindungen zu den Speicherstacks wie TSVs realisiert. Durch den Interposer laufen wiederum die Verbindungen zum Package-Substrat, auf dem die komplette Konstruktion sitzt und das wiederum beispielsweise über ein BGA die Verbindung zum PCB herstellt. Über diese Verbindungen wird auch die Stromversorgung von HBM und GPU erfolgen.

AMD: High Bandwidth Memory (HBM)
AMD: High Bandwidth Memory (HBM)

Noch einmal ein direkter Vergleich der technischen Daten von DRAM und HBM: Während GDDR5 pro Chip auf eine Breite des Speicherinterfaces von 32 Bit kommt, sind es bei HBM 1.024 Bit. Bei Taktraten von gerade einmal 500 MHz (effektiv 1.000 MHz) für HBM erreicht AMD so eine Speicherbandbreite von mehr als 100 GB/s pro Stack. Bei vier Stacks kommen wir so auf 512 GB/s für einen HBM-Chip. GDDR5 kommt aktuell bei 1.750 MHz auf 28 GB/s pro Chip. Die Spannung von GDDR5 liegt bei 1,5 V, während HBM mit 1,3 V auskommt.

An dieser Stelle kommen wir auch gleich zu einem Detail der ersten HBM-Implementation seitens AMD, das bisher noch weitestgehend unbekannt war. Während aufgrund der bisher verfügbaren Informationen davon ausgegangen wurde, dass AMD seine ersten Karten mit HBM mit 4 und/oder 8 GB Speicherkapazität ausliefern wird, sieht es nun so aus, als würden zunächst einmal nur 4 GB verbaut werden können. Grund hierfür ist die Planung seitens AMD in den ersten Varianten vier HBM-Chips zu verbauen. Bei vier Stacks je HBM-Chip, die so von AMD bestätigt wurden, kommen wir auf maximale 4 GB Grafikspeicher in der ersten Version.

AMD spricht allerdings auch davon, dass die Speicherkapazität nur eine der aktuellen Limitierungen ist. Man müsse sich auch auf die bessere Nutzung dieses Speichers konzentrieren und habe dazu Mittel und Wege entwickelt. Vermutlich wird auch AMD eine Speicherkomprimierung einsetzen. GDDR5 verschenke hier laut AMD viel Potenzial, dass mit HBM wieder frei werde - damit seien auch 4 GB Grafikspeicher zunächst einmal wieder mehr als ausreichend. Ob dies auch den Tatsachen entspricht, werden wir spätestens zum Start der ersten GPUs mit HBM sehen.

Der genaue Wortlaut von AMDs CTO, Joe Macri lautete wie folgt:

"You're not limited in this world to any number of stacks, but from a capacity point of view, this generation-one HBM, each DRAM is a two-gigabit DRAM, so yeah, if you have four stacks you're limited to four gigabytes. You could build things with more stacks, you could build things with less stacks. Capacity of the frame buffer is just one of our concerns. There are many things you can do to utilise that capacity better. So if you have four stacks you're limited to four GB, but we don't really view that as a performance limitation from an AMD perspective.

If you actually look at frame buffers and how efficient they are and how efficient the drivers are at managing capacities across the resolutions, you'll find that there's a lot that can be done. We do not see 4 GB as a limitation that would cause performance bottlenecks. We just need to do a better job managing the capacities. We were getting free capacity, because with GDDR5 in order to get more bandwidth we needed to make the memory system wider, so the capacities were increasing. As engineers, we always focus on where the bottleneck is. If you're getting capacity, you don't put as much effort into better utilising that capacity. 4GB is more than sufficient. We've had to go do a little bit of investment in order to better utilise the frame buffer, but we're not really seeing a frame buffer capacity [problem]. You'll be blown away by how much capacity is wasted."

AMD: High Bandwidth Memory (HBM)AMD: High Bandwidth Memory (HBM)

AMD: High Bandwidth Memory (HBM)

Zusammenfassender Überblick HBM

HBM ist mehr als die höhere Speicherbandbreite. HBM liefert natürlich das Potenzial die Speicherbandbreite bereits zum Start dramatisch zu erhöhen und dieser Trend wird sich mit den weiteren Ausbaustufen von HBM weiter fortsetzen. HBM bietet aber auch weitere Vorteile. Dazu gehören der geringere Platzbedarf, ein geringerer Verbrauch und damit verbunden eine weniger aufwendige Versorgung sowie größere Möglichkeiten für die Hersteller wie AMD und NVIDIA, den zur Verfügung stehenden Speicher besser zu nutzen. Der geringere Verbrauch bei gleichzeitig höherer Leistung sorgt natürlich auch für ein deutlich besseres Performance/Watt-Verhältnis. AMD misst hier in GB pro Sekunde/Watt und dieses Verhältnis ist für HBM dreimal höher als bei GDDR5

Noch immer sprechen wir hier aber von viel Theorie und können die Auswirkungen in der Praxis daher kaum abschätzen. Wird werden uns aber nicht mehr allzu lange gedulden müssen, bis wir Hand an Grafikkarten mit HBM legen dürfen. AMD wird eine baldige Veröffentlichung sowie eine Verfügbarkeit im Laufe des Junis nachgesagt. Zumindest aber konnte AMD noch einige weitere Aspekte im Zusammenhang mit HBM aufzeigen bzw. diese etwas tiefergreifend behandeln. Jetzt sind wir gespannt auf die Hardware-Umsetzungen!

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (20)

#11
customavatars/avatar115418_1.gif
Registriert seit: 27.06.2009
Schweiz
Korvettenkapitän
Beiträge: 2333
Zitat WoIstDerAmiga;23500478
Tests abwarten,dann flamen.Aber ich gehe jetzt schoneinmal davon aus,da die Karte ja in der Titanliga mitspielen soll,AMD weiss was sie tun.


Das würde ich mir auch wünschen und das würde mir sicherlich den ein oder anderen Taler beim Kauf der 980ti sparen.

Und nein, ich will keinesfalls flamen. Habe nur auf die üblichen Fanboygesänge gewartet ;)
#12
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9489
Zitat ilovebytes;23500575
selbst bei ausgeklügeltster Komprimierungstechnik und Geschwindigkeitsvorteilen von HBM - wie will man den 2GB bzw. gar 8GB weniger Vram rein softwaretechnisch wettmachen :wall:

Wie gesagt, Komprimierung kann sehr mächtig sein. Mach doch mal nen Screenshot von einem Game und speichere ihn einmal als BMP ab, und einmal als PNG!

Zitat Motkachler;23500770
Solche Benches die den krüppel Speicher der GTX 970 nicht gezeigt haben wird es ja wohl hoffentlich nicht mehr geben.

Hmm, das wird dann sicher ne problematsiche Geschichte... bei jedem verlustfreie Komprimierungsverfahren, gibt es Datenkonstelationen die nicht komprimiert werden können, oder deren Ergebnis gar größer als die Ursprungsdaten sind. D.h. es wird wahrscheinlich solch ein dediziertes Tool geben, dass absichtlich zeigt dass bei bestimmten Daten, nicht mal ganze 4Gb reinpassen.
In Games wird solch ein Fall aber - im Gegensatz zur 3.5Gb problematik der GTX - auch in zukunft nicht auftreten (solang natürlich nicht so viel RAM notwendig ist, dass auch das Komprimieren nicht mehr ausreicht.
#13
Registriert seit: 26.09.2007
Kärnten/Österreich
Kapitänleutnant
Beiträge: 2009
ja Komprimierung kann mächtig sein, aber wenn die komprimierten Daten dann die 4GB übersteigen was dann...

selbst Nvidia die ja bereits ein recht gut funktionierendes Komprimierungsverfahren anwenden, werden nicht aus Jux und Tollerei auf mehr als 4GB bei High End und mehr als 6GB bei absolutem High End gehen.

ich lasse mich gerne eines besseren belehren, und ich wünsche Amd wirklich das beste, aber ich glaube nicht das sie zaubern können und einfach mal so 2GB oder noch mehr Speicher mit einer Softwarelösung wett machen
#14
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Flottillenadmiral
Beiträge: 5105
Cool, ich will auf jeden Fall die High End Karte von AMD, aber ich kann nicht mehr länger warten und will 8GB... -.-
#15
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9489
Zitat ilovebytes;23500942
ja Komprimierung kann mächtig sein, aber wenn die komprimierten Daten dann die 4GB übersteigen was dann...

Naja, wenn 30% Komprimierungd rin wäre, was bei normaler Grafik eigentlich normal der Fall ist, wären schon mal fast 6Gb drin.

Zitat ilovebytes;23500942

selbst Nvidia die ja bereits ein recht gut funktionierendes Komprimierungsverfahren anwenden, werden nicht aus Jux und Tollerei auf mehr als 4GB bei High End und mehr als 6GB bei absolutem High End gehen.

Soweit ich weiss, nutzt NV die Komprimierung nur für den Übertragungsweg um das recht schmale Interface auszugleichen. Im RAM sind die Daten trotzdem unkomprimiert, doer irre ich mich da?
#16
Registriert seit: 23.09.2009

Kapitänleutnant
Beiträge: 1928
Das Problem ist doch, du kannst nicht vorher wissen, wie klein die Daten nach dem Komprimieren sind. Deshalb muss man immer die komplette Größe reservieren ;)
#17
customavatars/avatar34509_1.gif
Registriert seit: 31.01.2006
Jena / Thüringen
Moderator
HWLUXX OC-Team
TeamMUTTI
Beiträge: 11734
Zitat why_me;23501545
Das Problem ist doch, du kannst nicht vorher wissen, wie klein die Daten nach dem Komprimieren sind. Deshalb muss man immer die komplette Größe reservieren ;)

Man kann auch nicht wissen, welche Texturen oder Grafiken geladen werden müssen. Dreh ich mich im Spiel nach links und sehe einen Strand mit Wasser, oder drehe ich mich im Spiel nach rechts und sehe Berge und einen Wald. Ist dann also jeder VRAM, egal wie groß, immer komplett voll? :fresse:

Spätestens nach dem Komprimieren habe ich doch wieder eine Größe, mit der ich arbeiten kann. Das Komprimieren geschieht doch nicht wie von Geisterhand irgendwo auf dem PCB zwischen GPU und VRAM...
#18
Registriert seit: 24.10.2002
Wels
Bootsmann
Beiträge: 563
Zitat DragonTear;23501082

Soweit ich weiss, nutzt NV die Komprimierung nur für den Übertragungsweg um das recht schmale Interface auszugleichen. Im RAM sind die Daten trotzdem unkomprimiert, doer irre ich mich da?


Hätte ich jetzt auch gesagt, sonst müssten die Dinger ja jedesmal wenn sie dargestellt werden sollen "on-the-fly" entpackt werden. Wie sagt der gute Al? "Das glaube ich nicht, Tim".
#19
customavatars/avatar34509_1.gif
Registriert seit: 31.01.2006
Jena / Thüringen
Moderator
HWLUXX OC-Team
TeamMUTTI
Beiträge: 11734
Die Frage ist doch, wer oder was im normalen VRAM soll die Daten beim Schreiben dekomprimieren und dann für das Lesen wieder komprimieren?
Die Komprimierung nur für den Übertragungsweg ist in meinen Augen Unsinn! Was soll das auch für Vorteile bringen, außer das der VRAM sinnlos voll ist? :fresse:
#20
customavatars/avatar101638_1.gif
Registriert seit: 30.10.2008
Dorsten
Kapitän zur See
Beiträge: 3869
Die Benchmark leaks sind wieder mal sehr lustig. ....

Gesendet von meinem SM-G900F mit der Hardwareluxx App
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]