> > > > HBM-Gegenspieler: Micron will Speicherbandbreite mit GDDR5X steigern

HBM-Gegenspieler: Micron will Speicherbandbreite mit GDDR5X steigern

DruckenE-Mail
Erstellt am: von

micronBei AMD und NVIDIA scheint der Weg für eine zukünftige Speichertechnologie geebnet zu sein. Während AMD bereits ab diesem Sommer auf High Bandwidth Memory setzt - z.B. auf der Radeon R9 Fury X, Radeon R9 Fury und Radeon R9 Nano - wird NVIDIA erst im kommenden Jahr mit der Pascal-GPU auf eben diesen Speichertyp setzen. Ob dann SK Hynix wie bei AMD der Lieferant für diesen Speicher ist oder aber Samsung ebenfalls erste größere Volumen liefern wird, steht noch in den Sternen.

Briefing von Micron zu GDDR5X
Briefing von Micron zu GDDR5X

HBM wird bis auf absehbare Zeit dem High-End-Bereich vorbehalten bleiben. Ab der Mittelklasse setzten AMD und NVIDIA wohl noch einige Zeit auf GDDR5, der inzwischen Taktraten von bis zu 2.000 MHz erreicht, auf den Karten machen die Hersteller derzeit aber nur Gebrauch von 1.750 MHz. In die Lücke zwischen HBM und dem vermeintlich abgehängten GDDR5 möchte Micron mit GDDR5X springen. Dieser basiert technisch auf der aktuellen Speichertechnologie, wird allerdings in einigen Details derart angepasst, dass die Datenrate ansteigt.

Briefing von Micron zu GDDR5XBriefing von Micron zu GDDR5X

Briefing von Micron zu GDDR5X

So wird der Prefetch von 32 auf 64 Bit verdoppelt. Dadurch verdoppelt sich auch die Anzahl der Datenwörter pro Zugriff von 8 auf 16. Die Datenraten pro Speicherchip liegen aktuell bei 8 GBit/s bei den erwähnten GDDR5-Varianten mit 2.000 MHz. Micron arbeitet in der aktuellen Ausführung von GDDR5X mit 10 bis 12 GBit/s, plant aber mit bis zu 16 GBit/s. Laut Micron sorgen die geringen Unterschiede zwischen GDDR5 und GDDR5X dafür, dass nur wenige Änderungen beim Design der Speichercontroller vorgenommen werden müssen, was AMD und NVIDIA sicherlich entgegen kommt.

Ein paar Rechenbeispiele dazu: Besitzt eine GPU aktuell ein Speicherinterface mit 256 Bit, so steigert der Einsatz von GDDR5X bei 12 GBit/s die Speicherbandbreite von 256 auf 384 GB/s (bei einem angenommenen Chiptakt von 2.000 MHz). Bei 16 GBit/s wäre sogar eine Verdopplung auf 512 GB/s möglich und damit läge man schon auf Niveau der aktuellen HBM-Generation. An dieser Stelle muss aber auch erwähnt werden, dass ein GDDR5X mit 16 GBit/s derzeit noch nicht realisierbar ist.

Briefing von Micron zu GDDR5XBriefing von Micron zu GDDR5X

Briefing von Micron zu GDDR5X

High Bandwidth Memory ist die zukünftige Speichertechnologie, soviel steht wohl bereits jetzt fest. Gerade der nächste Entwicklungsschritt auf die 2. Generation zeigt ein enormes Potenzial. Aber HBM wird nicht über eine komplette Produktpalette eingeführt werden können - AMD macht dies aktuell vor. GDDR5X besitzt also seine Daseinsberechtigung, zumal die Entwicklung hier ebenfalls voranschreitet und die Integration bzw. die Anbindung an bestehende Speichercontroller recht einfach wäre (ähnliche/identische Timings und Clocks). Netter Nebeneffekt ist die Senkung der Speicherspannung von aktuell 1,5 auf 1,35 V. Selbst das Pinlayout der Chips ist identisch.

Social Links

Kommentare (29)

#20
Registriert seit: 18.10.2007

Hauptgefreiter
Beiträge: 213
Zitat ELKINATOR;23976983
vielleicht sehen wir das auch bald, Fiji soll auch HBM2 unterstützen.

Das war ja auch früher die Stärke von AMD,an die sie sich langsam wieder erinnern.Nicht einfach ein Produkt für heute entwickeln,sondern damit auch Technologien von Morgen ausprobieren.
Zitat Unrockstar;23976799
Grafikkarten unter 120€ braucht eh kein Mensch.

Was hat jetzt eine GraKa für unter 120€ mit "wenig Energieverbrauch" zu tun?
#21
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 5275
Zitat WoIstDerAmiga;23977007
Das war ja auch früher die Stärke von AMD,an die sie sich langsam wieder erinnern.Nicht einfach ein Produkt für heute entwickeln,sondern damit auch Technologien von Morgen ausprobieren.

Je mehr Leute es live sehen umso besser.
Ein Bild mit 8 Meter Diagonale und 8K Auflösung sehen bestimmt auch genial aus!

Beam me up scotty! :bigok:
#22
customavatars/avatar17977_1.gif
Registriert seit: 16.01.2005
HH\Wandsbek\Hinschenfelde
Korvettenkapitän
Beiträge: 2441
@ Phantomias (Du warst früher mein Held) ^^:

Stimmt vergessen, die Xbox hat ja EDO-Ram oder wie sich das schimpft.

@WoistderAmiga:
Sagte ich was von Niedrigern Energieverbrauch? Nein.. Aber ja das wird der fall sein.. Schon jetzt ist die Iris Pro verdammt Effizient und mit HBM dürfte da noch mehr gehen.. SoC sind die Zukunft, die reine CPU ist ein Auslaufmodell.. Embedded Systeme übernehmen ja nun jetzt schon die Leistung der alten Steuersystem und ARM wird die Lücke nach unten und Oben schließen.. Und es wird nicht mehr Lange dauern, da werden Consumer Modelle neben einer CPU auch eine GPU und den Ram haben. Exascale Systeme sollen ja auch in diese Lücke zielen und selbst die Xeon Phi lösen nach und nach die CPUs ab. Ich denke aber nicht dass man wirklich viel gegenüber einer dGPU sparen kann.. Noch nicht
#23
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 5275
Zitat Unrockstar;23977362
@ Phantomias (Du warst früher mein Held) ^^:

Stimmt vergessen, die Xbox hat ja EDO-Ram oder wie sich das schimpft.


Helden kommen und gehen.
Der GDDR5 mit 1375MHz komtt auf über 300 GByte/s mit 32x PCie Lanes. :)
#24
customavatars/avatar122409_1.gif
Registriert seit: 31.10.2009

Oberbootsmann
Beiträge: 1020
Zitat Phantomias88;23976829
Du hast Microsoft´s Xbox vergessen, die hat auch schon ein Pool.

Der HBM braucht nur so viel Strom, weil die Fury´s einfach Oversized sind, würde mich nicht wundern, wenn der selbe Chip mehr Leistung mit HBM v2 erreicht.


Wo soll den der Unterschied sein.:)
#25
customavatars/avatar205203_1.gif
Registriert seit: 15.04.2014
/home
Banned
Beiträge: 1011
Zitat WoIstDerAmiga;23976622
Was für ein Schwachsinn.Dann müsste man jedesmal,wenn die ohnehinn schon magere Onboardgrafik zu langsam ist,die CPU mit austauschen.Dementsprechend wird es für lange Zeit "wenig verbrauchende" Grafikkarten geben.Wobei ersteinmal geklärt werden muss,wie sich wenig Verbrauch definiert.Für die gebotene Leistung hat eine 980er schon recht wenig Verbrauch.

die igpus sind zur zeit massiv bandbreiten limitiert.
das ist also alles andere als schwachsinn. erst informieren, dann denken, dann posten.

wäre dem nicht so könnte man auch viel dickere gpus verbauen. siehe z.b. ps4.

mit hbm apus kann man dann schöne kleine mittelklasse gaming pcs bauen.
ich werde mir direkt einen schönen kleinen pc damit bauen. fette atx gaming tower unter dem tisch sind so 2010.

immer mehr komponenten in einen chip packen ist schon lange der trend.
und macht auch sinn.
#26
customavatars/avatar30239_1.gif
Registriert seit: 24.11.2005

Großadmiral
Beiträge: 15150
Ich halte ja wenig davon Gaming PCs möglcihst immer kleiner zu bauen, hatte auch mal einen, aber warum es sich selbst schwerer machen und alles komplizierter (Kühlung, Grafikkartengrösse, Platz für Festplatten und sonstige Erweiterungen usw..) ?
Ich rede jetzt von richtigen Gaming Kisten, APUs etc fallen da raus ,einfach mangels Leistung, ich stell gerne alle Grafikschrauben auf Anschlag.

Sicher es ist ne grössere Herausforderung und macht Spass, aber wenn man nicht Grad innem Japanischen 10qm Aprtment in Tokio wohnt eigtl unnötig.
Ich bleib daher bei meinem Miditower, ideal für meine Bedürfnisse. Hatte früher mal nen Big Tower(Silverstone TJ07) aber der war mir zu undhandlich und schwer bei umbauten.

GDDR5X geht wohl an mir vorbei ,ich kaufe mir für gewöhnlich eine High End Karte und behalte die ein paar Jahre (meine GTX580 hatte ich von Release Dez 2010 bis Mitte 2015). Wenn also eine neue ansteht hat sich HBM wohl auch in der oberen Mittelkalsse durchgesetzt.
#27
Registriert seit: 18.10.2007

Hauptgefreiter
Beiträge: 213
Zitat Unrockstar;23977362

Sagte ich was von Niedrigern Energieverbrauch? Nein..

Genau das war aber der Gegenstand des Themas,bevor Du es aus dem Zusammenhang gerissen hast.Guckst Du:
Zitat ELKINATOR;23976269
Grakas mit wenig verbrauch werden wohl deswegen in den nächsten jahren langsam aussterben.

Dazu hab ich ja auch gesagt,das eine 980 wenig verbraucht.Versuch die mal in eine CPU mit reinzufummeln und das zu einem interessanten Preis auf den Markt zu bringen.

Zitat john201050;23977679
die igpus sind zur zeit massiv bandbreiten limitiert.
das ist also alles andere als schwachsinn. erst informieren, dann denken, dann posten.

Das mag sein das dem so ist.Trotzdem sind sie Lahm und teuer.Wieviele verschiedene CPUs mit iGPU soll man eigendlich für jeweilige Einsatzzwecke und Preise entwickeln?Der eine braucht die iGPU garnicht,der andere zwar ordentlich CPU-Leistung aber eine schwache iGPU.Beim anderen ist es umgekehrt.Die möchten Geld für etwas ausgeben was sie brauchen.Nicht für etwas was sie nicht wollen.Und wenn sich der Einsatzzweck mal ändert müssen sie CPU UND GRAFIK neu kaufen.
Die Teile werden in einem "Arbeits-PC" wenig Daseinsberechtigung haben.Notebooks,Konsolen,von mir aus Büro-PCs,da sind sie durchaus adäquat.
#28
customavatars/avatar17977_1.gif
Registriert seit: 16.01.2005
HH\Wandsbek\Hinschenfelde
Korvettenkapitän
Beiträge: 2441
Zitat WoIstDerAmiga;23978025
Genau das war aber der Gegenstand des Themas,bevor Du es aus dem Zusammenhang gerissen hast.Guckst Du:

Dazu hab ich ja auch gesagt,das eine 980 wenig verbraucht.Versuch die mal in eine CPU mit reinzufummeln und das zu einem interessanten Preis auf den Markt zu bringen.


Das mag sein das dem so ist.Trotzdem sind sie Lahm und teuer.Wieviele verschiedene CPUs mit iGPU soll man eigendlich für jeweilige Einsatzzwecke und Preise entwickeln?Der eine braucht die iGPU garnicht,der andere zwar ordentlich CPU-Leistung aber eine schwache iGPU.Beim anderen ist es umgekehrt.Die möchten Geld für etwas ausgeben was sie brauchen.Nicht für etwas was sie nicht wollen.Und wenn sich der Einsatzzweck mal ändert müssen sie CPU UND GRAFIK neu kaufen.
Die Teile werden in einem "Arbeits-PC" wenig Daseinsberechtigung haben.Notebooks,Konsolen,von mir aus Büro-PCs,da sind sie durchaus adäquat.


Ähm okay... Also ich würde mal sagen Thema verfehlt..Eine 980 ist nur effizient wenn sie im fest vorgegeben Rahmen läuft, sonst säuft die genauso, und wenn man erst die DP Leistung beschneiden muss um Effizient zu sein und das SI, dann passt die Aussage Effizient eh nicht. Mit HBM und fehlenden DRAM Interface würde so eine Karte auf gute 100W kommen, das ist der Vorteil den eben HBM auf iGPUs ausspielen kann. Und von einer Iris Pro als Langsam zu reden, nunja.. AMD APUs sind auch nicht langsam, aber eben Bandbreiten limitiert. Gottseidank werden Solche Techniken dennoch kommen und auch ewig gestrige nicht berücksichtigen.. Wenn es nämlich nach denen ginge, hätten wir 10GHZ Singlecores.
#29
Registriert seit: 18.10.2007

Hauptgefreiter
Beiträge: 213
Zitat Unrockstar;23980031
Ähm okay... Also ich würde mal sagen Thema verfehlt..Eine 980 ist nur effizient wenn sie im fest vorgegeben Rahmen läuft, sonst säuft die genauso, und wenn man erst die DP Leistung beschneiden muss um Effizient zu sein und das SI, dann passt die Aussage Effizient eh nicht. Mit HBM und fehlenden DRAM Interface würde so eine Karte auf gute 100W kommen, das ist der Vorteil den eben HBM auf iGPUs ausspielen kann. Und von einer Iris Pro als Langsam zu reden, nunja.. AMD APUs sind auch nicht langsam, aber eben Bandbreiten limitiert. Gottseidank werden Solche Techniken dennoch kommen und auch ewig gestrige nicht berücksichtigen.. Wenn es nämlich nach denen ginge, hätten wir 10GHZ Singlecores.

Du merkst nicht das Du nur sabbelst um Überdruck loszuwerden?Die 980 ist genau in dem Bereich effizient,wo sie verkauft wird.Mein 2 Liter 16v ist auch effizient,wenn ich aber in die Kiste reintrample,ja dann.....Genauso als wenn ich die 980 bis ans Limit oce.
Sicher wird die Technologie kommen,das habe ich nie bezweifelt.Aber nur weil die Technologie kommt ein Ende von stromsparenden Grafikkarten zu sehen ist,wie so oft bei Schwätzinator,falsch.Und DAS,und NUR das war das Thema.NICHTS anderes,bist Du unquallifiziert etwas von 120€ Grafikkarten reininterpretiert hast.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]