> > > > HBM-Gegenspieler: Micron will Speicherbandbreite mit GDDR5X steigern

HBM-Gegenspieler: Micron will Speicherbandbreite mit GDDR5X steigern

Veröffentlicht am: von

micronBei AMD und NVIDIA scheint der Weg für eine zukünftige Speichertechnologie geebnet zu sein. Während AMD bereits ab diesem Sommer auf High Bandwidth Memory setzt - z.B. auf der Radeon R9 Fury X, Radeon R9 Fury und Radeon R9 Nano - wird NVIDIA erst im kommenden Jahr mit der Pascal-GPU auf eben diesen Speichertyp setzen. Ob dann SK Hynix wie bei AMD der Lieferant für diesen Speicher ist oder aber Samsung ebenfalls erste größere Volumen liefern wird, steht noch in den Sternen.

Briefing von Micron zu GDDR5X
Briefing von Micron zu GDDR5X

HBM wird bis auf absehbare Zeit dem High-End-Bereich vorbehalten bleiben. Ab der Mittelklasse setzten AMD und NVIDIA wohl noch einige Zeit auf GDDR5, der inzwischen Taktraten von bis zu 2.000 MHz erreicht, auf den Karten machen die Hersteller derzeit aber nur Gebrauch von 1.750 MHz. In die Lücke zwischen HBM und dem vermeintlich abgehängten GDDR5 möchte Micron mit GDDR5X springen. Dieser basiert technisch auf der aktuellen Speichertechnologie, wird allerdings in einigen Details derart angepasst, dass die Datenrate ansteigt.

Briefing von Micron zu GDDR5XBriefing von Micron zu GDDR5X

Briefing von Micron zu GDDR5X

So wird der Prefetch von 32 auf 64 Bit verdoppelt. Dadurch verdoppelt sich auch die Anzahl der Datenwörter pro Zugriff von 8 auf 16. Die Datenraten pro Speicherchip liegen aktuell bei 8 GBit/s bei den erwähnten GDDR5-Varianten mit 2.000 MHz. Micron arbeitet in der aktuellen Ausführung von GDDR5X mit 10 bis 12 GBit/s, plant aber mit bis zu 16 GBit/s. Laut Micron sorgen die geringen Unterschiede zwischen GDDR5 und GDDR5X dafür, dass nur wenige Änderungen beim Design der Speichercontroller vorgenommen werden müssen, was AMD und NVIDIA sicherlich entgegen kommt.

Ein paar Rechenbeispiele dazu: Besitzt eine GPU aktuell ein Speicherinterface mit 256 Bit, so steigert der Einsatz von GDDR5X bei 12 GBit/s die Speicherbandbreite von 256 auf 384 GB/s (bei einem angenommenen Chiptakt von 2.000 MHz). Bei 16 GBit/s wäre sogar eine Verdopplung auf 512 GB/s möglich und damit läge man schon auf Niveau der aktuellen HBM-Generation. An dieser Stelle muss aber auch erwähnt werden, dass ein GDDR5X mit 16 GBit/s derzeit noch nicht realisierbar ist.

Briefing von Micron zu GDDR5XBriefing von Micron zu GDDR5X

Briefing von Micron zu GDDR5X

High Bandwidth Memory ist die zukünftige Speichertechnologie, soviel steht wohl bereits jetzt fest. Gerade der nächste Entwicklungsschritt auf die 2. Generation zeigt ein enormes Potenzial. Aber HBM wird nicht über eine komplette Produktpalette eingeführt werden können - AMD macht dies aktuell vor. GDDR5X besitzt also seine Daseinsberechtigung, zumal die Entwicklung hier ebenfalls voranschreitet und die Integration bzw. die Anbindung an bestehende Speichercontroller recht einfach wäre (ähnliche/identische Timings und Clocks). Netter Nebeneffekt ist die Senkung der Speicherspannung von aktuell 1,5 auf 1,35 V. Selbst das Pinlayout der Chips ist identisch.

Social Links

Kommentare (29)

#20
Registriert seit: 18.10.2007

Hauptgefreiter
Beiträge: 214
Zitat ELKINATOR;23976983
vielleicht sehen wir das auch bald, Fiji soll auch HBM2 unterstützen.

Das war ja auch früher die Stärke von AMD,an die sie sich langsam wieder erinnern.Nicht einfach ein Produkt für heute entwickeln,sondern damit auch Technologien von Morgen ausprobieren.
Zitat Unrockstar;23976799
Grafikkarten unter 120€ braucht eh kein Mensch.

Was hat jetzt eine GraKa für unter 120€ mit "wenig Energieverbrauch" zu tun?
#21
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Vizeadmiral
Beiträge: 6898
Zitat WoIstDerAmiga;23977007
Das war ja auch früher die Stärke von AMD,an die sie sich langsam wieder erinnern.Nicht einfach ein Produkt für heute entwickeln,sondern damit auch Technologien von Morgen ausprobieren.

Je mehr Leute es live sehen umso besser.
Ein Bild mit 8 Meter Diagonale und 8K Auflösung sehen bestimmt auch genial aus!

Beam me up scotty! :bigok:
#22
customavatars/avatar17977_1.gif
Registriert seit: 16.01.2005
HH\Wandsbek\Hinschenfelde
Fregattenkapitän
Beiträge: 2577
@ Phantomias (Du warst früher mein Held) ^^:

Stimmt vergessen, die Xbox hat ja EDO-Ram oder wie sich das schimpft.

@WoistderAmiga:
Sagte ich was von Niedrigern Energieverbrauch? Nein.. Aber ja das wird der fall sein.. Schon jetzt ist die Iris Pro verdammt Effizient und mit HBM dürfte da noch mehr gehen.. SoC sind die Zukunft, die reine CPU ist ein Auslaufmodell.. Embedded Systeme übernehmen ja nun jetzt schon die Leistung der alten Steuersystem und ARM wird die Lücke nach unten und Oben schließen.. Und es wird nicht mehr Lange dauern, da werden Consumer Modelle neben einer CPU auch eine GPU und den Ram haben. Exascale Systeme sollen ja auch in diese Lücke zielen und selbst die Xeon Phi lösen nach und nach die CPUs ab. Ich denke aber nicht dass man wirklich viel gegenüber einer dGPU sparen kann.. Noch nicht
#23
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Vizeadmiral
Beiträge: 6898
Zitat Unrockstar;23977362
@ Phantomias (Du warst früher mein Held) ^^:

Stimmt vergessen, die Xbox hat ja EDO-Ram oder wie sich das schimpft.


Helden kommen und gehen.
Der GDDR5 mit 1375MHz komtt auf über 300 GByte/s mit 32x PCie Lanes. :)
#24
customavatars/avatar122409_1.gif
Registriert seit: 31.10.2009

Oberbootsmann
Beiträge: 1020
Zitat Phantomias88;23976829
Du hast Microsoft´s Xbox vergessen, die hat auch schon ein Pool.

Der HBM braucht nur so viel Strom, weil die Fury´s einfach Oversized sind, würde mich nicht wundern, wenn der selbe Chip mehr Leistung mit HBM v2 erreicht.


Wo soll den der Unterschied sein.:)
#25
customavatars/avatar205203_1.gif
Registriert seit: 15.04.2014
/home
Banned
Beiträge: 1011
Zitat WoIstDerAmiga;23976622
Was für ein Schwachsinn.Dann müsste man jedesmal,wenn die ohnehinn schon magere Onboardgrafik zu langsam ist,die CPU mit austauschen.Dementsprechend wird es für lange Zeit "wenig verbrauchende" Grafikkarten geben.Wobei ersteinmal geklärt werden muss,wie sich wenig Verbrauch definiert.Für die gebotene Leistung hat eine 980er schon recht wenig Verbrauch.

die igpus sind zur zeit massiv bandbreiten limitiert.
das ist also alles andere als schwachsinn. erst informieren, dann denken, dann posten.

wäre dem nicht so könnte man auch viel dickere gpus verbauen. siehe z.b. ps4.

mit hbm apus kann man dann schöne kleine mittelklasse gaming pcs bauen.
ich werde mir direkt einen schönen kleinen pc damit bauen. fette atx gaming tower unter dem tisch sind so 2010.

immer mehr komponenten in einen chip packen ist schon lange der trend.
und macht auch sinn.
#26
customavatars/avatar30239_1.gif
Registriert seit: 24.11.2005

Großadmiral
Beiträge: 18811
Ich halte ja wenig davon Gaming PCs möglcihst immer kleiner zu bauen, hatte auch mal einen, aber warum es sich selbst schwerer machen und alles komplizierter (Kühlung, Grafikkartengrösse, Platz für Festplatten und sonstige Erweiterungen usw..) ?
Ich rede jetzt von richtigen Gaming Kisten, APUs etc fallen da raus ,einfach mangels Leistung, ich stell gerne alle Grafikschrauben auf Anschlag.

Sicher es ist ne grössere Herausforderung und macht Spass, aber wenn man nicht Grad innem Japanischen 10qm Aprtment in Tokio wohnt eigtl unnötig.
Ich bleib daher bei meinem Miditower, ideal für meine Bedürfnisse. Hatte früher mal nen Big Tower(Silverstone TJ07) aber der war mir zu undhandlich und schwer bei umbauten.

GDDR5X geht wohl an mir vorbei ,ich kaufe mir für gewöhnlich eine High End Karte und behalte die ein paar Jahre (meine GTX580 hatte ich von Release Dez 2010 bis Mitte 2015). Wenn also eine neue ansteht hat sich HBM wohl auch in der oberen Mittelkalsse durchgesetzt.
#27
Registriert seit: 18.10.2007

Hauptgefreiter
Beiträge: 214
Zitat Unrockstar;23977362

Sagte ich was von Niedrigern Energieverbrauch? Nein..

Genau das war aber der Gegenstand des Themas,bevor Du es aus dem Zusammenhang gerissen hast.Guckst Du:
Zitat ELKINATOR;23976269
Grakas mit wenig verbrauch werden wohl deswegen in den nächsten jahren langsam aussterben.

Dazu hab ich ja auch gesagt,das eine 980 wenig verbraucht.Versuch die mal in eine CPU mit reinzufummeln und das zu einem interessanten Preis auf den Markt zu bringen.

Zitat john201050;23977679
die igpus sind zur zeit massiv bandbreiten limitiert.
das ist also alles andere als schwachsinn. erst informieren, dann denken, dann posten.

Das mag sein das dem so ist.Trotzdem sind sie Lahm und teuer.Wieviele verschiedene CPUs mit iGPU soll man eigendlich für jeweilige Einsatzzwecke und Preise entwickeln?Der eine braucht die iGPU garnicht,der andere zwar ordentlich CPU-Leistung aber eine schwache iGPU.Beim anderen ist es umgekehrt.Die möchten Geld für etwas ausgeben was sie brauchen.Nicht für etwas was sie nicht wollen.Und wenn sich der Einsatzzweck mal ändert müssen sie CPU UND GRAFIK neu kaufen.
Die Teile werden in einem "Arbeits-PC" wenig Daseinsberechtigung haben.Notebooks,Konsolen,von mir aus Büro-PCs,da sind sie durchaus adäquat.
#28
customavatars/avatar17977_1.gif
Registriert seit: 16.01.2005
HH\Wandsbek\Hinschenfelde
Fregattenkapitän
Beiträge: 2577
Zitat WoIstDerAmiga;23978025
Genau das war aber der Gegenstand des Themas,bevor Du es aus dem Zusammenhang gerissen hast.Guckst Du:

Dazu hab ich ja auch gesagt,das eine 980 wenig verbraucht.Versuch die mal in eine CPU mit reinzufummeln und das zu einem interessanten Preis auf den Markt zu bringen.


Das mag sein das dem so ist.Trotzdem sind sie Lahm und teuer.Wieviele verschiedene CPUs mit iGPU soll man eigendlich für jeweilige Einsatzzwecke und Preise entwickeln?Der eine braucht die iGPU garnicht,der andere zwar ordentlich CPU-Leistung aber eine schwache iGPU.Beim anderen ist es umgekehrt.Die möchten Geld für etwas ausgeben was sie brauchen.Nicht für etwas was sie nicht wollen.Und wenn sich der Einsatzzweck mal ändert müssen sie CPU UND GRAFIK neu kaufen.
Die Teile werden in einem "Arbeits-PC" wenig Daseinsberechtigung haben.Notebooks,Konsolen,von mir aus Büro-PCs,da sind sie durchaus adäquat.


Ähm okay... Also ich würde mal sagen Thema verfehlt..Eine 980 ist nur effizient wenn sie im fest vorgegeben Rahmen läuft, sonst säuft die genauso, und wenn man erst die DP Leistung beschneiden muss um Effizient zu sein und das SI, dann passt die Aussage Effizient eh nicht. Mit HBM und fehlenden DRAM Interface würde so eine Karte auf gute 100W kommen, das ist der Vorteil den eben HBM auf iGPUs ausspielen kann. Und von einer Iris Pro als Langsam zu reden, nunja.. AMD APUs sind auch nicht langsam, aber eben Bandbreiten limitiert. Gottseidank werden Solche Techniken dennoch kommen und auch ewig gestrige nicht berücksichtigen.. Wenn es nämlich nach denen ginge, hätten wir 10GHZ Singlecores.
#29
Registriert seit: 18.10.2007

Hauptgefreiter
Beiträge: 214
Zitat Unrockstar;23980031
Ähm okay... Also ich würde mal sagen Thema verfehlt..Eine 980 ist nur effizient wenn sie im fest vorgegeben Rahmen läuft, sonst säuft die genauso, und wenn man erst die DP Leistung beschneiden muss um Effizient zu sein und das SI, dann passt die Aussage Effizient eh nicht. Mit HBM und fehlenden DRAM Interface würde so eine Karte auf gute 100W kommen, das ist der Vorteil den eben HBM auf iGPUs ausspielen kann. Und von einer Iris Pro als Langsam zu reden, nunja.. AMD APUs sind auch nicht langsam, aber eben Bandbreiten limitiert. Gottseidank werden Solche Techniken dennoch kommen und auch ewig gestrige nicht berücksichtigen.. Wenn es nämlich nach denen ginge, hätten wir 10GHZ Singlecores.

Du merkst nicht das Du nur sabbelst um Überdruck loszuwerden?Die 980 ist genau in dem Bereich effizient,wo sie verkauft wird.Mein 2 Liter 16v ist auch effizient,wenn ich aber in die Kiste reintrample,ja dann.....Genauso als wenn ich die 980 bis ans Limit oce.
Sicher wird die Technologie kommen,das habe ich nie bezweifelt.Aber nur weil die Technologie kommt ein Ende von stromsparenden Grafikkarten zu sehen ist,wie so oft bei Schwätzinator,falsch.Und DAS,und NUR das war das Thema.NICHTS anderes,bist Du unquallifiziert etwas von 120€ Grafikkarten reininterpretiert hast.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test

    Logo von IMAGES/STORIES/2017/ZOTAC-RTX1080TI

    Nach der Veröffentlichung und den ausführlichen Tests zur GeForce RTX 2080 Ti und GeForce RTX 2080 Founders Edition kommen wir nun zum ersten Test eines Custom-Modells. ZOTAC konnte uns die Gaming GeForce RTX 2080 Ti AMP bereits zum Start der neuen Generation zur Verfügung stellen, ein... [mehr]