> > > > HBM-Gegenspieler: Micron will Speicherbandbreite mit GDDR5X steigern

HBM-Gegenspieler: Micron will Speicherbandbreite mit GDDR5X steigern

Veröffentlicht am: von

micronBei AMD und NVIDIA scheint der Weg für eine zukünftige Speichertechnologie geebnet zu sein. Während AMD bereits ab diesem Sommer auf High Bandwidth Memory setzt - z.B. auf der Radeon R9 Fury X, Radeon R9 Fury und Radeon R9 Nano - wird NVIDIA erst im kommenden Jahr mit der Pascal-GPU auf eben diesen Speichertyp setzen. Ob dann SK Hynix wie bei AMD der Lieferant für diesen Speicher ist oder aber Samsung ebenfalls erste größere Volumen liefern wird, steht noch in den Sternen.

Briefing von Micron zu GDDR5X
Briefing von Micron zu GDDR5X

HBM wird bis auf absehbare Zeit dem High-End-Bereich vorbehalten bleiben. Ab der Mittelklasse setzten AMD und NVIDIA wohl noch einige Zeit auf GDDR5, der inzwischen Taktraten von bis zu 2.000 MHz erreicht, auf den Karten machen die Hersteller derzeit aber nur Gebrauch von 1.750 MHz. In die Lücke zwischen HBM und dem vermeintlich abgehängten GDDR5 möchte Micron mit GDDR5X springen. Dieser basiert technisch auf der aktuellen Speichertechnologie, wird allerdings in einigen Details derart angepasst, dass die Datenrate ansteigt.

Briefing von Micron zu GDDR5XBriefing von Micron zu GDDR5X

Briefing von Micron zu GDDR5X

So wird der Prefetch von 32 auf 64 Bit verdoppelt. Dadurch verdoppelt sich auch die Anzahl der Datenwörter pro Zugriff von 8 auf 16. Die Datenraten pro Speicherchip liegen aktuell bei 8 GBit/s bei den erwähnten GDDR5-Varianten mit 2.000 MHz. Micron arbeitet in der aktuellen Ausführung von GDDR5X mit 10 bis 12 GBit/s, plant aber mit bis zu 16 GBit/s. Laut Micron sorgen die geringen Unterschiede zwischen GDDR5 und GDDR5X dafür, dass nur wenige Änderungen beim Design der Speichercontroller vorgenommen werden müssen, was AMD und NVIDIA sicherlich entgegen kommt.

Ein paar Rechenbeispiele dazu: Besitzt eine GPU aktuell ein Speicherinterface mit 256 Bit, so steigert der Einsatz von GDDR5X bei 12 GBit/s die Speicherbandbreite von 256 auf 384 GB/s (bei einem angenommenen Chiptakt von 2.000 MHz). Bei 16 GBit/s wäre sogar eine Verdopplung auf 512 GB/s möglich und damit läge man schon auf Niveau der aktuellen HBM-Generation. An dieser Stelle muss aber auch erwähnt werden, dass ein GDDR5X mit 16 GBit/s derzeit noch nicht realisierbar ist.

Briefing von Micron zu GDDR5XBriefing von Micron zu GDDR5X

Briefing von Micron zu GDDR5X

High Bandwidth Memory ist die zukünftige Speichertechnologie, soviel steht wohl bereits jetzt fest. Gerade der nächste Entwicklungsschritt auf die 2. Generation zeigt ein enormes Potenzial. Aber HBM wird nicht über eine komplette Produktpalette eingeführt werden können - AMD macht dies aktuell vor. GDDR5X besitzt also seine Daseinsberechtigung, zumal die Entwicklung hier ebenfalls voranschreitet und die Integration bzw. die Anbindung an bestehende Speichercontroller recht einfach wäre (ähnliche/identische Timings und Clocks). Netter Nebeneffekt ist die Senkung der Speicherspannung von aktuell 1,5 auf 1,35 V. Selbst das Pinlayout der Chips ist identisch.

Social Links

Kommentare (29)

#20
Registriert seit: 18.10.2007

Hauptgefreiter
Beiträge: 214
Zitat ELKINATOR;23976983
vielleicht sehen wir das auch bald, Fiji soll auch HBM2 unterstützen.

Das war ja auch früher die Stärke von AMD,an die sie sich langsam wieder erinnern.Nicht einfach ein Produkt für heute entwickeln,sondern damit auch Technologien von Morgen ausprobieren.
Zitat Unrockstar;23976799
Grafikkarten unter 120€ braucht eh kein Mensch.

Was hat jetzt eine GraKa für unter 120€ mit "wenig Energieverbrauch" zu tun?
#21
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 6077
Zitat WoIstDerAmiga;23977007
Das war ja auch früher die Stärke von AMD,an die sie sich langsam wieder erinnern.Nicht einfach ein Produkt für heute entwickeln,sondern damit auch Technologien von Morgen ausprobieren.

Je mehr Leute es live sehen umso besser.
Ein Bild mit 8 Meter Diagonale und 8K Auflösung sehen bestimmt auch genial aus!

Beam me up scotty! :bigok:
#22
customavatars/avatar17977_1.gif
Registriert seit: 16.01.2005
HH\Wandsbek\Hinschenfelde
Korvettenkapitän
Beiträge: 2542
@ Phantomias (Du warst früher mein Held) ^^:

Stimmt vergessen, die Xbox hat ja EDO-Ram oder wie sich das schimpft.

@WoistderAmiga:
Sagte ich was von Niedrigern Energieverbrauch? Nein.. Aber ja das wird der fall sein.. Schon jetzt ist die Iris Pro verdammt Effizient und mit HBM dürfte da noch mehr gehen.. SoC sind die Zukunft, die reine CPU ist ein Auslaufmodell.. Embedded Systeme übernehmen ja nun jetzt schon die Leistung der alten Steuersystem und ARM wird die Lücke nach unten und Oben schließen.. Und es wird nicht mehr Lange dauern, da werden Consumer Modelle neben einer CPU auch eine GPU und den Ram haben. Exascale Systeme sollen ja auch in diese Lücke zielen und selbst die Xeon Phi lösen nach und nach die CPUs ab. Ich denke aber nicht dass man wirklich viel gegenüber einer dGPU sparen kann.. Noch nicht
#23
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 6077
Zitat Unrockstar;23977362
@ Phantomias (Du warst früher mein Held) ^^:

Stimmt vergessen, die Xbox hat ja EDO-Ram oder wie sich das schimpft.


Helden kommen und gehen.
Der GDDR5 mit 1375MHz komtt auf über 300 GByte/s mit 32x PCie Lanes. :)
#24
customavatars/avatar122409_1.gif
Registriert seit: 31.10.2009

Oberbootsmann
Beiträge: 1020
Zitat Phantomias88;23976829
Du hast Microsoft´s Xbox vergessen, die hat auch schon ein Pool.

Der HBM braucht nur so viel Strom, weil die Fury´s einfach Oversized sind, würde mich nicht wundern, wenn der selbe Chip mehr Leistung mit HBM v2 erreicht.


Wo soll den der Unterschied sein.:)
#25
customavatars/avatar205203_1.gif
Registriert seit: 15.04.2014
/home
Banned
Beiträge: 1011
Zitat WoIstDerAmiga;23976622
Was für ein Schwachsinn.Dann müsste man jedesmal,wenn die ohnehinn schon magere Onboardgrafik zu langsam ist,die CPU mit austauschen.Dementsprechend wird es für lange Zeit "wenig verbrauchende" Grafikkarten geben.Wobei ersteinmal geklärt werden muss,wie sich wenig Verbrauch definiert.Für die gebotene Leistung hat eine 980er schon recht wenig Verbrauch.

die igpus sind zur zeit massiv bandbreiten limitiert.
das ist also alles andere als schwachsinn. erst informieren, dann denken, dann posten.

wäre dem nicht so könnte man auch viel dickere gpus verbauen. siehe z.b. ps4.

mit hbm apus kann man dann schöne kleine mittelklasse gaming pcs bauen.
ich werde mir direkt einen schönen kleinen pc damit bauen. fette atx gaming tower unter dem tisch sind so 2010.

immer mehr komponenten in einen chip packen ist schon lange der trend.
und macht auch sinn.
#26
customavatars/avatar30239_1.gif
Registriert seit: 24.11.2005

Großadmiral
Beiträge: 17218
Ich halte ja wenig davon Gaming PCs möglcihst immer kleiner zu bauen, hatte auch mal einen, aber warum es sich selbst schwerer machen und alles komplizierter (Kühlung, Grafikkartengrösse, Platz für Festplatten und sonstige Erweiterungen usw..) ?
Ich rede jetzt von richtigen Gaming Kisten, APUs etc fallen da raus ,einfach mangels Leistung, ich stell gerne alle Grafikschrauben auf Anschlag.

Sicher es ist ne grössere Herausforderung und macht Spass, aber wenn man nicht Grad innem Japanischen 10qm Aprtment in Tokio wohnt eigtl unnötig.
Ich bleib daher bei meinem Miditower, ideal für meine Bedürfnisse. Hatte früher mal nen Big Tower(Silverstone TJ07) aber der war mir zu undhandlich und schwer bei umbauten.

GDDR5X geht wohl an mir vorbei ,ich kaufe mir für gewöhnlich eine High End Karte und behalte die ein paar Jahre (meine GTX580 hatte ich von Release Dez 2010 bis Mitte 2015). Wenn also eine neue ansteht hat sich HBM wohl auch in der oberen Mittelkalsse durchgesetzt.
#27
Registriert seit: 18.10.2007

Hauptgefreiter
Beiträge: 214
Zitat Unrockstar;23977362

Sagte ich was von Niedrigern Energieverbrauch? Nein..

Genau das war aber der Gegenstand des Themas,bevor Du es aus dem Zusammenhang gerissen hast.Guckst Du:
Zitat ELKINATOR;23976269
Grakas mit wenig verbrauch werden wohl deswegen in den nächsten jahren langsam aussterben.

Dazu hab ich ja auch gesagt,das eine 980 wenig verbraucht.Versuch die mal in eine CPU mit reinzufummeln und das zu einem interessanten Preis auf den Markt zu bringen.

Zitat john201050;23977679
die igpus sind zur zeit massiv bandbreiten limitiert.
das ist also alles andere als schwachsinn. erst informieren, dann denken, dann posten.

Das mag sein das dem so ist.Trotzdem sind sie Lahm und teuer.Wieviele verschiedene CPUs mit iGPU soll man eigendlich für jeweilige Einsatzzwecke und Preise entwickeln?Der eine braucht die iGPU garnicht,der andere zwar ordentlich CPU-Leistung aber eine schwache iGPU.Beim anderen ist es umgekehrt.Die möchten Geld für etwas ausgeben was sie brauchen.Nicht für etwas was sie nicht wollen.Und wenn sich der Einsatzzweck mal ändert müssen sie CPU UND GRAFIK neu kaufen.
Die Teile werden in einem "Arbeits-PC" wenig Daseinsberechtigung haben.Notebooks,Konsolen,von mir aus Büro-PCs,da sind sie durchaus adäquat.
#28
customavatars/avatar17977_1.gif
Registriert seit: 16.01.2005
HH\Wandsbek\Hinschenfelde
Korvettenkapitän
Beiträge: 2542
Zitat WoIstDerAmiga;23978025
Genau das war aber der Gegenstand des Themas,bevor Du es aus dem Zusammenhang gerissen hast.Guckst Du:

Dazu hab ich ja auch gesagt,das eine 980 wenig verbraucht.Versuch die mal in eine CPU mit reinzufummeln und das zu einem interessanten Preis auf den Markt zu bringen.


Das mag sein das dem so ist.Trotzdem sind sie Lahm und teuer.Wieviele verschiedene CPUs mit iGPU soll man eigendlich für jeweilige Einsatzzwecke und Preise entwickeln?Der eine braucht die iGPU garnicht,der andere zwar ordentlich CPU-Leistung aber eine schwache iGPU.Beim anderen ist es umgekehrt.Die möchten Geld für etwas ausgeben was sie brauchen.Nicht für etwas was sie nicht wollen.Und wenn sich der Einsatzzweck mal ändert müssen sie CPU UND GRAFIK neu kaufen.
Die Teile werden in einem "Arbeits-PC" wenig Daseinsberechtigung haben.Notebooks,Konsolen,von mir aus Büro-PCs,da sind sie durchaus adäquat.


Ähm okay... Also ich würde mal sagen Thema verfehlt..Eine 980 ist nur effizient wenn sie im fest vorgegeben Rahmen läuft, sonst säuft die genauso, und wenn man erst die DP Leistung beschneiden muss um Effizient zu sein und das SI, dann passt die Aussage Effizient eh nicht. Mit HBM und fehlenden DRAM Interface würde so eine Karte auf gute 100W kommen, das ist der Vorteil den eben HBM auf iGPUs ausspielen kann. Und von einer Iris Pro als Langsam zu reden, nunja.. AMD APUs sind auch nicht langsam, aber eben Bandbreiten limitiert. Gottseidank werden Solche Techniken dennoch kommen und auch ewig gestrige nicht berücksichtigen.. Wenn es nämlich nach denen ginge, hätten wir 10GHZ Singlecores.
#29
Registriert seit: 18.10.2007

Hauptgefreiter
Beiträge: 214
Zitat Unrockstar;23980031
Ähm okay... Also ich würde mal sagen Thema verfehlt..Eine 980 ist nur effizient wenn sie im fest vorgegeben Rahmen läuft, sonst säuft die genauso, und wenn man erst die DP Leistung beschneiden muss um Effizient zu sein und das SI, dann passt die Aussage Effizient eh nicht. Mit HBM und fehlenden DRAM Interface würde so eine Karte auf gute 100W kommen, das ist der Vorteil den eben HBM auf iGPUs ausspielen kann. Und von einer Iris Pro als Langsam zu reden, nunja.. AMD APUs sind auch nicht langsam, aber eben Bandbreiten limitiert. Gottseidank werden Solche Techniken dennoch kommen und auch ewig gestrige nicht berücksichtigen.. Wenn es nämlich nach denen ginge, hätten wir 10GHZ Singlecores.

Du merkst nicht das Du nur sabbelst um Überdruck loszuwerden?Die 980 ist genau in dem Bereich effizient,wo sie verkauft wird.Mein 2 Liter 16v ist auch effizient,wenn ich aber in die Kiste reintrample,ja dann.....Genauso als wenn ich die 980 bis ans Limit oce.
Sicher wird die Technologie kommen,das habe ich nie bezweifelt.Aber nur weil die Technologie kommt ein Ende von stromsparenden Grafikkarten zu sehen ist,wie so oft bei Schwätzinator,falsch.Und DAS,und NUR das war das Thema.NICHTS anderes,bist Du unquallifiziert etwas von 120€ Grafikkarten reininterpretiert hast.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]