> > > > HBM-Speicher für AMD-Grafikkarten in Entwicklung

HBM-Speicher für AMD-Grafikkarten in Entwicklung

Veröffentlicht am: von

amd-radeon-2013AMD arbeitet in Kooperation mit dem Speicherlieferanten SK Hynix bereits seit drei Jahren an sogenanntem HBM-(High-Bandwith-Memory)-Speicher. Dieser soll den aktuell genutzten GDDR5-Standard ablösen. Bei dieser Technologie werden die einzelnen Speicherbausteine schlichtweg übereinander gestapelt (ähnlich wie bei NVIDIAs 3D-Speicher), sodass die Bandbreite effektiv weiter steigen kann. So versucht der Grafikspezialist AMD zumindest ein Nadelöhr zu beseitigen. Zusätzlich wird ein HBM-Baustein weniger Strom verbrauchen als ein vergleichbarer GDDR5-Baustein. Es werden Betriebsspannungen von 1,2 Volt angesetzt.

TSV-Roadmap

Wann der Speicher mit einer neuen Grafikchip-Generation auf den Markt kommen soll, lässt sich nur erahnen. Auf einer Roadmap ist vom dritten Quartal 2014 die Rede. Jedoch könnte damit auch die Auslieferung gemeint sein. Der Marktstart der jeweiligen Grafikkarten könnte dementsprechend noch in weiter Ferne liegen. Auch spielt es eine Rolle, wie die neuen Fertigungen bei TSMC mitspielen. Es gibt bereits Gerüchte, dass AMD auch die Grafikchip-Herstellung bei zukünftigen Generationen bei Globalfoundries stattfinden lassen wird.

HBM-Memory

 

 

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (5)

#1
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 7625
Ist das dann GDDR6, die Ablösung oder nur eine Zwischenlösung bis dahin?
#2
customavatars/avatar169263_1.gif
Registriert seit: 02.02.2012
72202
Korvettenkapitän
Beiträge: 2153
Das muss auf ne APU drauf oder als Steckmodul geben!
#3
customavatars/avatar38349_1.gif
Registriert seit: 09.04.2006

Fregattenkapitän
Beiträge: 2687
Zitat NasaGTR;22200979
Ist das dann GDDR6, die Ablösung oder nur eine Zwischenlösung bis dahin?


Lol, HBM-Speicher ist viel viel besser als GDDR6. Die Bandbreite lässt sich zukünftig beliebig steigern und dürfte mit HBM kein Falschenhals mehr sein. Schon mit der ersten Generation ist eine 2-4 mal so hohe Bandbreite gegeben und lässt sich später auf das 10fache schrauben.

Wenn überhaupt wird GDDR6 eine Zwischenlösung aber GDDR6 wird vielleicht auch nie zum Einsatz kommen wenn HBM-Speicher bzw. der Hybrid Memory Cube schnell genug Marktreif sind.
#4
Registriert seit: 01.02.2012

Obergefreiter
Beiträge: 98
Ist es so das mit dem Speicher die Anbindung an den Speicher nicht mehr so wichtig wäre? Ein breites Interface kostet Diefläche, Strom und somit auch Hitze. Also könnten mehr Transistoren in ein Konzept eingepflegt werden ohne die Diefläche zu vergrößern? Ich hoffe AMD hat hier was echt Gutes am Start und es bewegt sich mal mehr etwas im GPU Segment.
Ich werde eine Menge Leistung Ende 2015 für mein Virtuelles Vergnügen mit dem Occulus @ Downsampling brauchen. Also haut alles raus was ihr so auf Lager habt.
#5
Registriert seit: 02.07.2013

Banned
Beiträge: 888
Das Hauptproblem ist hier die Kühlung, wenn man das Problem nicht (günstig) in den Griff bekommt, kann GDDR 6 immer noch schneller sein. Auch ist Bandbreite nicht alles, auch Zugriff braucht man ;).
Aber mal abwerten, die Technologie ist mit Sicherheit (wie auch das nVidia Pendant und es gibt da auch noch ähnliche Ansätze für normalen RAM usw.) die Zukunft.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]