> > > > Micron kündigt GDDR5X-Speicher für Mitte des Jahres an und nennt weitere Details

Micron kündigt GDDR5X-Speicher für Mitte des Jahres an und nennt weitere Details

DruckenE-Mail
Erstellt am: von

micronBereits im Dezember finalisierte Micron den GDDR5X-Speicherstandard. Zum damaligen Zeitpunkt waren die genannten Werte aber ausschließlich auf dem Papier fixiert, von Hardware war weit und breit noch nichts zu sehen. Dies änderte sich Anfang des Jahres und wir griffen das Thema mit ausführlichen Erklärungen zu den Neuerungen auf. Wie Micron heute bekanntgibt, sind die ersten Tests im Micron Development Center in München sehr gut verlaufen, sodass man im Sommer mit der Massenproduktion beginnen möchte. Die ersten Produkte mit GDDR5X sollen demnach ebenfalls in diesem Zeitraum erwartet.

Die erste echte GDDR5X-Hardware erreichte in München bereits Datenraten von 13 GBit/s und mehr. Mit den finalen Spezifikationen im September veröffentlichte Micron Zahlen von ersten Ausführungen mit 10 bis 12 GBit/s, plante aber schon damals mit bis zu 16 GBit/s. An diesen finalen Ziel hält man auch weiterhin fest, man ist allerdings positiv überrascht, an einem solch frühen Zeitpunkt die ersten Ziele bereits erreicht zu haben. Weiterhin gibt man bekannt, dass die 1. Generation an GDDR5X-Speicher in 20 nm gefertigt und eine Speicherkapazität von 8 GBit pro Chip (1 GB) erreicht.

Micron GDDR5X-Speicher
Micron GDDR5X-Speicher

Kommen wir aber noch einmal zu den Vorteilen, die Micron einmal mehr herausstreicht. Da wäre die Datenrate, die bei GDDR5-Speicher mit 2.000 MHz pro Speicherchip aktuell bei 8 GBit/s liegt. Micron spricht von ersten erfolgreichen Versuchen mit 13 GBit/s. Zudem steigt natürlich das Verhältnis Bandbreite zu Watt, denn der Speicher wird mit 1,35 V für die Versorgung und die I/O-Komponenten betrieben. Die höheren Datenraten erreicht der Speicher aber auch durch eine neue Signaltechnologie, die auf Quad Data Rate (QDR) beruht. Im Gegenzug ist ein doppelt so großer Prefetch bei den Speicherzugriffen von acht auf 16 Datenwörtern möglich, was wiederum 512 Bit per Array an Lese- und Schreibzugriffen ermöglicht.

Dank der leicht reduzierten Spannungen, der Möglichkeit einen Speicherrefresh pro Speicherbank auszuführen, einem Hibernate-Refresh sowie einem partiellen Refresh über nur eine Speicherbank hinweg soll die 1. Generation des GDDR5X-Speichers nicht mehr Energie verbrauchen, als der Vorgänger GDDR5. Die Rede ist von 2 bis 2,5 W pro Speicherchip. Auf eine Grafikkarte übertragen entspricht dies zwischen 10 und 30 W. Da nicht immer die maximale Ausbaustufe der 1. Generation des GDDRX5-Speicher eingesetzt werden muss (geplant sind Taktraten zwischen 1.250 bis 2.000 MHz), ist sogar eine leichte Reduzierung der Leistungsaufnahme möglich.

Micron GDDR5X-Speicher
Micron GDDR5X-Speicher

Neben der Leistung gibt es aber auch noch einige Änderungen des Packages bei GDDR5X. So ist der Chip mit 14 x 10 mm etwas kleiner als GDDR5-Speicher mit 14 x 12 mm, verfügt aber über ein BGA (Ball Grid Array) mit 190 Kontakten an der Unterseite, während GDDR5 nur 170 Kontakte benötigte. Laut Micron musste daher der Durchmesser dieser Balls reduziert werden (0,4 anstatt 0,47 mm) und auch der Abstand ist mit 0,65 mm gegenüber 0,8 mm deutlich geringer. Dies macht die Traces auf dem PCB, auf denen die Speicherchips untergebracht werden, etwas kleiner. Dies sorgt dafür, dass die PCBs etwas komplizierter zu fertigen sein werden. Die geringeren Abmessungen der Kontaktfläche aber vor allem der geringere Unterschied zwischen kürzester und weitesten Entfernung der Kontaktpunkte sollte für eine höhere Signalintegrität sorgen - angesichts der geplanten höheren Speicherbandbreite ein Pluspunkt für das Design. Ein GDDR5X-Chip-Package ist mit 1,1 mm übrigens genauso hoch, wie beim Vorgänger GDDR5.

Bereits angesprochen haben wir die Fertigung in 20 nm. Diese wird von Micron nun bereits seit geraumer Zeit verwendet und sollte über die kommenden Wochen und Monate eine immer bessere Ausbeute ermöglichen. Welche Bandbreite die Chips dann letztendlich in der Massenproduktion erreicht, lässt sich aber dennoch nur schwer abschätzen. Die Frage ist hier sicherlich auch, zu was die Speichercontroller der GPUs in der Lage sein werden, denn sie sind die zweite wichtige Komponenten für ein funktionieren von GDDR5X. Derzeit haben sich wieder NVIDIA noch AMD zur Unterstützung von GDDR5X geäußert, aber Micron wird die Technologie dazu sicherlich nicht ins Blaue hinein entwickelt haben.

Micron GDDR5X-Speicher
Micron GDDR5X-Speicher

Aus der Vergangenheit haben wir gelernt, dass die Speicherchips gerade zu Beginn deutlich mehr zu leisten im Stande waren, als durch die Speichercontroller abgerufen werden konnte. Dies liegt auch daran, dass die GPU-Hersteller mit den komplizierten Timings und Signallaufwegen zwischen GPU und Speicherchips zu kämpfen hatten. Hinzu kommt die frühe Planung der GPUs mit dem integrierten Speichercontroller, was eine spätere Reaktion auf neue Entwicklungen schwierig macht. So erschien die AMD Radeon HD 4870 am 19. Juni 2008 als erste Grafikkarte mit Unterstützung für den GDDR5-Speicher. 512 oder 1.024 MB GDDR5 mit 900 MHz waren damals verbaut. Die einzelnen Speicherchips erreicht eine Datenrate von 3,6 GBit/s, während Speicherhersteller damals schon Speicher mit 4,5 GBit/s ausliefern konnten. Es ist also zu erwarten, dass die ersten Grafikkarten mit GDDR5X-Unterstützung ebenfalls nicht das volle Potenzial des Speichers werden ausschöpfen werden.

Die 1. Generation von GDDR5X wird nicht günstig werden. Ein Chip mit 8 GBit wird teurer sein, als ein GDDR5-Speicherchip mit 4 GBit Kapazität. Die bereits angesprochenen komplexeren Strukturen für den Trace auf dem die Speicherchips auf dem PCB sitzen treiben den Preis ebenfalls in die Höhe. GDDR5X wird also wie High Bandwidth Memory eine teure Technologie sein, die wir ebenfalls nur auf High-End-Grafikkarten sehen werden.

Jetzt warten wir eigentlich nur noch auf die Ankündigungen von AMD und NVIDIA, die mit ihren nächsten GPU-Generationen bereits in den Startlöchern stehen. Bei AMD hat man diese mit der Polaris-Architektur zumindest teilweise bereits ausgeführt.

Social Links

Kommentare (26)

#17
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2581
Nö, kann man nicht. Aber man kann dann schön rebranden. ;)
#18
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 29105
Mal zum Thema HBM2: Die Polaris-GPUs, die wir zu Gesicht bekommen haben, hatten definitiv keinen HBM-Speicher im Package. Dafür war der Chip zu klein. GDDR5(X) wird uns also in der Mittelklasse und darunter noch einige Zeit begleiten. Ob hier dann eher GDDR5X oder GDDR5 eingesetzt wird, wird sich noch zeigen müssen.
#19
Registriert seit: 22.02.2010

Bootsmann
Beiträge: 613
Zitat Pickebuh;24312338
Nö, kann man nicht. Aber man kann dann schön rebranden. ;)


Deshalb sagte ich ja 1-2 Jahre. Es mag sein das man Maxwell neu auflegt und als Low/Mid Neu verkauft aber wenn Pascal nur HBM frisst glaube ich ich nicht das man sich die Mühe macht dahingehend irgend was auf gddr5(x) hin zu arbeiten.
#20
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4149
Es bleibt auch generell noch die Frage offen, ob es HBM überhaupt jemals bis ganz nach unten in das Low-End Segment schaffen wird. So wirklich sehe ich HBM dort nicht ankommen. Eher sehe ich es so, dass GDDR5(X) im Low-End Segment auch in den nächsten Jahren von HBM keine Konkurrenz bekommen wird. Da HBM immer einen kostspieligen Interposeraufbau benötigen wird und damit die Kosten auch nach oben treibt, werden Karten mit GDDR5(X) wohl auch in Zukunft immer noch günstiger zu fertigen sein als jene die auf HBM setzen werden. Falls sich dies bewahrheiten sollte, wird man HBM damit auch in den nächsten 2-3 Jahren definitv nicht auf Karten unter 300,- Euro zu sehen bekommen.
#21
Registriert seit: 22.02.2013

Hauptgefreiter
Beiträge: 171
Zitat Cippoli;24325415
Es bleibt auch generell noch die Frage offen, ob es HBM überhaupt jemals bis ganz nach unten in das Low-End Segment schaffen wird. So wirklich sehe ich HBM dort nicht ankommen. Eher sehe ich es so, dass GDDR5(X) im Low-End Segment auch in den nächsten Jahren von HBM keine Konkurrenz bekommen wird. Da HBM immer einen kostspieligen Interposeraufbau benötigen wird und damit die Kosten auch nach oben treibt, werden Karten mit GDDR5(X) wohl auch in Zukunft immer noch günstiger zu fertigen sein als jene die auf HBM setzen werden. Falls sich dies bewahrheiten sollte, wird man HBM damit auch in den nächsten 2-3 Jahren definitv nicht auf Karten unter 300,- Euro zu sehen bekommen.


Neben den reinen Kostengründen die im unteren Segment für GDDR5(X) sprechen ist ja bei HBM zudem die Bandbreite im Low-End Segment völliger Overkill. Die eingesetzten GPUs liefern in 2016 und 2017 nie im Leben genügend Rohleistung um von HBM überhaupt zu profitieren. Das macht einfach 0,0 Sinn in den Preis- und Leistungsbereichen HBM einzusetzen. Ich gehe daher fest davon aus, dass HBM vorerst den High End und Profi Karten vorbehalten bleibt. Ich bin mir noch nicht mal sicher ob das Performance Segment überhaupt HBM bekommen wird.

Zitat Berni_ATI

Da der Big-Pascal mit HBM (2) Speicher wohl nicht vor Spätherbst 2016 oder gar erst Frühjahr 2017 kommen wird.


Also für das TESLA Segment kommt der Big-Pascal mit Sicherheit früher. Für private Endverbraucher wird es wohl erst beim GP104 bleiben. AMD wird aber mit seinem großen Chip auch nicht großartig früher dran sein. Das Problem der Foundry Kosten haben letztlich beide. Wo Du da Deine 1,5 Jahre hernimmst ist mir ein Rätsel oder vergleichst Du mit der Fury? Wenn ja dann darf ich Dich daran erinnern, dass der frühe HBM Einsatz auf der Fury AMD im Grunde gar nichts gebracht hat. Sie konnten keinen einzigen Vorteil daraus ziehen. Manchmal ist es eben nicht sinnvoll auf den neuesten Schrei zu einem frühen Zeitpunkt zu setzen.
#22
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4149
Zitat Richthofen;24325456
Neben den reinen Kostengründen die im unteren Segment für GDDR5(X) sprechen ist ja bei HBM zudem die Bandbreite im Low-End Segment völliger Overkill. Die eingesetzten GPUs liefern in 2016 und 2017 nie im Leben genügend Rohleistung um von HBM überhaupt zu profitieren. Das macht einfach 0,0 Sinn in den Preis- und Leistungsbereichen HBM einzusetzen. Ich gehe daher fest davon aus, dass HBM vorerst den High End und Profi Karten vorbehalten bleibt. Ich bin mir noch nicht mal sicher ob das Performance Segment überhaupt HBM bekommen wird.


Wenn man immer von einen Aufbau mit 4 HBM-Speicherbausteinen ausgeht, dann stimme ich zu was die übertriebene Bandbreite betrifft. Aber mit HBM2 ließe sich auch eine 2- oder 1-Speicherbausteinkonfiguration realisieren, bei der die Bandbreite halbiert bzw. geviertelt wird. Damit ließen sich die Bedürfnisse im Low-End schon adäquat decken. Die Bandbreite würde ich deshalb nicht als primären und ausschlaggebenden Faktor ansehen. Kostentreiber sollte hier der benötigte Interposeraufbau sein, der einen solchen Aufbau (im Vergleich zu einen GDDR5 Aufbau) unwirtschaftlich(er) macht.
#23
Registriert seit: 22.02.2010

Bootsmann
Beiträge: 613
Bleibt die Frage wie lange man das machen kann ohne das dadurch neue Kostenfaktoren entstehen. Das Aufrechterhalten eines Technologiezweigs oder das Anpassen auf gddrx wird wohl die Kostenersparnis der Speicherbausteine selbst in den nächsten Jahren auffressen. Solange Maxwell noch aktuell ist wird man es als Rebrand wahrscheinlich nicht fallen lassen aber danach?
#24
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4149
Zitat Cibo;24326419
Bleibt die Frage wie lange man das machen kann ohne das dadurch neue Kostenfaktoren entstehen. Das Aufrechterhalten eines Technologiezweigs oder das Anpassen auf gddrx wird wohl die Kostenersparnis der Speicherbausteine selbst in den nächsten Jahren auffressen. Solange Maxwell noch aktuell ist wird man es als Rebrand wahrscheinlich nicht fallen lassen aber danach?


Aber da Frage ich mich, welche deutlich spürbaren Kostenfaktoren sollten da entstehen? Hier wird ja nichts was eigentlich nicht gebraucht wird am Leben gehalten. Low- und Mid-End ist von den Absatz- und Umsatzvolumen her das stärkste Segment. Solange Grafikkarten im Preisbereich bis sagen wir 300,- Euro mit GDDR5(X) wirtschaftlicher sind, wird man HBM dort auch nicht vorfinden. Und wie bereits geschrieben, denke ich nicht das sich das so bald ändern wird.

Es ließe bei zukünftigen GPUs sogar noch etwas Die-Fläche einsparen, da bei GDDR5X gegenüber GDDR5 ein nur halb so breites SI für die gleiche Menge an Bandbreite nötig wäre. Mittelfristig für Low-End Lösungen doch ideal.
#25
Registriert seit: 22.02.2010

Bootsmann
Beiträge: 613
Die Frage ist wie "flexibel" die Chips sind, hat doch die GTX 970 mit ihren 3,5gb gezeigt das man nicht einfach beliebig Shaderkerne und SI miteinander kombinieren kann.
#26
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4149
Zitat Cibo;24326644
Die Frage ist wie "flexibel" die Chips sind, hat doch die GTX 970 mit ihren 3,5gb gezeigt das man nicht einfach beliebig Shaderkerne und SI miteinander kombinieren kann.


Die Problematik der GTX970 hat aber nur indirekt etwas mit der Anzahl der Shaderkerne zu tun. Man hätte auch die gleiche Anzahl an Shaderkernen, die man auf einer GTX970 vorfindet, auch mit voll ansprechbaren 4GB VRAM realisieren können. Was der GTX970 fehlt ist ein Teil an L2-Cache, das dem SI bei der Anbindung zum VRAM fehlt.

Aber auch wenn es so sein sollte wie du sagst, sehe ich hier kein großes Problem das die Kosten nach oben treiben sollte. Das Gegenteil sollte doch der Fall sein, da teildeaktivierte GPUs im Endeffekt Kosten einsparen. Die Menge an VRAM, die man verliert, aber quasi trotzdem bezahlen muss, relativiert eine teildeaktivierte GPU um ein mehrfaches wieder aus.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]