> > > > Micron beendet GDDR6-Entwicklung – Massenproduktion soll 2018 starten

Micron beendet GDDR6-Entwicklung – Massenproduktion soll 2018 starten

Veröffentlicht am: von

micronBereits mehrfach hatten wir über die geplanten Entwicklungen um den GDDR6-Grafikspeicher gesprochen. Samsung hat inzwischen konkrete Angaben zu den technischen Spezifikationen gemacht. Micron hat nun seinerseits dazu einige Angaben gemacht.

Geplant ist demnach zu Beginn Speicherchips mit einer Kapazität von 8 und 16 Gbit – demnach 1 und 2 GB. Diese sollen eine Speicherbandbreite von 12 bis 14 GB/s pro Pin erreichen. Die I/O-Konfiguration pro Channel liegt bei x8 oder x16. Anders als GDDR5X kommen bis zu zwei Channel zum Einsatz. Keine großen Unterschiede gibt es bei der Größe der Chips sowie deren Betriebsspannung. Zwar soll GDDR6 etwas sparsamer sein, denn werden auch hier 1,35 bis 1,8 V angegeben.

Zum Vergleich die Angaben von Samsung: Der hier angekündigte GDDR6 soll eine Kapazität von 2 GB pro Chip aufweisen. Dieser liefert die von Samsung bereits genannten 16 GBit/s pro I/O-Pin und kommt auf eine Speicherbandbreite von 64 GB/s. Ein typischer Speicherausbau von 8 GB und damit vier Chips ergäbe demnach 256 GB/s. Bei 16 GB Kapazität sprechen wir von 512 GB/s. Die notwendige Spannung soll bei nur 1,35 V liegen.

Signalintegrität als große Herausforderung

Bereits bei der Entwicklung von GDDR5X hat Micron eng mit NVIDIA zusammengearbeitet, denn bei den inzwischen erreichten Taktraten ist die Signalintegrität eine der großen Herausforderungen. Micron hat in seinem Blogpost ein paar Bilder veröffentlicht, welche die Probleme bei der Entwicklung aufzeigen sollen.

Das Auge in der Mitte sollte möglichst klar und deutlich sein. Ist es das nicht, kommt es zu fehlerhaften Übertragungen. Zu den Optimierungen gehört unter anderem, dass man Signale verwendet, die sich überlagern und derart ausgleichen, das ein klareres Signal dabei herauskommt.

Micron hat bereits mit dem Sampling von GDDR6 begonnen und will in der ersten Jahreshälfte 2018 mit der Massenfertigung beginnen. Intern arbeitet man bereits an höheren Taktraten, die bei 16 GB/s pro I/O liegen sollen. Dabei scheint man von den Erfahrungen mit GDDR5X zu profitieren.

Für 2018 sollen erste High-End-Grafikkarten mit GDDR6 bestückt werden. Hier soll GDDR5X ersetzt werden, der allerdings nur von NVIDIA eingesetzt wird. GDDR5 soll aber ebenfalls noch eine lange Zeit eine Rolle spielen, denn GDDR6 wird gerade zu Anfang sehr teuer sein.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (20)

#11
customavatars/avatar193692_1.gif
Registriert seit: 18.06.2013
Hessen
Bootsmann
Beiträge: 685
Ich denke die neue GTX Reihe wird frühestens im 2ten Quartal kommen! Jedoch genau wissen kann man es nicht, da Nvidia ja nun aus dem Nichts die Titan V released hat :). Bin mal gespannt, wie sich GDDR6 schlagen wird und ob HBM2 dann für die Titan Reihe only verwendet wird! Auf jeden Fall wird die neue GTX Reihe glaube ich einiges an Leistung bringen!
#12
Registriert seit: 05.12.2010

Flottillenadmiral
Beiträge: 5296
Volta und Amper(e)a... wie kreativ Nvidia doch ist...

Als nächstes könnten die Wattson wählen und die Leistung müsste ein Produkt aus den beiden vorigen Generationen sein.
#13
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

BannedForEveR
Beiträge: 9085
Zitat Mandara;26039422
Volta und Amper(e)a... wie kreativ Nvidia doch ist...


Ja, das hast du recht, da hört sich Vega und Na(v)i schon ganz anders an. :fresse:
#14
customavatars/avatar168454_1.gif
Registriert seit: 18.01.2012

Admiral
Beiträge: 8781
Zitat Holzmann;26039385
Ich meine natürlich gegenüber AMD Vega Karten, hier die FE ....


Aber die Pascal Karten sind doch gut im Mining. Die GTX 1070 hat derzeit wohl das beste Leistungs/Watt Verhältnis und ist von der Leistung auch gut dabei. Wir reden hier von 30-32 MH/s Etash bei knapp 100-120 Watt.
#15
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

BannedForEveR
Beiträge: 9085
Eine RX480 macht berteits 22.5mh/s bei 98 watts.

Radeon RX Vega: Hohe Mining-Leistung ist Fluch und Segen zugleich - ComputerBase
#16
Registriert seit: 09.09.2008

Vizeadmiral
Beiträge: 6663
@Holzmann

Ich glaube du bist da auf dem Holzweg.

Du sagst: "Naja im Mining Bereich sieht Pascal jetzt nicht besonders gut aus."

Dann kommt einer und sagt Pascal ist gar nicht so schlecht, dann kommst du mit der RX480 und nem Link um die Ecke, der noch mal bestätigt dass Pascal besser ist in Sachen Effizienz :hmm:
#17
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

BannedForEveR
Beiträge: 9085
Zitat mastergamer;26040016
@Holzmann

Ich glaube du bist da auf dem Holzweg.

Du sagst: "Naja im Mining Bereich sieht Pascal jetzt nicht besonders gut aus."

Dann kommt einer und sagt Pascal ist gar nicht so schlecht, dann kommst du mit der RX480 und nem Link um die Ecke, der noch mal bestätigt dass Pascal besser ist in Sachen Effizienz :hmm:



Ja schon gut, ich weiß, dass ich das besser kann, es gibt bessere Links, hast du einen parat, dass wäre nett. ;)

[COLOR="red"]- - - Updated - - -[/COLOR]

Dieser Link lässt Pascal sogar außen vor und sieht Vega vor Volta oder Titan V:

RX Vega vs. Titan V - Radeon liegt beim Krypto-Mining meist vorn - GameStar
#18
Registriert seit: 22.08.2016

Gefreiter
Beiträge: 52
Zitat Mandara;26039422
Volta und Amper(e)a... wie kreativ Nvidia doch ist...

Als nächstes könnten die Wattson wählen und die Leistung müsste ein Produkt aus den beiden vorigen Generationen sein.


Das hat nix mit Kreativität zu tun. Ich denke, wenn man die Architekturen von nVidia der letzten Jahre betrachtet, sollte ein klares Muster erkennbar sein :)
#19
customavatars/avatar33802_1.gif
Registriert seit: 21.01.2006

Kapitän zur See
Beiträge: 3230
Zitat Mandara;26039422
Volta und Amper(e)a... wie kreativ Nvidia doch ist...

Als nächstes könnten die Wattson wählen und die Leistung müsste ein Produkt aus den beiden vorigen Generationen sein.


Und der Preis müsste die Summe aus beiden sein :lol:
#20
customavatars/avatar227006_1.gif
Registriert seit: 28.08.2015
Nürnberg
Kapitänleutnant
Beiträge: 1893
Ich freue mich auf die neue Ohma Architektur ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]