> > > > Micron könnte GDDR6 gegen Ende des Jahres ausliefern

Micron könnte GDDR6 gegen Ende des Jahres ausliefern

Veröffentlicht am: von

micronDie derzeit schnellsten Speicherstandards bei den Grafikkarten heißen HBM2 mit bis zu 1.024 GB/s und GDDR5X, der einmal bis zu 512 GB/s ermöglichen soll. Beide Speicherstandards unterscheiden sich maßgeblich durch die Breite des Speicherinterfaces und arbeiten daher mit unterschiedlichen Takten. Während HBM2 mit 1.024 Bit pro Speicherchip daher kommt, sind es bei GDDR5X 190 Bit. HBM2 wird von NVIDIA bereits für die GP100-GPU eingesetzt und wird sich mit der Vega-Architektur bei AMD auch in den ersten Gaming-Grafikkarten einfinden.

Aufgrund der einfacheren Bauart sowie Anbindung wird GDDR-Speicher im preisbewussten Markt noch lange eine wichtige Rolle spielen und will dabei hinsichtlich der Geschwindigkeit noch einen Zahn zulegen. High Bandwidth Memory hingegen wird im High-End-Segment mehr und mehr Verbreitung finden, sich aber noch lange nicht im Massenmarkt durchsetzen können.

GDDR6 steigert die Bandbreite pro Pin auf 16 GB/s, was 10x schneller als DDR3 ist. GDDR5X kommt derzeit auf 10 GB/s und soll später einmal ebenfalls 16 GB/s erreichen. GDDR6 oder eben der schnelle GDDR5X würden bei einem 256 Bit breiten Speicherinterface eine Gesamt-Speicherbandbreite von 384 auf 512 GB/s ermöglichen. Während es im HPC-Bereich allerdings keine Frage ist, dass eine schnelle Speicheranbindung von entscheidender Bedeutung ist, profitieren Gaming-Grafikkarten nicht zwangsläufig in diesem Maße davon. Moderne Kompressionsalgorithmen helfen den Speicherbedarf und die benötigten Speicherbandbreite zu reduzieren. Moderne Speichercontroller, wie der in der Vega-GPU, sollen ebenfalls durch unterschiedliche Optimierungen ihren Beitrag leisten.

Für GDDR5-Speicher sieht Micron ein Marktpotenzial von 2,5 Milliarden US-Dollar im aktuellen Jahr und dies soll in den kommenden Jahren nicht weniger werden. Nicht nur Desktop-Grafikkarten werden damit bestückt, auch in Konsolen soll GDDR-Speicher eine immer größere Verbreitung finden.

Micron nennt derzeit keinen konkreten Fahrplan für GDDR6. In Branchenkreisen geht man allerdings davon aus, dass Micron Ende 2017 erste Samples ausliefern will, sodass Hersteller wie NVIDIA, AMD, Sony und Microsoft für 2018 mit entsprechenden Produkten planen können. Bis 2020 soll GDDR6 die alten Standards dann fast vollständig abgelöst haben.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (13)

#4
customavatars/avatar215183_1.gif
Registriert seit: 01.01.2015
€Uropäische Union - Bairischer Sprachraum
Kapitän zur See
Beiträge: 3559
Fortschritt in allen ehren - den ich sehr begrüße, aber praktisch wird der 0815 Spieler davon relativ wenig merken, hier meine ich die Spieleleistung, ob GDDR5, GDDR5X oder HBM, der unterschied ist ausrechenbar aber garantiert nicht fühlbar, ohne zweifel werden große zahlen umher geworfen, aber ich empfinde es wie bei Arbeitsspeicher wo man den unterschied von 2000 zu 3000 MHz kaum bis gar nicht spürt - ausnahmen bestätigen natürlich die Regel ;)
Wie gesagt begrüße ich jedwede Verbesserung, da es ohne zweifel viele Vorteile bietet, praktisch sieht es jedoch Mau aus.
#5
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34063
Zitat NasaGTR;25292390
Und insbesondere für mobile Geräte ist der GDDR durch den niedrigeren Verbrauch und deutlich kleinere PCB-Platz-Bedarf überlegen.


In gewissen Maße ist das richtig... aber nicht überall sind 1TB/sec Bandbreite notwendig. Um so geringer der Bedarf desto weniger fallen die HBM Vorteile ins Gewicht. Selbst der Flächenvorteil verschwindet fast vollständig, wenn dir bspw. 128 Bit SI mit angepeilen 16Gb/sec Chips GDDR5X/GDDR6 reichen (256GB/sec)
Das ist die Hälfte der Fiji Bandbreite und weit mehr, wie heute die Mittelklasse spielend auskommen kann. Oder ne 1070er...

Und die einzigen ansatzweise belastbaren Zahlen zum Verbrausvorteil bei GPUs stammen von AMD. Selbst mit den alten GDDR5 Zahlen von Hawaii bleibt da runtergerechnet ein extrem niedriger zweistelliger Wert über. Nur das es ja auch dort neue Prozesse gibt und der Verbrauch sinkt usw.
Fällt das wirklich ins Gewicht? Vor allem wo möglicherweise noch der Preis ggü. steht?

Zitat lll;25292412
..., praktisch sieht es jedoch Mau aus.


Praktisch bedeutet das, kleineres Interface = geringere Kosten = gerinerer Verbrauch = weniger Flächenbedarf usw. und das alles bei gleicher Bandbreite...
Warum ein 256 Bit SI verbauen, wenn auch 128 Bit reichen kann?
#6
customavatars/avatar215183_1.gif
Registriert seit: 01.01.2015
€Uropäische Union - Bairischer Sprachraum
Kapitän zur See
Beiträge: 3559
Toll dass du dir einen kleinen Teil meines Beitrag herausgepickt hast, und den Rest total ignorierst, ganz großes Kino.
#7
Registriert seit: 10.01.2015

Oberbootsmann
Beiträge: 947
Nvidia könnte GSync kostenlos anbieten - könnte - wenn - hätte...
#8
customavatars/avatar181437_1.gif
Registriert seit: 30.10.2012
Mittelfranken
Stabsgefreiter
Beiträge: 266
Ist eigentlich GDDR6 schneller als GDDR5 aufgrund des Taktes (>2000 MHz) oder ist es wie GDDR5X in die breite ausgebohrt mit >1250 MHz Takt?
#9
Registriert seit: 03.06.2014

Hauptgefreiter
Beiträge: 142
Zitat Sanek;25292565
Ist eigentlich GDDR6 schneller als GDDR5 aufgrund des Taktes (>2000 MHz) oder ist es wie GDDR5X in die breite ausgebohrt mit >1250 MHz Takt?

Ohne es genau zu wissen würde ich vermuten, dass es ähnlich wie beim Sprung von DDR3 auf DDR4 wird: Es gibt ein neue Chipgeneration die mehr Takt bei weniger Strombedarf zulässt.
#10
Registriert seit: 01.01.1970


Beiträge:
Vermutlich wird der Takt sinken, höherer Takt braucht gewöhnlich mehr Energie.
#11
customavatars/avatar7384_1.gif
Registriert seit: 05.10.2003
Nahe Dortmund
Vizeadmiral
Beiträge: 6531
Bin mal gespannt ob sich HBM durchsetzen wird im Mainstream Bereich - der große Faktor ist halt die Kosten & die Notwendigkeit. Könnte mir vorstellen das GDDR6 über kurz o. lang da die Nase vorn hat. Früher gab es mal ein Speichersystem Rambus das hat sich aufgrund des Preises auch nie am Massenmarkt durchgesetzt.
#12
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34063
Zitat lll;25292462
Toll dass du dir einen kleinen Teil meines Beitrag herausgepickt hast, und den Rest total ignorierst, ganz großes Kino.


Der Rest sagt doch das gleiche aus... Oder wo steht was anderes als das du meinst in der Praxis wäre es nicht sonderlich relevant, mehr Bandbreite zu haben?
Es macht dabei einfach den Eindruck, dass du denkst, höhere Bandbreiten pro Speicherchip sind ausschließlich für mehr Gesamtbandbreite sinnig... Das ist aber eben nicht der Fall, worauf ich dich hingewiesen habe.

Nicht immer gleich angepisst fühlen, wenn einem mal widersprochen wird :wink:
#13
Registriert seit: 08.11.2015

Banned
Beiträge: 1381
Zitat lll;25292412

Wie gesagt begrüße ich jedwede Verbesserung, da es ohne zweifel viele Vorteile bietet, praktisch sieht es jedoch Mau aus.


Sollte sich die Transferleistung verdoppeln gegenüber GDDR5 mit 8Gb/s, dann hätte man bei einem 256Bit breitem Speicherinterface immerhin schonmal die doppelte Bandbreite, also dann ~600Gb/s :D Schafft atm netmal AMD mit ihrer supidupi HBM Supertechnologie "schneller als der Schall erlaubt"...

Der GV104 wird dann wohl der erste sein Quartal2/3/4? 2018 herum mit GDDR6. Vielleicht hat ja AMD bis dahin schon HBM3 support mit dann knapp 500GB/s an Durchsatz...
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

NVIDIA Titan V: Volta-Architektur im Gaming-Test

Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

Sapphire Radeon RX Vega 64 Nitro+ im Test

Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

Logo von IMAGES/STORIES/2017/GEFORCERTX2080

Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

Mega-Roundup: 14 aktuelle GeForce-Grafikkarten in 11 Blockbuster-Spielen...

Logo von IMAGES/STORIES/2017/GPU_BLOCKBUSER_VGL_ZOTAC-TEASER

In Kooperation mit Zotac Auch in diesem Jahr veranstalteten die Spielepublisher wieder ein regelrechtes Feuerwerk an neuen Videospielen. Vor allem in den letzten Wochen des Jahres wurden zahlreiche neue Triple-A-Titel veröffentlicht, wie beispielsweise ein neues "Call of Duty",... [mehr]

Die ersten Custom-Modelle der GeForce GTX 1070 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1070TI-LOGO

Nach der Vorstellung aller Details dürfen wir heute die Leistungswerte der GeForce GTX 1070 Ti veröffentlichen. Dabei stand uns dieses Mal keine Founders Edition zur Verfügung, die nur von NVIDIA verkauft wird, dafür aber einige Custom-Modelle. Diese stammen aus dem Hause ASUS, Inno3D und... [mehr]

Sechs Grafikkarten von Sapphire im Vergleich in 11 Blockbuster-Spielen

Logo von IMAGES/STORIES/2017/SAPPHIRE-2017AUFMACHER

In Kooperation mit Sapphire Nachdem der Herbst und Winter mit zahlreichen neuen Spielen samt Grafikfeuerwerk aufwarten konnte, haben wir uns bereits 14 aktuelle GeForce-Karten in 11 neuen Spielen angeschaut. Nun wollen wir die Seiten sozusagen wechseln und schauen uns an, wie diese Spiele auf... [mehr]