> > > > Micron könnte GDDR6 gegen Ende des Jahres ausliefern

Micron könnte GDDR6 gegen Ende des Jahres ausliefern

Veröffentlicht am: von

micronDie derzeit schnellsten Speicherstandards bei den Grafikkarten heißen HBM2 mit bis zu 1.024 GB/s und GDDR5X, der einmal bis zu 512 GB/s ermöglichen soll. Beide Speicherstandards unterscheiden sich maßgeblich durch die Breite des Speicherinterfaces und arbeiten daher mit unterschiedlichen Takten. Während HBM2 mit 1.024 Bit pro Speicherchip daher kommt, sind es bei GDDR5X 190 Bit. HBM2 wird von NVIDIA bereits für die GP100-GPU eingesetzt und wird sich mit der Vega-Architektur bei AMD auch in den ersten Gaming-Grafikkarten einfinden.

Aufgrund der einfacheren Bauart sowie Anbindung wird GDDR-Speicher im preisbewussten Markt noch lange eine wichtige Rolle spielen und will dabei hinsichtlich der Geschwindigkeit noch einen Zahn zulegen. High Bandwidth Memory hingegen wird im High-End-Segment mehr und mehr Verbreitung finden, sich aber noch lange nicht im Massenmarkt durchsetzen können.

GDDR6 steigert die Bandbreite pro Pin auf 16 GB/s, was 10x schneller als DDR3 ist. GDDR5X kommt derzeit auf 10 GB/s und soll später einmal ebenfalls 16 GB/s erreichen. GDDR6 oder eben der schnelle GDDR5X würden bei einem 256 Bit breiten Speicherinterface eine Gesamt-Speicherbandbreite von 384 auf 512 GB/s ermöglichen. Während es im HPC-Bereich allerdings keine Frage ist, dass eine schnelle Speicheranbindung von entscheidender Bedeutung ist, profitieren Gaming-Grafikkarten nicht zwangsläufig in diesem Maße davon. Moderne Kompressionsalgorithmen helfen den Speicherbedarf und die benötigten Speicherbandbreite zu reduzieren. Moderne Speichercontroller, wie der in der Vega-GPU, sollen ebenfalls durch unterschiedliche Optimierungen ihren Beitrag leisten.

Für GDDR5-Speicher sieht Micron ein Marktpotenzial von 2,5 Milliarden US-Dollar im aktuellen Jahr und dies soll in den kommenden Jahren nicht weniger werden. Nicht nur Desktop-Grafikkarten werden damit bestückt, auch in Konsolen soll GDDR-Speicher eine immer größere Verbreitung finden.

Micron nennt derzeit keinen konkreten Fahrplan für GDDR6. In Branchenkreisen geht man allerdings davon aus, dass Micron Ende 2017 erste Samples ausliefern will, sodass Hersteller wie NVIDIA, AMD, Sony und Microsoft für 2018 mit entsprechenden Produkten planen können. Bis 2020 soll GDDR6 die alten Standards dann fast vollständig abgelöst haben.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (13)

#4
customavatars/avatar215183_1.gif
Registriert seit: 01.01.2015
€Uropäische Union - Bairischer Sprachraum
Kapitän zur See
Beiträge: 3408
Fortschritt in allen ehren - den ich sehr begrüße, aber praktisch wird der 0815 Spieler davon relativ wenig merken, hier meine ich die Spieleleistung, ob GDDR5, GDDR5X oder HBM, der unterschied ist ausrechenbar aber garantiert nicht fühlbar, ohne zweifel werden große zahlen umher geworfen, aber ich empfinde es wie bei Arbeitsspeicher wo man den unterschied von 2000 zu 3000 MHz kaum bis gar nicht spürt - ausnahmen bestätigen natürlich die Regel ;)
Wie gesagt begrüße ich jedwede Verbesserung, da es ohne zweifel viele Vorteile bietet, praktisch sieht es jedoch Mau aus.
#5
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33923
Zitat NasaGTR;25292390
Und insbesondere für mobile Geräte ist der GDDR durch den niedrigeren Verbrauch und deutlich kleinere PCB-Platz-Bedarf überlegen.


In gewissen Maße ist das richtig... aber nicht überall sind 1TB/sec Bandbreite notwendig. Um so geringer der Bedarf desto weniger fallen die HBM Vorteile ins Gewicht. Selbst der Flächenvorteil verschwindet fast vollständig, wenn dir bspw. 128 Bit SI mit angepeilen 16Gb/sec Chips GDDR5X/GDDR6 reichen (256GB/sec)
Das ist die Hälfte der Fiji Bandbreite und weit mehr, wie heute die Mittelklasse spielend auskommen kann. Oder ne 1070er...

Und die einzigen ansatzweise belastbaren Zahlen zum Verbrausvorteil bei GPUs stammen von AMD. Selbst mit den alten GDDR5 Zahlen von Hawaii bleibt da runtergerechnet ein extrem niedriger zweistelliger Wert über. Nur das es ja auch dort neue Prozesse gibt und der Verbrauch sinkt usw.
Fällt das wirklich ins Gewicht? Vor allem wo möglicherweise noch der Preis ggü. steht?

Zitat lll;25292412
..., praktisch sieht es jedoch Mau aus.


Praktisch bedeutet das, kleineres Interface = geringere Kosten = gerinerer Verbrauch = weniger Flächenbedarf usw. und das alles bei gleicher Bandbreite...
Warum ein 256 Bit SI verbauen, wenn auch 128 Bit reichen kann?
#6
customavatars/avatar215183_1.gif
Registriert seit: 01.01.2015
€Uropäische Union - Bairischer Sprachraum
Kapitän zur See
Beiträge: 3408
Toll dass du dir einen kleinen Teil meines Beitrag herausgepickt hast, und den Rest total ignorierst, ganz großes Kino.
#7
Registriert seit: 10.01.2015

Oberbootsmann
Beiträge: 940
Nvidia könnte GSync kostenlos anbieten - könnte - wenn - hätte...
#8
customavatars/avatar181437_1.gif
Registriert seit: 30.10.2012
Mittelfranken
Stabsgefreiter
Beiträge: 266
Ist eigentlich GDDR6 schneller als GDDR5 aufgrund des Taktes (>2000 MHz) oder ist es wie GDDR5X in die breite ausgebohrt mit >1250 MHz Takt?
#9
Registriert seit: 03.06.2014

Hauptgefreiter
Beiträge: 140
Zitat Sanek;25292565
Ist eigentlich GDDR6 schneller als GDDR5 aufgrund des Taktes (>2000 MHz) oder ist es wie GDDR5X in die breite ausgebohrt mit >1250 MHz Takt?

Ohne es genau zu wissen würde ich vermuten, dass es ähnlich wie beim Sprung von DDR3 auf DDR4 wird: Es gibt ein neue Chipgeneration die mehr Takt bei weniger Strombedarf zulässt.
#10
Registriert seit: 01.01.1970


Beiträge:
Vermutlich wird der Takt sinken, höherer Takt braucht gewöhnlich mehr Energie.
#11
customavatars/avatar7384_1.gif
Registriert seit: 05.10.2003
Nahe Dortmund
Vizeadmiral
Beiträge: 6462
Bin mal gespannt ob sich HBM durchsetzen wird im Mainstream Bereich - der große Faktor ist halt die Kosten & die Notwendigkeit. Könnte mir vorstellen das GDDR6 über kurz o. lang da die Nase vorn hat. Früher gab es mal ein Speichersystem Rambus das hat sich aufgrund des Preises auch nie am Massenmarkt durchgesetzt.
#12
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33923
Zitat lll;25292462
Toll dass du dir einen kleinen Teil meines Beitrag herausgepickt hast, und den Rest total ignorierst, ganz großes Kino.


Der Rest sagt doch das gleiche aus... Oder wo steht was anderes als das du meinst in der Praxis wäre es nicht sonderlich relevant, mehr Bandbreite zu haben?
Es macht dabei einfach den Eindruck, dass du denkst, höhere Bandbreiten pro Speicherchip sind ausschließlich für mehr Gesamtbandbreite sinnig... Das ist aber eben nicht der Fall, worauf ich dich hingewiesen habe.

Nicht immer gleich angepisst fühlen, wenn einem mal widersprochen wird :wink:
#13
Registriert seit: 08.11.2015

Banned
Beiträge: 1381
Zitat lll;25292412

Wie gesagt begrüße ich jedwede Verbesserung, da es ohne zweifel viele Vorteile bietet, praktisch sieht es jedoch Mau aus.


Sollte sich die Transferleistung verdoppeln gegenüber GDDR5 mit 8Gb/s, dann hätte man bei einem 256Bit breitem Speicherinterface immerhin schonmal die doppelte Bandbreite, also dann ~600Gb/s :D Schafft atm netmal AMD mit ihrer supidupi HBM Supertechnologie "schneller als der Schall erlaubt"...

Der GV104 wird dann wohl der erste sein Quartal2/3/4? 2018 herum mit GDDR6. Vielleicht hat ja AMD bis dahin schon HBM3 support mit dann knapp 500GB/s an Durchsatz...
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

NVIDIA Titan V: Volta-Architektur im Gaming-Test

Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

Sapphire Radeon RX Vega 64 Nitro+ im Test

Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

Mega-Roundup: 14 aktuelle GeForce-Grafikkarten in 11 Blockbuster-Spielen...

Logo von IMAGES/STORIES/2017/GPU_BLOCKBUSER_VGL_ZOTAC-TEASER

In Kooperation mit Zotac Auch in diesem Jahr veranstalteten die Spielepublisher wieder ein regelrechtes Feuerwerk an neuen Videospielen. Vor allem in den letzten Wochen des Jahres wurden zahlreiche neue Triple-A-Titel veröffentlicht, wie beispielsweise ein neues "Call of Duty",... [mehr]

Die ersten Custom-Modelle der GeForce GTX 1070 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1070TI-LOGO

Nach der Vorstellung aller Details dürfen wir heute die Leistungswerte der GeForce GTX 1070 Ti veröffentlichen. Dabei stand uns dieses Mal keine Founders Edition zur Verfügung, die nur von NVIDIA verkauft wird, dafür aber einige Custom-Modelle. Diese stammen aus dem Hause ASUS, Inno3D und... [mehr]

Erstes Custom-Design: ASUS ROG Strix Radeon Vega 64 OC Edition im Test

Logo von IMAGES/STORIES/2017/ASUS-VEGA

Es ist endlich soweit: Wir können uns das erste Custom-Modell der Radeon RX Vega 64 anschauen. ASUS war der erste Hersteller, der ein entsprechendes Modell vorgestellt hat, nun erreichte uns das finale Produkt. Im Zentrum steht natürlich die Frage, welche Verbesserungen ASUS mit der ROG Strix... [mehr]