> > > > Micron könnte GDDR6 gegen Ende des Jahres ausliefern

Micron könnte GDDR6 gegen Ende des Jahres ausliefern

Veröffentlicht am: von

micronDie derzeit schnellsten Speicherstandards bei den Grafikkarten heißen HBM2 mit bis zu 1.024 GB/s und GDDR5X, der einmal bis zu 512 GB/s ermöglichen soll. Beide Speicherstandards unterscheiden sich maßgeblich durch die Breite des Speicherinterfaces und arbeiten daher mit unterschiedlichen Takten. Während HBM2 mit 1.024 Bit pro Speicherchip daher kommt, sind es bei GDDR5X 190 Bit. HBM2 wird von NVIDIA bereits für die GP100-GPU eingesetzt und wird sich mit der Vega-Architektur bei AMD auch in den ersten Gaming-Grafikkarten einfinden.

Aufgrund der einfacheren Bauart sowie Anbindung wird GDDR-Speicher im preisbewussten Markt noch lange eine wichtige Rolle spielen und will dabei hinsichtlich der Geschwindigkeit noch einen Zahn zulegen. High Bandwidth Memory hingegen wird im High-End-Segment mehr und mehr Verbreitung finden, sich aber noch lange nicht im Massenmarkt durchsetzen können.

GDDR6 steigert die Bandbreite pro Pin auf 16 GB/s, was 10x schneller als DDR3 ist. GDDR5X kommt derzeit auf 10 GB/s und soll später einmal ebenfalls 16 GB/s erreichen. GDDR6 oder eben der schnelle GDDR5X würden bei einem 256 Bit breiten Speicherinterface eine Gesamt-Speicherbandbreite von 384 auf 512 GB/s ermöglichen. Während es im HPC-Bereich allerdings keine Frage ist, dass eine schnelle Speicheranbindung von entscheidender Bedeutung ist, profitieren Gaming-Grafikkarten nicht zwangsläufig in diesem Maße davon. Moderne Kompressionsalgorithmen helfen den Speicherbedarf und die benötigten Speicherbandbreite zu reduzieren. Moderne Speichercontroller, wie der in der Vega-GPU, sollen ebenfalls durch unterschiedliche Optimierungen ihren Beitrag leisten.

Für GDDR5-Speicher sieht Micron ein Marktpotenzial von 2,5 Milliarden US-Dollar im aktuellen Jahr und dies soll in den kommenden Jahren nicht weniger werden. Nicht nur Desktop-Grafikkarten werden damit bestückt, auch in Konsolen soll GDDR-Speicher eine immer größere Verbreitung finden.

Micron nennt derzeit keinen konkreten Fahrplan für GDDR6. In Branchenkreisen geht man allerdings davon aus, dass Micron Ende 2017 erste Samples ausliefern will, sodass Hersteller wie NVIDIA, AMD, Sony und Microsoft für 2018 mit entsprechenden Produkten planen können. Bis 2020 soll GDDR6 die alten Standards dann fast vollständig abgelöst haben.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (13)

#4
customavatars/avatar215183_1.gif
Registriert seit: 01.01.2015
€uropäische Union - Bairischer Sprachraum
Fregattenkapitän
Beiträge: 2673
Fortschritt in allen ehren - den ich sehr begrüße, aber praktisch wird der 0815 Spieler davon relativ wenig merken, hier meine ich die Spieleleistung, ob GDDR5, GDDR5X oder HBM, der unterschied ist ausrechenbar aber garantiert nicht fühlbar, ohne zweifel werden große zahlen umher geworfen, aber ich empfinde es wie bei Arbeitsspeicher wo man den unterschied von 2000 zu 3000 MHz kaum bis gar nicht spürt - ausnahmen bestätigen natürlich die Regel ;)
Wie gesagt begrüße ich jedwede Verbesserung, da es ohne zweifel viele Vorteile bietet, praktisch sieht es jedoch Mau aus.
#5
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33287
Zitat NasaGTR;25292390
Und insbesondere für mobile Geräte ist der GDDR durch den niedrigeren Verbrauch und deutlich kleinere PCB-Platz-Bedarf überlegen.


In gewissen Maße ist das richtig... aber nicht überall sind 1TB/sec Bandbreite notwendig. Um so geringer der Bedarf desto weniger fallen die HBM Vorteile ins Gewicht. Selbst der Flächenvorteil verschwindet fast vollständig, wenn dir bspw. 128 Bit SI mit angepeilen 16Gb/sec Chips GDDR5X/GDDR6 reichen (256GB/sec)
Das ist die Hälfte der Fiji Bandbreite und weit mehr, wie heute die Mittelklasse spielend auskommen kann. Oder ne 1070er...

Und die einzigen ansatzweise belastbaren Zahlen zum Verbrausvorteil bei GPUs stammen von AMD. Selbst mit den alten GDDR5 Zahlen von Hawaii bleibt da runtergerechnet ein extrem niedriger zweistelliger Wert über. Nur das es ja auch dort neue Prozesse gibt und der Verbrauch sinkt usw.
Fällt das wirklich ins Gewicht? Vor allem wo möglicherweise noch der Preis ggü. steht?

Zitat lll;25292412
..., praktisch sieht es jedoch Mau aus.


Praktisch bedeutet das, kleineres Interface = geringere Kosten = gerinerer Verbrauch = weniger Flächenbedarf usw. und das alles bei gleicher Bandbreite...
Warum ein 256 Bit SI verbauen, wenn auch 128 Bit reichen kann?
#6
customavatars/avatar215183_1.gif
Registriert seit: 01.01.2015
€uropäische Union - Bairischer Sprachraum
Fregattenkapitän
Beiträge: 2673
Toll dass du dir einen kleinen Teil meines Beitrag herausgepickt hast, und den Rest total ignorierst, ganz großes Kino.
#7
Registriert seit: 10.01.2015

Oberbootsmann
Beiträge: 869
Nvidia könnte GSync kostenlos anbieten - könnte - wenn - hätte...
#8
customavatars/avatar181437_1.gif
Registriert seit: 30.10.2012
Mittelfranken
Stabsgefreiter
Beiträge: 265
Ist eigentlich GDDR6 schneller als GDDR5 aufgrund des Taktes (>2000 MHz) oder ist es wie GDDR5X in die breite ausgebohrt mit >1250 MHz Takt?
#9
Registriert seit: 03.06.2014

Obergefreiter
Beiträge: 102
Zitat Sanek;25292565
Ist eigentlich GDDR6 schneller als GDDR5 aufgrund des Taktes (>2000 MHz) oder ist es wie GDDR5X in die breite ausgebohrt mit >1250 MHz Takt?

Ohne es genau zu wissen würde ich vermuten, dass es ähnlich wie beim Sprung von DDR3 auf DDR4 wird: Es gibt ein neue Chipgeneration die mehr Takt bei weniger Strombedarf zulässt.
#10
Registriert seit: 01.01.1970


Beiträge:
Vermutlich wird der Takt sinken, höherer Takt braucht gewöhnlich mehr Energie.
#11
customavatars/avatar7384_1.gif
Registriert seit: 05.10.2003
Nahe Dortmund
Flottillenadmiral
Beiträge: 6089
Bin mal gespannt ob sich HBM durchsetzen wird im Mainstream Bereich - der große Faktor ist halt die Kosten & die Notwendigkeit. Könnte mir vorstellen das GDDR6 über kurz o. lang da die Nase vorn hat. Früher gab es mal ein Speichersystem Rambus das hat sich aufgrund des Preises auch nie am Massenmarkt durchgesetzt.
#12
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33287
Zitat lll;25292462
Toll dass du dir einen kleinen Teil meines Beitrag herausgepickt hast, und den Rest total ignorierst, ganz großes Kino.


Der Rest sagt doch das gleiche aus... Oder wo steht was anderes als das du meinst in der Praxis wäre es nicht sonderlich relevant, mehr Bandbreite zu haben?
Es macht dabei einfach den Eindruck, dass du denkst, höhere Bandbreiten pro Speicherchip sind ausschließlich für mehr Gesamtbandbreite sinnig... Das ist aber eben nicht der Fall, worauf ich dich hingewiesen habe.

Nicht immer gleich angepisst fühlen, wenn einem mal widersprochen wird :wink:
#13
Registriert seit: 08.11.2015

Banned
Beiträge: 1381
Zitat lll;25292412

Wie gesagt begrüße ich jedwede Verbesserung, da es ohne zweifel viele Vorteile bietet, praktisch sieht es jedoch Mau aus.


Sollte sich die Transferleistung verdoppeln gegenüber GDDR5 mit 8Gb/s, dann hätte man bei einem 256Bit breitem Speicherinterface immerhin schonmal die doppelte Bandbreite, also dann ~600Gb/s :D Schafft atm netmal AMD mit ihrer supidupi HBM Supertechnologie "schneller als der Schall erlaubt"...

Der GV104 wird dann wohl der erste sein Quartal2/3/4? 2018 herum mit GDDR6. Vielleicht hat ja AMD bis dahin schon HBM3 support mit dann knapp 500GB/s an Durchsatz...
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Gigabyte GeForce GTX 1080 Ti AORUS im Test

Logo von IMAGES/STORIES/LOGOS-2017/GIGABYTE-GTX1080TI-AORUS-LOGO

Bei den Grafikkarten scheint sich derzeit alles auf den High-End-Markt zu konzentrieren, denn besonders NVIDIA ist mit der Titan Xp und den Custom-Modellen der GeForce GTX 1080 Ti hier sehr gut aufgestellt. Heute nun wollen wir uns die Gigabyte GeForce GTX 1080 Ti AORUS einmal genauer anschauen,... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]