> > > > Micron könnte GDDR6 gegen Ende des Jahres ausliefern

Micron könnte GDDR6 gegen Ende des Jahres ausliefern

Veröffentlicht am: von

micronDie derzeit schnellsten Speicherstandards bei den Grafikkarten heißen HBM2 mit bis zu 1.024 GB/s und GDDR5X, der einmal bis zu 512 GB/s ermöglichen soll. Beide Speicherstandards unterscheiden sich maßgeblich durch die Breite des Speicherinterfaces und arbeiten daher mit unterschiedlichen Takten. Während HBM2 mit 1.024 Bit pro Speicherchip daher kommt, sind es bei GDDR5X 190 Bit. HBM2 wird von NVIDIA bereits für die GP100-GPU eingesetzt und wird sich mit der Vega-Architektur bei AMD auch in den ersten Gaming-Grafikkarten einfinden.

Aufgrund der einfacheren Bauart sowie Anbindung wird GDDR-Speicher im preisbewussten Markt noch lange eine wichtige Rolle spielen und will dabei hinsichtlich der Geschwindigkeit noch einen Zahn zulegen. High Bandwidth Memory hingegen wird im High-End-Segment mehr und mehr Verbreitung finden, sich aber noch lange nicht im Massenmarkt durchsetzen können.

GDDR6 steigert die Bandbreite pro Pin auf 16 GB/s, was 10x schneller als DDR3 ist. GDDR5X kommt derzeit auf 10 GB/s und soll später einmal ebenfalls 16 GB/s erreichen. GDDR6 oder eben der schnelle GDDR5X würden bei einem 256 Bit breiten Speicherinterface eine Gesamt-Speicherbandbreite von 384 auf 512 GB/s ermöglichen. Während es im HPC-Bereich allerdings keine Frage ist, dass eine schnelle Speicheranbindung von entscheidender Bedeutung ist, profitieren Gaming-Grafikkarten nicht zwangsläufig in diesem Maße davon. Moderne Kompressionsalgorithmen helfen den Speicherbedarf und die benötigten Speicherbandbreite zu reduzieren. Moderne Speichercontroller, wie der in der Vega-GPU, sollen ebenfalls durch unterschiedliche Optimierungen ihren Beitrag leisten.

Für GDDR5-Speicher sieht Micron ein Marktpotenzial von 2,5 Milliarden US-Dollar im aktuellen Jahr und dies soll in den kommenden Jahren nicht weniger werden. Nicht nur Desktop-Grafikkarten werden damit bestückt, auch in Konsolen soll GDDR-Speicher eine immer größere Verbreitung finden.

Micron nennt derzeit keinen konkreten Fahrplan für GDDR6. In Branchenkreisen geht man allerdings davon aus, dass Micron Ende 2017 erste Samples ausliefern will, sodass Hersteller wie NVIDIA, AMD, Sony und Microsoft für 2018 mit entsprechenden Produkten planen können. Bis 2020 soll GDDR6 die alten Standards dann fast vollständig abgelöst haben.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (13)

#4
customavatars/avatar215183_1.gif
Registriert seit: 01.01.2015
€uropäische Union - Bairischer Sprachraum
Korvettenkapitän
Beiträge: 2354
Fortschritt in allen ehren - den ich sehr begrüße, aber praktisch wird der 0815 Spieler davon relativ wenig merken, hier meine ich die Spieleleistung, ob GDDR5, GDDR5X oder HBM, der unterschied ist ausrechenbar aber garantiert nicht fühlbar, ohne zweifel werden große zahlen umher geworfen, aber ich empfinde es wie bei Arbeitsspeicher wo man den unterschied von 2000 zu 3000 MHz kaum bis gar nicht spürt - ausnahmen bestätigen natürlich die Regel ;)
Wie gesagt begrüße ich jedwede Verbesserung, da es ohne zweifel viele Vorteile bietet, praktisch sieht es jedoch Mau aus.
#5
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 32941
Zitat NasaGTR;25292390
Und insbesondere für mobile Geräte ist der GDDR durch den niedrigeren Verbrauch und deutlich kleinere PCB-Platz-Bedarf überlegen.


In gewissen Maße ist das richtig... aber nicht überall sind 1TB/sec Bandbreite notwendig. Um so geringer der Bedarf desto weniger fallen die HBM Vorteile ins Gewicht. Selbst der Flächenvorteil verschwindet fast vollständig, wenn dir bspw. 128 Bit SI mit angepeilen 16Gb/sec Chips GDDR5X/GDDR6 reichen (256GB/sec)
Das ist die Hälfte der Fiji Bandbreite und weit mehr, wie heute die Mittelklasse spielend auskommen kann. Oder ne 1070er...

Und die einzigen ansatzweise belastbaren Zahlen zum Verbrausvorteil bei GPUs stammen von AMD. Selbst mit den alten GDDR5 Zahlen von Hawaii bleibt da runtergerechnet ein extrem niedriger zweistelliger Wert über. Nur das es ja auch dort neue Prozesse gibt und der Verbrauch sinkt usw.
Fällt das wirklich ins Gewicht? Vor allem wo möglicherweise noch der Preis ggü. steht?

Zitat lll;25292412
..., praktisch sieht es jedoch Mau aus.


Praktisch bedeutet das, kleineres Interface = geringere Kosten = gerinerer Verbrauch = weniger Flächenbedarf usw. und das alles bei gleicher Bandbreite...
Warum ein 256 Bit SI verbauen, wenn auch 128 Bit reichen kann?
#6
customavatars/avatar215183_1.gif
Registriert seit: 01.01.2015
€uropäische Union - Bairischer Sprachraum
Korvettenkapitän
Beiträge: 2354
Toll dass du dir einen kleinen Teil meines Beitrag herausgepickt hast, und den Rest total ignorierst, ganz großes Kino.
#7
customavatars/avatar215656_1.gif
Registriert seit: 10.01.2015

Bootsmann
Beiträge: 752
Nvidia könnte GSync kostenlos anbieten - könnte - wenn - hätte...
#8
customavatars/avatar181437_1.gif
Registriert seit: 30.10.2012
Mittelfranken
Stabsgefreiter
Beiträge: 263
Ist eigentlich GDDR6 schneller als GDDR5 aufgrund des Taktes (>2000 MHz) oder ist es wie GDDR5X in die breite ausgebohrt mit >1250 MHz Takt?
#9
Registriert seit: 03.06.2014

Obergefreiter
Beiträge: 93
Zitat Sanek;25292565
Ist eigentlich GDDR6 schneller als GDDR5 aufgrund des Taktes (>2000 MHz) oder ist es wie GDDR5X in die breite ausgebohrt mit >1250 MHz Takt?

Ohne es genau zu wissen würde ich vermuten, dass es ähnlich wie beim Sprung von DDR3 auf DDR4 wird: Es gibt ein neue Chipgeneration die mehr Takt bei weniger Strombedarf zulässt.
#10
Registriert seit: 01.01.1970


Beiträge:
Vermutlich wird der Takt sinken, höherer Takt braucht gewöhnlich mehr Energie.
#11
customavatars/avatar7384_1.gif
Registriert seit: 05.10.2003
Nahe Dortmund
Flottillenadmiral
Beiträge: 5863
Bin mal gespannt ob sich HBM durchsetzen wird im Mainstream Bereich - der große Faktor ist halt die Kosten & die Notwendigkeit. Könnte mir vorstellen das GDDR6 über kurz o. lang da die Nase vorn hat. Früher gab es mal ein Speichersystem Rambus das hat sich aufgrund des Preises auch nie am Massenmarkt durchgesetzt.
#12
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 32941
Zitat lll;25292462
Toll dass du dir einen kleinen Teil meines Beitrag herausgepickt hast, und den Rest total ignorierst, ganz großes Kino.


Der Rest sagt doch das gleiche aus... Oder wo steht was anderes als das du meinst in der Praxis wäre es nicht sonderlich relevant, mehr Bandbreite zu haben?
Es macht dabei einfach den Eindruck, dass du denkst, höhere Bandbreiten pro Speicherchip sind ausschließlich für mehr Gesamtbandbreite sinnig... Das ist aber eben nicht der Fall, worauf ich dich hingewiesen habe.

Nicht immer gleich angepisst fühlen, wenn einem mal widersprochen wird :wink:
#13
Registriert seit: 08.11.2015

Banned
Beiträge: 1381
Zitat lll;25292412

Wie gesagt begrüße ich jedwede Verbesserung, da es ohne zweifel viele Vorteile bietet, praktisch sieht es jedoch Mau aus.


Sollte sich die Transferleistung verdoppeln gegenüber GDDR5 mit 8Gb/s, dann hätte man bei einem 256Bit breitem Speicherinterface immerhin schonmal die doppelte Bandbreite, also dann ~600Gb/s :D Schafft atm netmal AMD mit ihrer supidupi HBM Supertechnologie "schneller als der Schall erlaubt"...

Der GV104 wird dann wohl der erste sein Quartal2/3/4? 2018 herum mit GDDR6. Vielleicht hat ja AMD bis dahin schon HBM3 support mit dann knapp 500GB/s an Durchsatz...
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]