> > > > Micron könnte GDDR6 gegen Ende des Jahres ausliefern

Micron könnte GDDR6 gegen Ende des Jahres ausliefern

Veröffentlicht am: von

micronDie derzeit schnellsten Speicherstandards bei den Grafikkarten heißen HBM2 mit bis zu 1.024 GB/s und GDDR5X, der einmal bis zu 512 GB/s ermöglichen soll. Beide Speicherstandards unterscheiden sich maßgeblich durch die Breite des Speicherinterfaces und arbeiten daher mit unterschiedlichen Takten. Während HBM2 mit 1.024 Bit pro Speicherchip daher kommt, sind es bei GDDR5X 190 Bit. HBM2 wird von NVIDIA bereits für die GP100-GPU eingesetzt und wird sich mit der Vega-Architektur bei AMD auch in den ersten Gaming-Grafikkarten einfinden.

Aufgrund der einfacheren Bauart sowie Anbindung wird GDDR-Speicher im preisbewussten Markt noch lange eine wichtige Rolle spielen und will dabei hinsichtlich der Geschwindigkeit noch einen Zahn zulegen. High Bandwidth Memory hingegen wird im High-End-Segment mehr und mehr Verbreitung finden, sich aber noch lange nicht im Massenmarkt durchsetzen können.

GDDR6 steigert die Bandbreite pro Pin auf 16 GB/s, was 10x schneller als DDR3 ist. GDDR5X kommt derzeit auf 10 GB/s und soll später einmal ebenfalls 16 GB/s erreichen. GDDR6 oder eben der schnelle GDDR5X würden bei einem 256 Bit breiten Speicherinterface eine Gesamt-Speicherbandbreite von 384 auf 512 GB/s ermöglichen. Während es im HPC-Bereich allerdings keine Frage ist, dass eine schnelle Speicheranbindung von entscheidender Bedeutung ist, profitieren Gaming-Grafikkarten nicht zwangsläufig in diesem Maße davon. Moderne Kompressionsalgorithmen helfen den Speicherbedarf und die benötigten Speicherbandbreite zu reduzieren. Moderne Speichercontroller, wie der in der Vega-GPU, sollen ebenfalls durch unterschiedliche Optimierungen ihren Beitrag leisten.

Für GDDR5-Speicher sieht Micron ein Marktpotenzial von 2,5 Milliarden US-Dollar im aktuellen Jahr und dies soll in den kommenden Jahren nicht weniger werden. Nicht nur Desktop-Grafikkarten werden damit bestückt, auch in Konsolen soll GDDR-Speicher eine immer größere Verbreitung finden.

Micron nennt derzeit keinen konkreten Fahrplan für GDDR6. In Branchenkreisen geht man allerdings davon aus, dass Micron Ende 2017 erste Samples ausliefern will, sodass Hersteller wie NVIDIA, AMD, Sony und Microsoft für 2018 mit entsprechenden Produkten planen können. Bis 2020 soll GDDR6 die alten Standards dann fast vollständig abgelöst haben.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (13)

#4
customavatars/avatar215183_1.gif
Registriert seit: 01.01.2015
€Uropäische Union - Bairischer Sprachraum
Kapitän zur See
Beiträge: 3671
Fortschritt in allen ehren - den ich sehr begrüße, aber praktisch wird der 0815 Spieler davon relativ wenig merken, hier meine ich die Spieleleistung, ob GDDR5, GDDR5X oder HBM, der unterschied ist ausrechenbar aber garantiert nicht fühlbar, ohne zweifel werden große zahlen umher geworfen, aber ich empfinde es wie bei Arbeitsspeicher wo man den unterschied von 2000 zu 3000 MHz kaum bis gar nicht spürt - ausnahmen bestätigen natürlich die Regel ;)
Wie gesagt begrüße ich jedwede Verbesserung, da es ohne zweifel viele Vorteile bietet, praktisch sieht es jedoch Mau aus.
#5
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34159
Zitat NasaGTR;25292390
Und insbesondere für mobile Geräte ist der GDDR durch den niedrigeren Verbrauch und deutlich kleinere PCB-Platz-Bedarf überlegen.


In gewissen Maße ist das richtig... aber nicht überall sind 1TB/sec Bandbreite notwendig. Um so geringer der Bedarf desto weniger fallen die HBM Vorteile ins Gewicht. Selbst der Flächenvorteil verschwindet fast vollständig, wenn dir bspw. 128 Bit SI mit angepeilen 16Gb/sec Chips GDDR5X/GDDR6 reichen (256GB/sec)
Das ist die Hälfte der Fiji Bandbreite und weit mehr, wie heute die Mittelklasse spielend auskommen kann. Oder ne 1070er...

Und die einzigen ansatzweise belastbaren Zahlen zum Verbrausvorteil bei GPUs stammen von AMD. Selbst mit den alten GDDR5 Zahlen von Hawaii bleibt da runtergerechnet ein extrem niedriger zweistelliger Wert über. Nur das es ja auch dort neue Prozesse gibt und der Verbrauch sinkt usw.
Fällt das wirklich ins Gewicht? Vor allem wo möglicherweise noch der Preis ggü. steht?

Zitat lll;25292412
..., praktisch sieht es jedoch Mau aus.


Praktisch bedeutet das, kleineres Interface = geringere Kosten = gerinerer Verbrauch = weniger Flächenbedarf usw. und das alles bei gleicher Bandbreite...
Warum ein 256 Bit SI verbauen, wenn auch 128 Bit reichen kann?
#6
customavatars/avatar215183_1.gif
Registriert seit: 01.01.2015
€Uropäische Union - Bairischer Sprachraum
Kapitän zur See
Beiträge: 3671
Toll dass du dir einen kleinen Teil meines Beitrag herausgepickt hast, und den Rest total ignorierst, ganz großes Kino.
#7
Registriert seit: 10.01.2015

Oberbootsmann
Beiträge: 949
Nvidia könnte GSync kostenlos anbieten - könnte - wenn - hätte...
#8
customavatars/avatar181437_1.gif
Registriert seit: 30.10.2012
Mittelfranken
Stabsgefreiter
Beiträge: 266
Ist eigentlich GDDR6 schneller als GDDR5 aufgrund des Taktes (>2000 MHz) oder ist es wie GDDR5X in die breite ausgebohrt mit >1250 MHz Takt?
#9
Registriert seit: 03.06.2014

Hauptgefreiter
Beiträge: 145
Zitat Sanek;25292565
Ist eigentlich GDDR6 schneller als GDDR5 aufgrund des Taktes (>2000 MHz) oder ist es wie GDDR5X in die breite ausgebohrt mit >1250 MHz Takt?

Ohne es genau zu wissen würde ich vermuten, dass es ähnlich wie beim Sprung von DDR3 auf DDR4 wird: Es gibt ein neue Chipgeneration die mehr Takt bei weniger Strombedarf zulässt.
#10
Registriert seit: 01.01.1970


Beiträge:
Vermutlich wird der Takt sinken, höherer Takt braucht gewöhnlich mehr Energie.
#11
customavatars/avatar7384_1.gif
Registriert seit: 05.10.2003
Nahe Dortmund
Vizeadmiral
Beiträge: 6575
Bin mal gespannt ob sich HBM durchsetzen wird im Mainstream Bereich - der große Faktor ist halt die Kosten & die Notwendigkeit. Könnte mir vorstellen das GDDR6 über kurz o. lang da die Nase vorn hat. Früher gab es mal ein Speichersystem Rambus das hat sich aufgrund des Preises auch nie am Massenmarkt durchgesetzt.
#12
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34159
Zitat lll;25292462
Toll dass du dir einen kleinen Teil meines Beitrag herausgepickt hast, und den Rest total ignorierst, ganz großes Kino.


Der Rest sagt doch das gleiche aus... Oder wo steht was anderes als das du meinst in der Praxis wäre es nicht sonderlich relevant, mehr Bandbreite zu haben?
Es macht dabei einfach den Eindruck, dass du denkst, höhere Bandbreiten pro Speicherchip sind ausschließlich für mehr Gesamtbandbreite sinnig... Das ist aber eben nicht der Fall, worauf ich dich hingewiesen habe.

Nicht immer gleich angepisst fühlen, wenn einem mal widersprochen wird :wink:
#13
Registriert seit: 08.11.2015

Banned
Beiträge: 1381
Zitat lll;25292412

Wie gesagt begrüße ich jedwede Verbesserung, da es ohne zweifel viele Vorteile bietet, praktisch sieht es jedoch Mau aus.


Sollte sich die Transferleistung verdoppeln gegenüber GDDR5 mit 8Gb/s, dann hätte man bei einem 256Bit breitem Speicherinterface immerhin schonmal die doppelte Bandbreite, also dann ~600Gb/s :D Schafft atm netmal AMD mit ihrer supidupi HBM Supertechnologie "schneller als der Schall erlaubt"...

Der GV104 wird dann wohl der erste sein Quartal2/3/4? 2018 herum mit GDDR6. Vielleicht hat ja AMD bis dahin schon HBM3 support mit dann knapp 500GB/s an Durchsatz...
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]