> > > > Samsung präsentiert neuen GDDR6-Speicher

Samsung präsentiert neuen GDDR6-Speicher

Veröffentlicht am: von

samsungBereits mehrfach wurden nun schon über die baldige Einführung eines neuen Grafikspeicher-Standards aus der Graphics-Double-Data-Rate-Serie (GDDR) gesprochen, der in Kürze in der sechsten Generation vorliegen wird. Samsung und SK Hynix haben bereits die Produktion von GDDR6 angekündigt. SK Hynix sprach bereits von einer Auslieferung zu Beginn des Jahres 2018. Während SK Hynix von GDDR5 auf GDDR6 springt, sieht Samsung GDDR6 als Ersatz zu GDDR5X, der beispielsweise auf der GeForce GTX 1080 Ti und NVIDIA Titan Xp zum Einsatz kommt.

Bisher hat Samsung GDDR6 mit 14 bis 16 GBit/s pro I/O-Pin angekündigt. Angaben zu den konkreten Kapazitäten pro Chip gibt es hingegen noch nicht. SK Hynix ist hier schon einen Schritt weiter und hat mit dem "2Znm 8Gb(Gigabit) GDDR6(Graphics DDR6)" einen Chip mit 1 GB Kapazität angekündigt, der 16 GBit/s erreichen soll. GDDR5X liefert aktuell pro Chip eine Bandbreite von 10 GBit/s, geplant sind bis zu 14 GBit/s bei einer Kapazität von 512 MB bis 2 GB pro Chip.

Der nun von Samsung angekündigte GDDR6 soll eine Kapazität von 2 GB pro Chip aufweisen. Dieser liefert die von Samsung bereits genannten 16 GBit/s pro I/O-Pin und kommt auf eine Speicherbandbreite von 64 GB/s. Ein typischer Speicherausbau von 8 GB und damit vier Chips ergäbe demnach 256 GB/s. Bei 16 GB Kapazität sprechen wir von 512 GB/s. Die notwendige Spannung soll bei nur 1,35 V liegen.

In der Ankündigung zu den CES Innovation Awards findet sich die entsprechende Ankündigung:

"Samsung 16Gb GDDR6 Memory – The fastest and lowest-power DRAM for next generation, graphics-intensive applications. It processes images and video at 16Gbps with 64GB/s data I/O bandwidth, which is equivalent to transferring approximately 12 full-HD DVDs (5GB equivalent) per second. The new DRAM can operate at 1.35 volts, offering further advantages over today’s graphics memory that uses 1.5V at only 8Gbps."

GDDR6 wird 2018 und die Jahre darauf der wichtigste Gegenspieler zu High Bandwidth Memory sein. Beide Speichertechnologien können den High-End-Markt bedienen, stellen aber unterschiedliche Anforderungen an die Fertigung von GPU und den dazugehörigen Package. AMD setzte recht früh auf ein HBM-Design, erstmals mit der Fiji-GPU und nun mit den Vega-Karten. NVIDIA zeigte sich etwas zurückhaltender und verwendet HBM2 bisher nur auf den Compute-Beschleunigern Tesla P100 und V100 (GP100 und GV100). Für die High-End-Modelle hat man zusammen mit Micron GDDR5X entwickelt, den auch Samsung fertigt.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (33)

#24
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12470
Zitat Dave223;25942634
Immer diese sinnlosen Vergleiche... 1999 gab es auch einen 520i ab 33k Euro, heute kostet der mind. 41k. Und was sagt uns das?

Eigentlich sagt uns das sehr schön dass die Preise von grakas völlig unverhältnismäßig gestiegen sind, im Gegensatz zum Durchschnitt von anderen Dingen.
33k -> 41K: +24%
450DM (225€) -> 800€ für GTX 1080Ti: +255% !!!
#25
Registriert seit: 25.10.2017

Banned
Beiträge: 22
Für die erste Geforce (256er) hatte ich 1999 600DM bezahlt und das waren teils günstige Preise. Die 450DM sind mal Humbug.

Außerdem kann man die Geforce2Ti für 1200DM genauso einbeziehen und kommt dann locker auf ein gutes heutiges GTX1080Ti Verhältnis :D
#26
Registriert seit: 01.08.2011
Wien
Bootsmann
Beiträge: 628
Zitat DragonTear;25943556
Eigentlich sagt uns das sehr schön dass die Preise von grakas völlig unverhältnismäßig gestiegen sind, im Gegensatz zum Durchschnitt von anderen Dingen.
33k -> 41K: +24%
450DM (225€) -> 800€ für GTX 1080Ti: +255% !!!


genau so isses, man könnte auch sagen abzocke
#27
customavatars/avatar12967_1.gif
Registriert seit: 28.08.2004
Radeberg (Bierstadt)
Moderator
Beiträge: 1818
war die GF2 Ultra nicht sogar noch teurer als die Ti damals?

jedenfalls war die damals schon schweine teuer...und was damals die GeForce2 Ultra war, ist heute halt eine 1080ti :D
#28
Registriert seit: 10.03.2017

Banned
Beiträge: 1168
Zitat AssassinWarlord;25944069
war die GF2 Ultra nicht sogar noch teurer als die Ti damals?

jedenfalls war die damals schon schweine teuer...und was damals die GeForce2 Ultra war, ist heute halt eine 1080ti :D

Das waren DM-Preise. Wenn man die Inflation einberechnet kommt man wahrscheinlich auf ähnliche Preise. Und nach einem halben Jahr kam bereits die GF3.
#29
Registriert seit: 25.10.2017

Banned
Beiträge: 22
Zitat AssassinWarlord;25944069
war die GF2 Ultra nicht sogar noch teurer als die Ti damals?

jedenfalls war die damals schon schweine teuer...und was damals die GeForce2 Ultra war, ist heute halt eine 1080ti :D


Ja sorry war die Ultra (1200DM) der Ti Ableger war so um die 400 herum...

Hatte mich den ganzen Tag über kasteit ob der Frage ob nun doch nochmal 'ne AIB GTX1080Ti oder nur 'ne 1070Ti mir zu holen und dabei bin ich wohl ziemlich Matsche geworden im Kopf :stupid: Kack Volta hätte auch eher schon kommen können aber naja, dat GDDR6.
#30
customavatars/avatar62139_1.gif
Registriert seit: 14.04.2007
Halle/Saale
Flottillenadmiral
Beiträge: 4670
Zitat DragonTear;25943556
Eigentlich sagt uns das sehr schön dass die Preise von grakas völlig unverhältnismäßig gestiegen sind, im Gegensatz zum Durchschnitt von anderen Dingen.
33k -> 41K: +24%
450DM (225€) -> 800€ für GTX 1080Ti: +255% !!!


Wie bereits erwähnt wurde, die Geforce 256 kam keine 450 DM sondern 600DM bei Release. Und wenn man zB dir 2Ultra (als quasi Gegenstück zur 1080TI nimmt), die kam 1200 DM. Also 600 Euro und das sind nach Inflationszuschlag um die 780 Euro. Und wo liegt die 1080 TI? Die UVP waren 819 Euro oder 5% zu viel.

Nicht falsch verstehen, mir gefallen die Preise auch nicht, aber man sollte einfach mal
1. aufhören zu glauben Nvidia (alternativ: Intel, AMD, sonst wer) würde freiwillig weniger nehmen als die Käufer bereit sind zu zahlen
und 2. die heutigen Preise immer mit den billigen Preisen zu Zeiten der HD4870 und Konsorten zu vergleichen.
#31
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34159
Zitat DragonTear;25943556
Eigentlich sagt uns das sehr schön dass die Preise von grakas völlig unverhältnismäßig gestiegen sind, im Gegensatz zum Durchschnitt von anderen Dingen.


Nicht alles was hinkt, ist ein guter Vergleich. Vor allem bei Autos...
Damals zu "DM" Zeiten haste auch nen VW Passat TDI für 40-45k DM bekommen, heute zahlste mit bisschen Ausstattung auch gern 40-45k €. Mit was mehr auch 50k+
Vor allem dort, wo sich die Klassen verschoben haben, ging es mit den Preisen stark bergauf...

Eine TI kostet auch nicht gleich 800€, sondern mittlerweile gehts ab ~700€ los. Wie damals übrigens auch schon VOR dem Hype der GPU Preise.

Die GF2TI war auch nicht das Topmodell, sondern das zweit Größte, dazu auch grob 1 Jahr NACH dem Release des Topmodells nachgeschoben. Die Ultra was das Top Modell und hat damals eben 1200DM+ gekostet... Das sind die 600€ + Inflation von 2000 bis 2017 und macht grob über den Daumen 775€ nach heutigem Wert. Passt also wie Arsch auf Eimer!

Und wer es immer noch nicht mitbekommen hat, seit 2009 steigen die Preise mit jeder Generation... Es bleibt also anzunehmen, dass die nächste Gen. dann noch teurer im Vergleich wird.
#32
Registriert seit: 25.10.2017

Banned
Beiträge: 22
Zitat Dave223;25945086
...zu Zeiten der HD4870...


Doch zeigt die HD4000er Series ja gerade, was eine gesunde Konkurrenz bei Nvidia net alles anstellen kann :D Egal ob alles zum GT200 schon Monate vorher geleakt wurden ist und der Chip dank seines 512Bit SI ziemlich groß war; die "typisch Jensen" überzogenen Preise purzelten von 500/~300€ um gediegene 30% per SKU.
So eine Tripple SLI aus GTX260 für knapp 200€ das Stück war dies dann ein Kaufspaß wert!

Wäre der Pascal GP104 um 30% billiger wären wohl viele glücklich, denn net vergessen, für den GP106 zahlt man fast soviel wie für den GM104 und das bei Pi mal Daumen gleicher Performance :/


Mal scheuen was Intel sich bei den Rekordzahlen von Nvidias Q3 gaming earnings denkt...
#33
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Kapitän zur See
Beiträge: 3073
Zitat NasaGTR;25941852
@Fdsonne Das Vega so lang ist hat zu mindestens keine erkennbar sinnvollen Gründe. Die hätten dort gut 5cm einsparen können. Frag mich immer noch was AMD da gedacht hatte.


Liegt daran, dass VEGA mit Lüftkühlung gebaut wird und nicht alleine nur mit einer Wasserkühlung wie bei der Fury X geliefert wird. Da ist dann ein längeres PBC nötig.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]