> > > > Samsung präsentiert neuen GDDR6-Speicher

Samsung präsentiert neuen GDDR6-Speicher

Veröffentlicht am: von

samsungBereits mehrfach wurden nun schon über die baldige Einführung eines neuen Grafikspeicher-Standards aus der Graphics-Double-Data-Rate-Serie (GDDR) gesprochen, der in Kürze in der sechsten Generation vorliegen wird. Samsung und SK Hynix haben bereits die Produktion von GDDR6 angekündigt. SK Hynix sprach bereits von einer Auslieferung zu Beginn des Jahres 2018. Während SK Hynix von GDDR5 auf GDDR6 springt, sieht Samsung GDDR6 als Ersatz zu GDDR5X, der beispielsweise auf der GeForce GTX 1080 Ti und NVIDIA Titan Xp zum Einsatz kommt.

Bisher hat Samsung GDDR6 mit 14 bis 16 GBit/s pro I/O-Pin angekündigt. Angaben zu den konkreten Kapazitäten pro Chip gibt es hingegen noch nicht. SK Hynix ist hier schon einen Schritt weiter und hat mit dem "2Znm 8Gb(Gigabit) GDDR6(Graphics DDR6)" einen Chip mit 1 GB Kapazität angekündigt, der 16 GBit/s erreichen soll. GDDR5X liefert aktuell pro Chip eine Bandbreite von 10 GBit/s, geplant sind bis zu 14 GBit/s bei einer Kapazität von 512 MB bis 2 GB pro Chip.

Der nun von Samsung angekündigte GDDR6 soll eine Kapazität von 2 GB pro Chip aufweisen. Dieser liefert die von Samsung bereits genannten 16 GBit/s pro I/O-Pin und kommt auf eine Speicherbandbreite von 64 GB/s. Ein typischer Speicherausbau von 8 GB und damit vier Chips ergäbe demnach 256 GB/s. Bei 16 GB Kapazität sprechen wir von 512 GB/s. Die notwendige Spannung soll bei nur 1,35 V liegen.

In der Ankündigung zu den CES Innovation Awards findet sich die entsprechende Ankündigung:

"Samsung 16Gb GDDR6 Memory – The fastest and lowest-power DRAM for next generation, graphics-intensive applications. It processes images and video at 16Gbps with 64GB/s data I/O bandwidth, which is equivalent to transferring approximately 12 full-HD DVDs (5GB equivalent) per second. The new DRAM can operate at 1.35 volts, offering further advantages over today’s graphics memory that uses 1.5V at only 8Gbps."

GDDR6 wird 2018 und die Jahre darauf der wichtigste Gegenspieler zu High Bandwidth Memory sein. Beide Speichertechnologien können den High-End-Markt bedienen, stellen aber unterschiedliche Anforderungen an die Fertigung von GPU und den dazugehörigen Package. AMD setzte recht früh auf ein HBM-Design, erstmals mit der Fiji-GPU und nun mit den Vega-Karten. NVIDIA zeigte sich etwas zurückhaltender und verwendet HBM2 bisher nur auf den Compute-Beschleunigern Tesla P100 und V100 (GP100 und GV100). Für die High-End-Modelle hat man zusammen mit Micron GDDR5X entwickelt, den auch Samsung fertigt.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (33)

#24
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 11734
Zitat Dave223;25942634
Immer diese sinnlosen Vergleiche... 1999 gab es auch einen 520i ab 33k Euro, heute kostet der mind. 41k. Und was sagt uns das?

Eigentlich sagt uns das sehr schön dass die Preise von grakas völlig unverhältnismäßig gestiegen sind, im Gegensatz zum Durchschnitt von anderen Dingen.
33k -> 41K: +24%
450DM (225€) -> 800€ für GTX 1080Ti: +255% !!!
#25
Registriert seit: 25.10.2017

Banned
Beiträge: 22
Für die erste Geforce (256er) hatte ich 1999 600DM bezahlt und das waren teils günstige Preise. Die 450DM sind mal Humbug.

Außerdem kann man die Geforce2Ti für 1200DM genauso einbeziehen und kommt dann locker auf ein gutes heutiges GTX1080Ti Verhältnis :D
#26
Registriert seit: 01.08.2011
Wien
Bootsmann
Beiträge: 571
Zitat DragonTear;25943556
Eigentlich sagt uns das sehr schön dass die Preise von grakas völlig unverhältnismäßig gestiegen sind, im Gegensatz zum Durchschnitt von anderen Dingen.
33k -> 41K: +24%
450DM (225€) -> 800€ für GTX 1080Ti: +255% !!!


genau so isses, man könnte auch sagen abzocke
#27
customavatars/avatar12967_1.gif
Registriert seit: 28.08.2004
Radeberg (Bierstadt)
Moderator
Beiträge: 1636
war die GF2 Ultra nicht sogar noch teurer als die Ti damals?

jedenfalls war die damals schon schweine teuer...und was damals die GeForce2 Ultra war, ist heute halt eine 1080ti :D
#28
Registriert seit: 10.03.2017

Bootsmann
Beiträge: 581
Zitat AssassinWarlord;25944069
war die GF2 Ultra nicht sogar noch teurer als die Ti damals?

jedenfalls war die damals schon schweine teuer...und was damals die GeForce2 Ultra war, ist heute halt eine 1080ti :D

Das waren DM-Preise. Wenn man die Inflation einberechnet kommt man wahrscheinlich auf ähnliche Preise. Und nach einem halben Jahr kam bereits die GF3.
#29
Registriert seit: 25.10.2017

Banned
Beiträge: 22
Zitat AssassinWarlord;25944069
war die GF2 Ultra nicht sogar noch teurer als die Ti damals?

jedenfalls war die damals schon schweine teuer...und was damals die GeForce2 Ultra war, ist heute halt eine 1080ti :D


Ja sorry war die Ultra (1200DM) der Ti Ableger war so um die 400 herum...

Hatte mich den ganzen Tag über kasteit ob der Frage ob nun doch nochmal 'ne AIB GTX1080Ti oder nur 'ne 1070Ti mir zu holen und dabei bin ich wohl ziemlich Matsche geworden im Kopf :stupid: Kack Volta hätte auch eher schon kommen können aber naja, dat GDDR6.
#30
customavatars/avatar62139_1.gif
Registriert seit: 14.04.2007
Halle/Saale
Flottillenadmiral
Beiträge: 4625
Zitat DragonTear;25943556
Eigentlich sagt uns das sehr schön dass die Preise von grakas völlig unverhältnismäßig gestiegen sind, im Gegensatz zum Durchschnitt von anderen Dingen.
33k -> 41K: +24%
450DM (225€) -> 800€ für GTX 1080Ti: +255% !!!


Wie bereits erwähnt wurde, die Geforce 256 kam keine 450 DM sondern 600DM bei Release. Und wenn man zB dir 2Ultra (als quasi Gegenstück zur 1080TI nimmt), die kam 1200 DM. Also 600 Euro und das sind nach Inflationszuschlag um die 780 Euro. Und wo liegt die 1080 TI? Die UVP waren 819 Euro oder 5% zu viel.

Nicht falsch verstehen, mir gefallen die Preise auch nicht, aber man sollte einfach mal
1. aufhören zu glauben Nvidia (alternativ: Intel, AMD, sonst wer) würde freiwillig weniger nehmen als die Käufer bereit sind zu zahlen
und 2. die heutigen Preise immer mit den billigen Preisen zu Zeiten der HD4870 und Konsorten zu vergleichen.
#31
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33223
Zitat DragonTear;25943556
Eigentlich sagt uns das sehr schön dass die Preise von grakas völlig unverhältnismäßig gestiegen sind, im Gegensatz zum Durchschnitt von anderen Dingen.


Nicht alles was hinkt, ist ein guter Vergleich. Vor allem bei Autos...
Damals zu "DM" Zeiten haste auch nen VW Passat TDI für 40-45k DM bekommen, heute zahlste mit bisschen Ausstattung auch gern 40-45k €. Mit was mehr auch 50k+
Vor allem dort, wo sich die Klassen verschoben haben, ging es mit den Preisen stark bergauf...

Eine TI kostet auch nicht gleich 800€, sondern mittlerweile gehts ab ~700€ los. Wie damals übrigens auch schon VOR dem Hype der GPU Preise.

Die GF2TI war auch nicht das Topmodell, sondern das zweit Größte, dazu auch grob 1 Jahr NACH dem Release des Topmodells nachgeschoben. Die Ultra was das Top Modell und hat damals eben 1200DM+ gekostet... Das sind die 600€ + Inflation von 2000 bis 2017 und macht grob über den Daumen 775€ nach heutigem Wert. Passt also wie Arsch auf Eimer!

Und wer es immer noch nicht mitbekommen hat, seit 2009 steigen die Preise mit jeder Generation... Es bleibt also anzunehmen, dass die nächste Gen. dann noch teurer im Vergleich wird.
#32
Registriert seit: 25.10.2017

Banned
Beiträge: 22
Zitat Dave223;25945086
...zu Zeiten der HD4870...


Doch zeigt die HD4000er Series ja gerade, was eine gesunde Konkurrenz bei Nvidia net alles anstellen kann :D Egal ob alles zum GT200 schon Monate vorher geleakt wurden ist und der Chip dank seines 512Bit SI ziemlich groß war; die "typisch Jensen" überzogenen Preise purzelten von 500/~300€ um gediegene 30% per SKU.
So eine Tripple SLI aus GTX260 für knapp 200€ das Stück war dies dann ein Kaufspaß wert!

Wäre der Pascal GP104 um 30% billiger wären wohl viele glücklich, denn net vergessen, für den GP106 zahlt man fast soviel wie für den GM104 und das bei Pi mal Daumen gleicher Performance :/


Mal scheuen was Intel sich bei den Rekordzahlen von Nvidias Q3 gaming earnings denkt...
#33
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2935
Zitat NasaGTR;25941852
@Fdsonne Das Vega so lang ist hat zu mindestens keine erkennbar sinnvollen Gründe. Die hätten dort gut 5cm einsparen können. Frag mich immer noch was AMD da gedacht hatte.


Liegt daran, dass VEGA mit Lüftkühlung gebaut wird und nicht alleine nur mit einer Wasserkühlung wie bei der Fury X geliefert wird. Da ist dann ein längeres PBC nötig.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]