> > > > SK Hynix bestätigt Radeon R9 Fury X mit HBM1

SK Hynix bestätigt Radeon R9 Fury X mit HBM1

Veröffentlicht am: von

amd radeon 2013Das Geheimnis ist längst keines mehr und dennoch warten viele noch auf die Bestätigung, die nun eingegangen ist. SK Hynix hat per Pressemitteilung verkündet, dass man mit der Massenproduktion der ersten Generation des High Memory Bandwith begonnen habe. Dazu würde die eigene 20-nm-Fertigung für DRAM verwendet. Auch der Namen der ersten Grafikkarte, die diesen Speicher verwenden wird, wird in der Pressemitteilung verraten. Die AMD Radeon R9 Fury X soll 4 GB HBM1 verwenden und damit auf eine Speicherbandbreite von 512 GB pro Sekunde kommen.

Aus der Pressemitteilung: "In addition to the mass production announcement, SK Hynix is pleased to recognize AMD as a key partner in enabling HBM1 technology. AMD announced the Radeon R9 Fury X, the world’s first graphics card with HBM technology in Los Angeles on June 16th. The AMD Radeon R9 Fury X graphics card utilizes 4GB HBM1 to achieve up to 512 GB/second memory bandwidth performance while reducing memory subsystem power by up to 85 %."

SK Hynix bestätigt damit den Einsatz von HBM1 in der ersten Ausbaustufe mit vier DRAM Layern, die auf dem kompletten Chip auf eine Kapazität von 1 GB kommen. Da AMD vier dieser Chips verbaut, kommt die Radeon R9 Fury X auf eine Speicherkapazität von 4 GB. Weitere Details zu HBM haben wir in einem gesonderten Artikel zusammengefasst, der die Vorteile laut AMD aufführt. Das HBM auch mehr leistet als nur die reine Steigerung der Speicherbandbreite, haben wir ebenfalls bereits beleuchtet.

AMD: High Bandwidth Memory (HBM)
AMD: High Bandwidth Memory (HBM)

Nun gilt es noch die weiteren Details zur Radeon R9 Fury X abzuwarten. Diese werden AMD heute im Verlaufe eines Liveevents von der E3 in Los Angeles verkündet. Ab 18:00 Uhr soll es unter www.twitch.tv/amd in Hinblick auf die neue Karte interessant werden. Offen sind noch weitestgehend die architektonischen Details zur "Fiji"-GPU. Die Steigerung der Speicherbandbreite ist das eine, doch auch auf Seiten der GPU-Architektur muss AMD einige Neuerungen bieten, ansonsten wird es mit dem Angriff auf NVIDIA und deren aktuelle High-End-Generation schwierig werden. Wir sind daher gespannt was AMD zu verkünden hat und freuen uns auch möglichst bald eigene Leistungswerte der Karte in Erfahrung bringen zu können.

Wie die neuen Karten aussehen könnten, haben wir in diesem Beitrag auf Basis der letzten Gerüchte aufgezeigt.

Social Links

Kommentare (12)

#3
customavatars/avatar33633_1.gif
Registriert seit: 18.01.2006

Flottillenadmiral
Beiträge: 4399
Ja, sowieso. Mehr als 6GB ist auch für 4K zumindest die nächste Zeit wohl mehr als genug. Aber nichts desto trotz hat sich gezeigt, dass in 4K Auflösung durchaus Spiele über die 4GB hinausgehen. Also kommt es wohl umso mehr darauf an, wie gut eine Karte mit ihren Ressourcen arbeiten kann.
Ich finde sowieso, dass Qualität vor Quantität gehen sollte. Hardware kostet Geld - darum besser damit haushalten und die Preise günstig(er) halten.
#4
Registriert seit: 11.05.2009
Ludwigsburg
Oberleutnant zur See
Beiträge: 1468
Schade, hätte meine sein können.
Jetzt kann man wieder ein Jahr oder mehr warten bis AMD es hinbekommt eine Karte mit HBM und 8GB zu präsentieren.

Ich finde auch preislich darf die Karte nicht sonderlich mehr kosten als eine 290x.
#5
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12472
Zitat Chemistry;23584409
Hardware kostet Geld - darum besser damit haushalten und die Preise günstig(er) halten.

Sag das mal den Softwareherstellern...
Als hardwarehersteller kann man da nicht viel optimieren, da die Software bestimmt was in den vRam kommt und was nicht. Die einzige Möglichkeit wäre eine Texturkomprimierung - wär definitiv genial wenn AMD damit um die Ecke kommt. Mal sehen...
#6
Registriert seit: 01.12.2012

Hauptgefreiter
Beiträge: 142
Ich bin sehr gespannt auf die ersten Benchmarks in hohen Auflösungen und natürlich den Preis.
Hoffe auch, dass AMD hier tatsächlich was handfestes zur Speicheroptimierung bringt.
Ich hatte seit der Ankündigung von "nur" 4GB HBM ja an ein 2-Level System mit langsameren GDDR als Zwischenspeicher gedacht. Also HBM direkt auf dem Die, GDDR auf dem PCB und DDR über das System als Notlösung.
Das wäre aber wahrscheinlich schon vom Management sehr kompliziert geworden. Speicherkomprimierung à la NVidia wäre das naheliegenste. Würde ja auch die effektive Speicherbandbreite noch weiter erhöhen, aber auch Rechenleistung benötigen.
Ich weiß es geht vielen auf die NErven, aber mir macht dieses Rätselraten und Möglichkeiten durchdenken Spaß :D

LG
RMG
#7
Registriert seit: 16.09.2002
Saalfeld
Leutnant zur See
Beiträge: 1257
Zitat DragonTear;23584436
einzige Möglichkeit wäre eine Texturkomprimierung


Moin, also ich denke das könnte schon in die Richtung gehen, denn bei Tonga wurde ja auch schon in diese Richtung entwickelt. Da war die der 285'ziger Chip ja auch meist schneller als der 280'ziger Tahiti trotz dessen größerem VRam. Aber lassen wir uns überraschen. Grüße
#8
Registriert seit: 26.04.2015

Oberbootsmann
Beiträge: 882
Also ich bin sehr Skeptisch wegen den 4Gb Ram, meine R9 290er laufen ständig in das Limit bei UHD, selbst bei älteren Spielen (vorallem bei UHD + Filter + TexturMods (ohne die UHD gerade bei älteren Spielen eher witzlos ist)).
Naja, im zweifel auf die 8 GB Version warten, oder gleich auf die nächste Generation mit kleinerer Strukturgröße.
#9
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Dann ist Fury eben keine 4K Karte sondern einer für Full HD und WHQD.
4GB und 4K geht nicht gut, das stelle ich jetzt schon mit einer r9 290x 4GB und 8GB Karte fest.
#10
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Vizeadmiral
Beiträge: 6898
Zitat Schaffe89;23584886
Dann ist Fury eben keine 4K Karte sondern einer für Full HD und WHQD.
4GB und 4K geht nicht gut, das stelle ich jetzt schon mit einer r9 290x 4GB und 8GB Karte fest.

Kannst du dir nichts unter Fabrkompression Vorstellen?
z.B. Blue-Ray Filme mit x264 Umwandeln spart ~ 10 Fachen Speicherplatz, verliert dabei aber keine Bildqualität.
Dann sollen jetzt 2 mal weniger Speicherverbrauch in Echtzeit ein Problem sein mit einem 1024bit Speicherkontroller?
#11
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 7625
Besonders jetzt mit ASR ist das Argument "4K Monitore haben nur sehr wenig Leute" nicht vertretbar.

Wenn sie mit 4GB HBM Effektive >=6GB GDDR5 erreichen, dann OK, dann kauf ich die Karte.
#12
Registriert seit: 16.09.2002
Saalfeld
Leutnant zur See
Beiträge: 1257
Ich werde mir die Tests anschauen und dann entscheiden. Werde mir in dem Zug auch einen neuen Monitor kaufen, wenn dann endlich mal was vernünftiges mit IPS, Freesync und 3440(oder 2560)x1440 verfügbar ist.

Grüße
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]