> > > > AMD Radeon R9 Fury X2: Doppel-GPU-Karte soll noch in diesem Jahr erscheinen

AMD Radeon R9 Fury X2: Doppel-GPU-Karte soll noch in diesem Jahr erscheinen

Veröffentlicht am: von

amd radeon 2013Mit der AMD Radeon R9 Fury X hält AMD schon seit einigen Wochen einen durchaus attraktiven Konkurrenten zur NVIDIA GeForce GTX 980 Ti parat und spielt wieder in den oberen Leistungsregionen mit. Gleichzeitig gibt es mit der Radeon R9 Fury einen preislich etwas günstigeren Ableger und mit der AMD Radeon R9 Nano auch eine besonders kompakte Version für ITX-Systeme.

Noch in diesem Jahr aber soll AMD noch einmal eine Schippe drauflegen und eine Grafikkarte mit zwei dieser Fiji-GPUs präsentieren. Dass AMD ein solches Grafikmonster in Planung hat, dass hatte CEO Dr. Lisa Su fest versprochen. Laut der Webseite Wccftech.com soll die Karte als Radeon R9 Fury X2 unter dem Codenamen Gemini noch in diesem Jahr auf den Markt kommen – voraussichtlich gegen Ende des Monats oder Anfang Dezember. Gerüchte hierzu gab es schon Anfang Oktober.

Die Spezifikationen sollen bereits feststehen. Demnach soll die kommende Dual-GPU-Grafikkarte von AMD mit zwei vollwertigen Fiji-GPUs ausgerüstet sein, die allerdings bei den Taktraten im Vergleich zum aktuellen Topmodell leicht darunter angesiedelt und auf dem Niveau der kleinen Nano-Grafikkarte liegen sollen. Damit sollen der AMD Radeon R9 Fury X2 pro Grafikchip insgesamt 4.096 Streamprozessoren, 256 Textureinheiten und 64 Rasterendstufen bereitstehen. Beim Speicherausbau soll es pro Grafikprozessor jeweils 4 GB HBM geben, welchen man über ein 4.096 Bit breites Interface anschließt und mit 500 MHz arbeiten lässt. Der Grafikprozessor der beiden GPUs soll sich hingegen mit bis zu 1.000 MHz ans Werk machen.

Die AMD Radeon R9 Fury X2 im Vergleich
Modell AMD Radeon R9 Nano AMD Radeon R9 Fury AMD Radeon R9 Fury X AMD Radeon R9 Fury X2
Preis ab 648 Euro ab 545 Euro ab 649 Euro unbekannt
Homepage www.amd.de www.amd.de www.amd.de www.amd.de
Technische Daten
GPU Fiji XT Fiji PRO Fiji XT Gemini
Fertigung 28 nm 28 nm 28 nm 28 nm
Transistoren 8,9 Milliarden 8,9 Milliarden 8,9 Milliarden 2x 8,9 Milliarden
GPU-Takt (Base Clock) - - - -
GPU-Takt (Boost Clock) 1.000 MHz 1.000 MHz 1.050 MHz 2x 1.000 MHz
Speichertakt 500 MHz 500 MHz 500 MHz 2x 500 MHz
Speichertyp HBM HBM HBM HBM
Speichergröße 4 GB 4 GB 4 GB 2x 4 GB
Speicherinterface 4.096 Bit 4.096 Bit 4.096 Bit 2x 4.096 bit
Speicherbandbreite 512,0 GB/s 512,0 GB/s 512,0 GB/s 2x 512,0 GB/s
DirectX-Version 12 12 12 12
Shadereinheiten 4.096 3.584 4.096 2x 4.096
Textureinheiten 256 224 256 2x 256
ROPs 64 64 64 2x 64
Typische Boardpower 175 Watt 275 275 Watt unbekannt

Damit soll die Dual-GPU-Version einen Leistungssprung von bis zu 80 % gegenüber einer einzelnen Radeon R9 Fury X erreichen und ein ruckelfreies Spielvergnügen bei allen Details in 4K möglich machen. Zudem sollen einige Optimierungen an der CrossFire-Technologie dafür sorgen, dass weniger Mikroruckler auftreten. Der Unterschied zwischen den Minimum- und Average-FPS soll deutlich geringer ausfallen. Wohl ein Grund, weshalb die kommende Doppel-Herz-Grafikkarte von AMD nicht mit einem 32-Bit-Betriebssystem zusammenarbeiten soll.

Ob die Radeon R9 Fury X2 tatsächlich unter diesem Namen an den Start gehen oder vielleicht doch als Radeon Gemini, bleibt abzuwarten – genau wie angepeilte Leistungsaufnahme und der Preis. Noch in diesem Jahr aber sollen alle Details gelüftet werden.

Social Links

Kommentare (28)

#19
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Vizeadmiral
Beiträge: 6308
@fdsonne
Bei der S.T.A.L.K.E.R. Reihe ist es mir zu letzt aufgefallen, aber auch nur beim Benchmark mit externem Tool. ;)

Zitat Pickebuh;24016929
Keine Angst. Ich werde mal ganz kurz und schnell Antworten.
AMD hat das Speichermanagement verbessert. Punkt. Dadurch sind jetzt die 4 GB mehr wert als beim damaligen Release der Fury X.Punkt.
Du brauchst dir daher nicht diese langen Texte mit Abzweigungen,Einbahnstraßen und Sackgassen antun. ;)

Danke für die Zusammenfassung! ;)

Zitat RoBBe07;24017246
Wenn der Speicher jetzt mehr Wert hat, wird es dann auch teurer für den Endkunden?:bigok:

Ja, aber AMD kompensiert das nun mit 8GByte GDDR5, also doppelt soviel. :fresse:
#20
customavatars/avatar104207_1.gif
Registriert seit: 12.12.2008
Wien
Kapitänleutnant
Beiträge: 1629
Zitat Pickebuh;24016929
AMD hat das Speichermanagement verbessert. Punkt. Dadurch sind jetzt die 4 GB mehr wert als beim damaligen Release der Fury X.Punkt.

Nope, denn die Fury X bekam das bereits mit dem Release-Treiber, also hat sich für Fury X nichts verändert seit dem Release :hmm:
#21
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Vizeadmiral
Beiträge: 6308
Was mir erst jetzt auffällt, die Fury X² mit 2x 4GByte wir erstmals die SpeicherBandBreite von 1 T(erra)Byte erreichen.
Das ist schon sehr viel und bedarf etwas "Anpassung" bei der Programmierung. ;)
#22
Registriert seit: 18.05.2007

Admiral
Beiträge: 8767
Die Speicherbrandbreite bedarf garkeine Anpassung in der Programmierung. Seit wann programmiere ich angepasst auf die Speicherbandbreite? O.o

Im großen und ganzen bringt dir die Speicherbandbreite gar nichts, denn im Worstcase kommen die Daten von der HDD/SSD oder dem Ram, und da sind wir meilenweit weg von 1TB/s. ^^
#23
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2936
Zitat fideliovienna;24017618
Nope, denn die Fury X bekam das bereits mit dem Release-Treiber, also hat sich für Fury X nichts verändert seit dem Release :hmm:


Und so ein Release-Treiber wird ja auch bekanntlich nie verbessert. Vor allem nicht bei einer neuen Speichertechnologie...
Ich glaube doch, das man da noch eine ganze menge verbessern kann. ;)

Zitat Phantomias88;24017810
Was mir erst jetzt auffällt, die Fury X² mit 2x 4GByte wir erstmals die SpeicherBandBreite von 1 T(erra)Byte erreichen.


Stimmt leider nicht.
Es ist wie mit allen anderen Dual-Karten. Der Speicher und dessen Bandbreite werden nur auf dem Rechnungs-Papier verdoppelt. Aber da jeder Speicher nur für die jeweilige einzelne GPU zur Verfügung steht, wird eben nicht 1x1000 Mhz sondern 2x500MHz daraus. Sowie eben nicht 1x8 GB sondern 2x4GB.

Es sei den, AMD nutzt DX12 mit einem neuen Rendering (SFR statt AFR) Verfahren. Aber ob es schon so schnell und gut zum Einsatz kommt ist noch sehr unwahrscheinlich. Aber wer weiß, was der neue Crimson-Treiber so im Petto hat...
#24
Registriert seit: 13.12.2009

Gefreiter
Beiträge: 63
Hoffe nur das der VRAM bei der auch verdoppelt wird, genau wie mit allen anderen Crossfiregespannen.
#25
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Vizeadmiral
Beiträge: 6308
@Pickebuh
Das SFR (dx11) von früher hat die auch Daten doppelt im VRAM abgelegt, erst mit explizit multiadapter (DX12) wird ein gemeinsamer Speicher Pool genutzt.
OC3D :: Article :: AMD Explains DX12 Multi GPU Benefits :: AMD Explains DX12 Multi GPU Abilities
#26
customavatars/avatar178395_1.gif
Registriert seit: 13.08.2012
Gütersloh
Hauptgefreiter
Beiträge: 159
Dann ist auch endlich die Zeit des dämlichen Marketings mit der vollen Speicherbelegung vorbei :D
#27
Registriert seit: 18.05.2007

Admiral
Beiträge: 8767
@asus88
Das mit dem doppelten Speicher wird nichts werden. Das wird erst mit HBM2 möglich, und der steht so viel bekannt ist, noch nicht zur Verfügung.
#28
Registriert seit: 05.01.2015

Gefreiter
Beiträge: 57
verlesen
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]