> > > > AMD Radeon R9 Fury X2: Doppel-GPU-Karte soll noch in diesem Jahr erscheinen

AMD Radeon R9 Fury X2: Doppel-GPU-Karte soll noch in diesem Jahr erscheinen

Veröffentlicht am: von

amd radeon 2013Mit der AMD Radeon R9 Fury X hält AMD schon seit einigen Wochen einen durchaus attraktiven Konkurrenten zur NVIDIA GeForce GTX 980 Ti parat und spielt wieder in den oberen Leistungsregionen mit. Gleichzeitig gibt es mit der Radeon R9 Fury einen preislich etwas günstigeren Ableger und mit der AMD Radeon R9 Nano auch eine besonders kompakte Version für ITX-Systeme.

Noch in diesem Jahr aber soll AMD noch einmal eine Schippe drauflegen und eine Grafikkarte mit zwei dieser Fiji-GPUs präsentieren. Dass AMD ein solches Grafikmonster in Planung hat, dass hatte CEO Dr. Lisa Su fest versprochen. Laut der Webseite Wccftech.com soll die Karte als Radeon R9 Fury X2 unter dem Codenamen Gemini noch in diesem Jahr auf den Markt kommen – voraussichtlich gegen Ende des Monats oder Anfang Dezember. Gerüchte hierzu gab es schon Anfang Oktober.

Die Spezifikationen sollen bereits feststehen. Demnach soll die kommende Dual-GPU-Grafikkarte von AMD mit zwei vollwertigen Fiji-GPUs ausgerüstet sein, die allerdings bei den Taktraten im Vergleich zum aktuellen Topmodell leicht darunter angesiedelt und auf dem Niveau der kleinen Nano-Grafikkarte liegen sollen. Damit sollen der AMD Radeon R9 Fury X2 pro Grafikchip insgesamt 4.096 Streamprozessoren, 256 Textureinheiten und 64 Rasterendstufen bereitstehen. Beim Speicherausbau soll es pro Grafikprozessor jeweils 4 GB HBM geben, welchen man über ein 4.096 Bit breites Interface anschließt und mit 500 MHz arbeiten lässt. Der Grafikprozessor der beiden GPUs soll sich hingegen mit bis zu 1.000 MHz ans Werk machen.

Die AMD Radeon R9 Fury X2 im Vergleich
Modell AMD Radeon R9 Nano AMD Radeon R9 Fury AMD Radeon R9 Fury X AMD Radeon R9 Fury X2
Preis ab 648 Euro ab 545 Euro ab 649 Euro unbekannt
Homepage www.amd.de www.amd.de www.amd.de www.amd.de
Technische Daten
GPU Fiji XT Fiji PRO Fiji XT Gemini
Fertigung 28 nm 28 nm 28 nm 28 nm
Transistoren 8,9 Milliarden 8,9 Milliarden 8,9 Milliarden 2x 8,9 Milliarden
GPU-Takt (Base Clock) - - - -
GPU-Takt (Boost Clock) 1.000 MHz 1.000 MHz 1.050 MHz 2x 1.000 MHz
Speichertakt 500 MHz 500 MHz 500 MHz 2x 500 MHz
Speichertyp HBM HBM HBM HBM
Speichergröße 4 GB 4 GB 4 GB 2x 4 GB
Speicherinterface 4.096 Bit 4.096 Bit 4.096 Bit 2x 4.096 bit
Speicherbandbreite 512,0 GB/s 512,0 GB/s 512,0 GB/s 2x 512,0 GB/s
DirectX-Version 12 12 12 12
Shadereinheiten 4.096 3.584 4.096 2x 4.096
Textureinheiten 256 224 256 2x 256
ROPs 64 64 64 2x 64
Typische Boardpower 175 Watt 275 275 Watt unbekannt

Damit soll die Dual-GPU-Version einen Leistungssprung von bis zu 80 % gegenüber einer einzelnen Radeon R9 Fury X erreichen und ein ruckelfreies Spielvergnügen bei allen Details in 4K möglich machen. Zudem sollen einige Optimierungen an der CrossFire-Technologie dafür sorgen, dass weniger Mikroruckler auftreten. Der Unterschied zwischen den Minimum- und Average-FPS soll deutlich geringer ausfallen. Wohl ein Grund, weshalb die kommende Doppel-Herz-Grafikkarte von AMD nicht mit einem 32-Bit-Betriebssystem zusammenarbeiten soll.

Ob die Radeon R9 Fury X2 tatsächlich unter diesem Namen an den Start gehen oder vielleicht doch als Radeon Gemini, bleibt abzuwarten – genau wie angepeilte Leistungsaufnahme und der Preis. Noch in diesem Jahr aber sollen alle Details gelüftet werden.

Social Links

Kommentare (28)

#19
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Vizeadmiral
Beiträge: 6898
@fdsonne
Bei der S.T.A.L.K.E.R. Reihe ist es mir zu letzt aufgefallen, aber auch nur beim Benchmark mit externem Tool. ;)

Zitat Pickebuh;24016929
Keine Angst. Ich werde mal ganz kurz und schnell Antworten.
AMD hat das Speichermanagement verbessert. Punkt. Dadurch sind jetzt die 4 GB mehr wert als beim damaligen Release der Fury X.Punkt.
Du brauchst dir daher nicht diese langen Texte mit Abzweigungen,Einbahnstraßen und Sackgassen antun. ;)

Danke für die Zusammenfassung! ;)

Zitat RoBBe07;24017246
Wenn der Speicher jetzt mehr Wert hat, wird es dann auch teurer für den Endkunden?:bigok:

Ja, aber AMD kompensiert das nun mit 8GByte GDDR5, also doppelt soviel. :fresse:
#20
customavatars/avatar104207_1.gif
Registriert seit: 12.12.2008
Wien
Kapitänleutnant
Beiträge: 1806
Zitat Pickebuh;24016929
AMD hat das Speichermanagement verbessert. Punkt. Dadurch sind jetzt die 4 GB mehr wert als beim damaligen Release der Fury X.Punkt.

Nope, denn die Fury X bekam das bereits mit dem Release-Treiber, also hat sich für Fury X nichts verändert seit dem Release :hmm:
#21
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Vizeadmiral
Beiträge: 6898
Was mir erst jetzt auffällt, die Fury X² mit 2x 4GByte wir erstmals die SpeicherBandBreite von 1 T(erra)Byte erreichen.
Das ist schon sehr viel und bedarf etwas "Anpassung" bei der Programmierung. ;)
#22
Registriert seit: 18.05.2007

Admiral
Beiträge: 9704
Die Speicherbrandbreite bedarf garkeine Anpassung in der Programmierung. Seit wann programmiere ich angepasst auf die Speicherbandbreite? O.o

Im großen und ganzen bringt dir die Speicherbandbreite gar nichts, denn im Worstcase kommen die Daten von der HDD/SSD oder dem Ram, und da sind wir meilenweit weg von 1TB/s. ^^
#23
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Kapitän zur See
Beiträge: 3074
Zitat fideliovienna;24017618
Nope, denn die Fury X bekam das bereits mit dem Release-Treiber, also hat sich für Fury X nichts verändert seit dem Release :hmm:


Und so ein Release-Treiber wird ja auch bekanntlich nie verbessert. Vor allem nicht bei einer neuen Speichertechnologie...
Ich glaube doch, das man da noch eine ganze menge verbessern kann. ;)

Zitat Phantomias88;24017810
Was mir erst jetzt auffällt, die Fury X² mit 2x 4GByte wir erstmals die SpeicherBandBreite von 1 T(erra)Byte erreichen.


Stimmt leider nicht.
Es ist wie mit allen anderen Dual-Karten. Der Speicher und dessen Bandbreite werden nur auf dem Rechnungs-Papier verdoppelt. Aber da jeder Speicher nur für die jeweilige einzelne GPU zur Verfügung steht, wird eben nicht 1x1000 Mhz sondern 2x500MHz daraus. Sowie eben nicht 1x8 GB sondern 2x4GB.

Es sei den, AMD nutzt DX12 mit einem neuen Rendering (SFR statt AFR) Verfahren. Aber ob es schon so schnell und gut zum Einsatz kommt ist noch sehr unwahrscheinlich. Aber wer weiß, was der neue Crimson-Treiber so im Petto hat...
#24
Registriert seit: 13.12.2009

Gefreiter
Beiträge: 63
Hoffe nur das der VRAM bei der auch verdoppelt wird, genau wie mit allen anderen Crossfiregespannen.
#25
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Vizeadmiral
Beiträge: 6898
@Pickebuh
Das SFR (dx11) von früher hat die auch Daten doppelt im VRAM abgelegt, erst mit explizit multiadapter (DX12) wird ein gemeinsamer Speicher Pool genutzt.
OC3D :: Article :: AMD Explains DX12 Multi GPU Benefits :: AMD Explains DX12 Multi GPU Abilities
#26
customavatars/avatar178395_1.gif
Registriert seit: 13.08.2012
Gütersloh
Hauptgefreiter
Beiträge: 159
Dann ist auch endlich die Zeit des dämlichen Marketings mit der vollen Speicherbelegung vorbei :D
#27
Registriert seit: 18.05.2007

Admiral
Beiträge: 9704
@asus88
Das mit dem doppelten Speicher wird nichts werden. Das wird erst mit HBM2 möglich, und der steht so viel bekannt ist, noch nicht zur Verfügung.
#28
Registriert seit: 05.01.2015

Obergefreiter
Beiträge: 64
verlesen
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test

    Logo von IMAGES/STORIES/2017/ZOTAC-RTX1080TI

    Nach der Veröffentlichung und den ausführlichen Tests zur GeForce RTX 2080 Ti und GeForce RTX 2080 Founders Edition kommen wir nun zum ersten Test eines Custom-Modells. ZOTAC konnte uns die Gaming GeForce RTX 2080 Ti AMP bereits zum Start der neuen Generation zur Verfügung stellen, ein... [mehr]