> > > > Sapphire Radeon R9 Fury Tri-X bestätigt bisherige technische Daten

Sapphire Radeon R9 Fury Tri-X bestätigt bisherige technische Daten

DruckenE-Mail
Erstellt am: von

sapphireEinmal mehr erweist sich Videocardz als Quelle bisher unbekannter Informationen im Rahmen neuer Grafikkarten. Die Informationen beinhalten neben Fotos der Karte auch die technischen Daten zweier Modelle. Bei diesen handelt es sich jeweils um eine Sapphire Radeon R9 Fury Tri-X, einmal übertaktet und einmal offenbar mit Standard-Takt, wie ihn AMD auch für dieses Modell vorsieht.

Die Sapphire Radeon R9 Fury Tri-X basiert ebenfalls auf der "Fiji"-GPU, verwendet allerdings nur 56 Compute Units. Damit kommt die Karte auf 3.584 Shader- und 224 Textureinheiten. Der GPU-Takt soll bei diesem Modell bei 1.000 MHz liegen. Sapphire plant aber offenbar auch ein Modell namens Sapphire Radeon R9 Fury Tri-X OC, welche auf 1.040 MHz übertaktet ist. Durch die Verwendung der "Fiji"-GPU kommt auch der 4 GB große High Bandwidth Memory zum Einsatz, der auch hier mit 500 MHz arbeiten soll. Das 4.096 Bit breite Speicherinterface sorgt demzufolge für eine Speicherbandbreite von bis zu 512 GB pro Sekunde. Damit einher gehen auch die 64 ROPs der GPU. Sapphire setzt zwei BIOS-Chips ein, die unterschiedliche Power-Settings ermöglichen sollen. Sehen wir hier dann doch noch den "Overclockers Dream"?

Sapphire Radeon R9 Fury Tri-X
Sapphire Radeon R9 Fury Tri-X

Die Fotos der Karten von Sapphire zeigen, dass AMD auch bei der Radeon R9 Fury offenbar auf das kompakte PCB setzen kann, was aber auch keine größere Überraschung ist. Sapphire verbaut darauf den Tri-X-Kühler, der in etwa ein Drittel an Länge hinzufügt und drei Lüfter mit einem Durchmesser von jeweils 90 mm verwendet. In den überstehenden Bereich des Kühlkörpers leitet Sapphire die Abwärme von GPU und Speicher mittels mehrerer Heatpipes ab. Sapphire verbaut eine Backplate auf der Rückseite des PCBs. Die Strom- und Spannungsversorgung erfolgt über zwei 8-Pin-Anschlüsse und auch die LEDs der GPU-Tach-Anzeige sind wieder mit von der Partie. Auf Seiten der Display-Anschlüsse erwarten uns offenbar ebenfalls keine Überraschungen: 1x HDMI 1.4a und 3x DisplayPort 1.2.

Sapphire Radeon R9 Fury Tri-X
Sapphire Radeon R9 Fury Tri-X

Die AMD Radeon R9 Fury wird laut AMD am 14. Juli offiziell vorgestellt. Die Boardpartner haben dabei die Möglichkeit, eine eigene Kühllösung zu verbauen, während das PCB der Karte identisch zu sein scheint (PCB-Nummer C880). Mit der Karte möchte AMD die Lücke zwischen der Radeon R9 390X (Hardwareluxx-Artikel) und Radeon R9 Fury X (Hardwareluxx-Artikel) schließen. Auch bei der Konkurrenz aus dem Hause NVIDIA gibt es keinen direkten Gegenspieler, denn hier soll die Karte zwischen der GeForce GTX 980 (Hardwareluxx-Artikel) und GeForce GTX 980 Ti (Hardwareluxx-Artikel) positioniert werden. Eine offizielle Preisanagbe gibt es aktuell noch nicht.

Die Radeon-R9-Fury-Modellserie im Vergleich
Modell AMD Radeon R9 390X AMD Radeon R9 Fury AMD Radeon R9 Fury X
Straßenpreis - - -
Homepage www.amd.de www.amd.de www.amd.de
Technische Daten
GPU Grenada XT Fiji PRO Fiji XT
Fertigung 28 nm 28 nm 28 nm
Transistoren 6,2 Milliarden 8,9 Milliarden 8,9 Milliarden
GPU-Takt (Base Clock) - - -
GPU-Takt (Boost Clock) 1.050 MHz 1.000 MHz 1.050 MHz
Speichertakt 1.500 MHz 500 MHz 500 MHz
Speichertyp GDDR5 HBM HBM
Speichergröße 8 GB 4 GB 4 GB
Speicherinterface 512 Bit 4.096 Bit 4.096 Bit
Speicherbandbreite 384,0 GB/s 512,0 GB/s 512,0 GB/s
DirectX-Version 12 12 12
Shadereinheiten 2.816 3.584 4.096
Textureinheiten 176 224 256
ROPs 64 64 64
Typische Boardpower 275 Watt - 275 Watt
SLI/CrossFire CrossFire CrossFire CrossFire

Social Links

Kommentare (81)

#72
customavatars/avatar104207_1.gif
Registriert seit: 12.12.2008
Wien
Leutnant zur See
Beiträge: 1197
Zitat fdsonne;23657021

- Das es Platz spart? -> dem ist nicht so, wie ich oben erwähnte wäre eine andere Aufteilung mit DVI-D (oder -I) * 3x mini DP auch auf einem Slot drin gewesen

Es spart aber Platz am PCB, wenn Du Dir ansiehst wie weit das DVI-Anschlussfeld ins PCB hineinragt (z.B bei der 980 Ti) und Dir dann ein Layout von Fury X ansieht, wirst Du bemerken dass bei Fury dort schon andere Chips sitzen.
AMD wollte anscheinend ein ultrakurzes PCB bauen und hat deshalb auf DVI verzichtet.
Genauso wie sie auf HDMI 2.0 verzichtet haben, weil sie nicht mehr genügend Zeit hatten einen anderen HDMI-Chip zu verbauen. (in meinen Augen noch schräger, vor allem die Begründung ;))

Die beiden Details waren sicher so im Lastenheft von Fury drinnen und definitiv so gewollt. Jetzt wird damit halt eine bestimmte Käuferschicht nicht glücklich, "Deal with it" :)
Wer unbedingt DVI braucht und keinen passiven Adapter verwenden kann und auch keinen aktiven bezahlen möchte, für den ist Fury X halt nicht die richtige Karte.
#73
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31954
Zitat fideliovienna;23657110
Wer unbedingt DVI braucht und keinen passiven Adapter verwenden kann und auch keinen aktiven bezahlen möchte, für den ist Fury X halt nicht die richtige Karte.


Ja, das ist dann wohl so. Schade muss man sagen... Das Teil hat potential. Aber AMD hat es trotz sehr guten Vorraussetzungen leider wieder mal geschafft, auch negativ massiv zu punkten... Warum nur schaffen die das immer wieder?
#74
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4149
Zitat fdsonne;23657021
HDMI selbst hat zwar genügend Leistung um das eigentlich zu können, aber es sind keine derartigen Sachen im Standard spezfiziert, weswegen es zu 99% nicht laufen wird, weil die Port Transmitter es teils nicht zulassen und/oder die Software/Firmware einfach die Settings nicht frisst...


Dual-Link DVI = [email protected] | HDMI 1.4a = [email protected]

HDMI 1.4a hat zwar genügend Bandbreite, arbeitet aber mit 3 statt 6 TMDS-Datenverbindungen bei gleichzeitig höherer maximal Frequenz als Dual-Link DVI. Das ist dann auch der Grund warum HDMI 1.4a zu Dual-Link DVI nicht ohne aktiven Adapter funktioniert. Man muss das TMDS-Signal aktiv wieder in [email protected] umwandeln um daraus eine Dual-Link DVI Verbindung zu machen.
#75
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31954
Rein von den Zahlen her müsste es demnach ja gehen. Das Problem ist eher (und das wissen einfach viele überhaupt nicht), dass die HDMI Spezifikationen wohl gerade mal 480p und Zweikanal Audio vorschreiben ;) Selbst 2.0 macht da nicht mehr...
Weswegen mit dem "Standard" auch viel schindluder getrieben wird... Nur weil HDMI 1.4(a) als Logo drauf klebt, heist das lange nicht, dass da auch zwingend 340-360MHz funktionieren müssen... Was eben auch ein Grund ist, warum fast kein Gerät mit veraltetem HDMI 1.4a Standard [email protected] oder auch FHD 3D überträgt. -> weil es einfach nicht zwingend gehen muss! Selbst bei 2.0 muss es das nicht...

Nachzulesen bspw. hier:
Verwirrung um HDMI 2.0 | heise online
"Dabei hat die HDMI-Organisation am Freitag in Berlin deutlich gemacht, dass die Spezifikation letztlich nur ein absolutes Minimum zwingend vorschreibt – nämlich 480p und zwei Audiokanäle –, alle anderen in der Spezifikation genannten Merkmale sind dagegen optional. Das galt allerdings auch schon für alle bisherigen HDMI-Versionen."
#76
Registriert seit: 22.11.2006
Giessen
Oberbootsmann
Beiträge: 962
Zitat Cippoli;23657282
Dual-Link DVI = [email protected] | HDMI 1.4a = [email protected]

HDMI 1.4a hat zwar genügend Bandbreite, arbeitet aber mit 3 statt 6 TMDS-Datenverbindungen bei gleichzeitig höherer maximal Frequenz als Dual-Link DVI. Das ist dann auch der Grund warum HDMI 1.4a zu Dual-Link DVI nicht ohne aktiven Adapter funktioniert. Man muss das TMDS-Signal aktiv wieder in [email protected] umwandeln um daraus eine Dual-Link DVI Verbindung zu machen.
Danke, das beantwortet meine Frage von zwei Seiten früher warum ein passiver Adapter versagt. Ich ging bisher davon aus das HDMI und DVI elektrisch identisch wären wegen der Existenz passiver Adapter.
#77
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4149
Zitat fdsonne;23657365
Weswegen mit dem "Standard" auch viel schindluder getrieben wird... Nur weil HDMI 1.4(a) als Logo drauf klebt, heist das lange nicht, dass da auch zwingend 340-360MHz funktionieren müssen... Was eben auch ein Grund ist, warum fast kein Gerät mit veraltetem HDMI 1.4a Standard [email protected] oder auch FHD 3D überträgt. -> weil es einfach nicht zwingend gehen muss! Selbst bei 2.0 muss es das nicht..."


Naja, bei einer Grafikkarte als Ausgabegerät hat man aber sehr gute Chancen, denn da hängt es wohl vom Treiber ab was übertragen werden kann, wäre sogar per Update nachrüstbar. Bin mir sogar ziemlich sicher, dass AMD und nVidia hier im Control Center benutzerdefinierte Auflösungen ermöglichen, die so nicht üblich sind oder einen bestimmten Standard entsprechen. Wenn aber z.B. HDMI 1.4a, meinetwegen auch HDMI 2.0 in Hardware implementiert wurde, kann man sich innerhalb der vorgegeben Bandbreite mit Frequenzen und Auflösungen im Prinzip austoben wie man will, man muss halt nur die Möglichkeit bekommen an den Knöppen zu drehen. Am PC sollte das wie gesagt im Treibermenü bereits möglich sein.

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat Schwarzie;23657479
Danke, das beantwortet meine Frage von zwei Seiten früher warum ein passiver Adapter versagt. Ich ging bisher davon aus das HDMI und DVI elektrisch identisch wären wegen der Existenz passiver Adapter.


Elektrisch verwenden beide auch die gleiche TMDS-Datenverbindung, aber wie man sieht in unterschiedlicher Art und Weise. Mit einen passiven Adapter ist nur eine Single-Link DVI Verbindung ([email protected]) möglich.
#78
customavatars/avatar136398_1.gif
Registriert seit: 22.06.2010

Kapitänleutnant
Beiträge: 1642
Laut Guru3D werden Gigabyte und MSI keine Fury anbieten:
ASUS STRIX Radeon R9 Fury Surfaces
#79
customavatars/avatar192909_1.gif
Registriert seit: 04.06.2013
Hamburg
Bootsmann
Beiträge: 523
Die ASUS STRIX Radeon R9 Fury hat einen DVI-D Anschluss, sehr schön.
Anscheinend finden nicht alle Hersteller das DVI-D veraltet und überflüssig ist. Ich hoffe das irgendein Hersteller dann auch die Nano damit ausrüstet.
#80
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31954
Zitat Cippoli;23657500
Naja, bei einer Grafikkarte als Ausgabegerät hat man aber sehr gute Chancen, denn da hängt es wohl vom Treiber ab was übertragen werden kann, wäre sogar per Update nachrüstbar. Bin mir sogar ziemlich sicher, dass AMD und nVidia hier im Control Center benutzerdefinierte Auflösungen ermöglichen, die so nicht üblich sind oder einen bestimmten Standard entsprechen. Wenn aber z.B. HDMI 1.4a, meinetwegen auch HDMI 2.0 in Hardware implementiert wurde, kann man sich innerhalb der vorgegeben Bandbreite mit Frequenzen und Auflösungen im Prinzip austoben wie man will, man muss halt nur die Möglichkeit bekommen an den Knöppen zu drehen. Am PC sollte das wie gesagt im Treibermenü bereits möglich sein.


Neja, kann... Muss aber nicht.
Es gibt nen Thread im PCGH Forum, wo jemand mit ner GTX 580 fragte. Die 580er hat wohl nen HDMI 1.4er Port. Aber die Port Transmitter können scheinbar nur bis 165MHz ausspucken. Da kommt dann halt entsprechend auch die Bandbreite nicht an ;) Und somit ist auch nix mit austoben.

Die Bandbreitenangaben bei HDMI scheinen mir an der Stelle eher ein "up to" Wert zu sein. Da eben kein zwingendes Muss für das Kleben des entsprechenden Logos auf die Verpackung ;) Könnte natürlich auch genau andersrum laufen. Sprich der Hersteller verbaut mehr, als das HDMI Logo eigentlich suggerieren will.

Leider liegt das Problem idR nicht an der Ausgabe der Geräte, sondern eher am Eingang des Monitors. Der beste Monitor nutzt nix, wenn der Eingang einfach restriktiv nur das zulässt, was der Hersteller vorsieht.
Es wäre technisch bspw. wohl auch möglich, 3d in FHD bei 60Hz über HDMI 1.4a zu jagen. Weil es quasi [email protected] wäre... Geht zu 99,999% aber bei keinem Ausgabegerät, weil der Eingang dort bei 720er [email protected]@60Hz dicht macht und die Port Transmitter es nicht verstehen.
Auf der GPU Seite kannst du ja mittlerweile teils sogar die Einheiten "übertakten" und so mehr Leistung aus der Spezifikation zu pressen... Solange das, was rauskommt im Rahmen des Eingangs vom Monitor liegt, wirds natürlich auch funktionieren... Liegt es drüber, verpufft der Vorteil allerdings.
#81
Registriert seit: 09.08.2006

Flottillenadmiral
Beiträge: 4149
Zitat fdsonne;23662248
Neja, kann... Muss aber nicht.
Es gibt nen Thread im PCGH Forum, wo jemand mit ner GTX 580 fragte. Die 580er hat wohl nen HDMI 1.4er Port. Aber die Port Transmitter können scheinbar nur bis 165MHz ausspucken. Da kommt dann halt entsprechend auch die Bandbreite nicht an ;) Und somit ist auch nix mit austoben.


Naja, man verständigt sich immer auf den größtmöglichen gemeinsamen Nenner. Entweder kann es eine GTX580 nicht, dann wäre es aber kein echter HDMI 1.4 Anschluss oder die Gegenseite (Monitor) ist nicht HDMI 1.4 kompatibel. Vielleicht auch ein qualitativ schlechtes Kabel, dazu vielleicht auch noch zu lang. Gerade Hochfrequenzkabel wie bei HDMI können da sehr empfindlich reagieren. Schwer zu sagen so aus der Ferne...

Zitat fdsonne;23662248
Die Bandbreitenangaben bei HDMI scheinen mir an der Stelle eher ein "up to" Wert zu sein. Da eben kein zwingendes Muss für das Kleben des entsprechenden Logos auf die Verpackung ;) Könnte natürlich auch genau andersrum laufen. Sprich der Hersteller verbaut mehr, als das HDMI Logo eigentlich suggerieren will.


Das da mit dem Logo Schindluder getrieben wird ist mir bekannt. Aus meiner Sicht ist ein HDMI 1.4a Anschluss, ganz egal ob nun auf der Eingangs,- oder Ausgangsseite, kein echter HDMI 1.4a Anschluss wenn er nicht bis zu 340MHz Bandbreite und somit eine effektive Datenrate von 8,16GBit/s schafft. Optionale Fähigkeiten sind dann eine Frage der Implementation des jeweiligen Herstellers.

Zitat fdsonne;23662248
Leider liegt das Problem idR nicht an der Ausgabe der Geräte, sondern eher am Eingang des Monitors. Der beste Monitor nutzt nix, wenn der Eingang einfach restriktiv nur das zulässt, was der Hersteller vorsieht.
Es wäre technisch bspw. wohl auch möglich, 3d in FHD bei 60Hz über HDMI 1.4a zu jagen. Weil es quasi [email protected] wäre... Geht zu 99,999% aber bei keinem Ausgabegerät, weil der Eingang dort bei 720er [email protected]@60Hz dicht macht und die Port Transmitter es nicht verstehen.
Auf der GPU Seite kannst du ja mittlerweile teils sogar die Einheiten "übertakten" und so mehr Leistung aus der Spezifikation zu pressen... Solange das, was rauskommt im Rahmen des Eingangs vom Monitor liegt, wirds natürlich auch funktionieren... Liegt es drüber, verpufft der Vorteil allerdings.


Das Problem liegt wohl auch darin begründet, dass HDMI eher für den Video,-/Heimkinobereich gedacht ist, weniger für den PC-Bereich. Man implementiert dann i.d.R nur das was in den meisten Fällen auch benötigt wird - leider, das ist dann aber eine reine Software/Firmware Thematik, denn technisch stünden wie du selbst sagst viele Möglichkeiten offen. 3D mit 60Hz bei 1080p wurde nicht in die HDMI 1.4a Spezifikation aufgenommen, weil es keinen üblichen Videostandard entspricht. Dieses Format trifft man eher im PC-Bereich an, wo man dann einen DisplayPort dafür verwenden würde.

[strike]Übrigens muss man bei HDMI 2.0 gerade deswegen auch etwas aufpassen, da die effektive Bandbreite von 14,4 GBit/s eigl. nicht für [email protected] ausreicht (3840h x 2160v x 32Bit x 60Hz=15925248000Bit/s (14,8GBit/s)), zumindest nicht ohne Farbunterabtastung oder mit dem im PC-Bereich üblichen RGBA-Farbbereich. Die Norm sieht hier lediglich 60Hz mit YCbCr 4:2:0 vor, obwohl einige Implementationen bekannter TV-Hersteller abseits der Spezifikation auch YCbCr 4:4:4 erlauben. Für uns PC-Gamer ist es daher wichtig darauf zu achten, dass beim TV-Kauf auch das gewünschte Format über HDMI 2.0 unterstützt wird.[/strike]

Korrektur: Über HDMI wird kein Alpha-Kanal übertragen, deshalb ist obige Rechnung falsch! Es werden nur 8Bit pro Farbe übertragen, also insgesamt 24Bit. Folglich lautet die richtige Rechnung 3840h x 2160v x 24Bit x 60Hz = 11943936000Bit/s (11,1GBit/s). Somit reicht die effektive Bandbreite natürlich auch für RGB-Signale mit 8Bit pro Farbe und YCbCr 4:4:4 aus (etwas Spielraum für den Ton und optionalen Kram wie Ethernet muss ja auch noch sein). Da HDMI 2.0 aber auch höhere Farbtiefen als 8Bit unterstützt, würde man hier bei [email protected] aber dennoch nicht ohne reduzierte Farbunterabtastung auskommen. Auf eine saubere Implementation von HDMI 2.0 sollte man aber dennoch achten, nicht alle 4K-TVs unterstützen den vollen RGB/YCbCr-Farbraum bei [email protected] auch wenn mit HDMI 2.0 geworben wird. Im Prinzip handelt es sich hier dann nur um HDMI 1.4(a), wo aber der volle HDMI 2.0 Umfang suggeriert wird. Aber da sieht man mal wie unübersichlich das Ganze ist und wieviel Schindluder mit den Logos und Angaben manchmal getrieben wird.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]