> > > > Kurz vor dem Start: Pressefolien und neue Bilder zur Radeon Pro Duo

Kurz vor dem Start: Pressefolien und neue Bilder zur Radeon Pro Duo

DruckenE-Mail
Erstellt am: von

amd radeon pro duo logoWenn man der aktuellen Gerüchtelage Glauben schenken mag, dann soll AMD bereits morgen seine neue Radeon Pro Duo offiziell vorstellen. Nachdem vor wenigen Tagen eine spanische Webseite die vermeintlich finalen Eckdaten der kommenden Doppelherz-Grafikkarte veröffentlichte, scheinen sich die Angaben nun zu bestätigen. Im Internet sind nun auch angebliche Presse-Folien aufgetaucht, die die Spezifikationen der bisher vermuteten Leistungsdaten bestätigen.

Demnach wird die AMD Radeon Pro Duo auf zwei vollwertigen Fiji-XT-Chips zurückgreifen können, womit jedem der beiden Grafikprozessoren die vollen 4.096 Streamprozessoren, 256 Textureinheiten und 64 Rasterendstufen zur Verfügung stehen würden. Bei den Taktraten orientiert man sich allerdings nicht an der Radeon R9 Fury X, dem bislang schnellsten Ableger mit Fiji-GPU, sondern an der Radeon R9 Nano. Bei ihr beließ man die Zahl der Recheneinheiten auf dem Niveau der Radeon Fury X, senkte jedoch die Taktraten leicht ab, um innerhalb der gewünschten TDP zu bleiben und das Kühlsystem der gerade einmal 152 mm kurzen Grafikkarte nicht zu überlasten. Auch die beiden GPUs der Radeon Pro Duo sollen mit einem Chip- und Speichertakt von 1.000 respektive 500 MHz arbeiten. Vermutlich dürfte der Maximal-Takt allerdings nicht durchgehend anliegen und sich in der Praxis wie schon bei der kleinen Nano-Grafikkarte irgendwo bei etwa 850 MHz einpendeln. Beim Speicher wird man weiterhin auf schnellen HBM setzen, welcher pro Grafikchip über ein 4.096 Bit breites Interface angebunden wird und somit eine Bandbreite von satten 512 GB/s erreicht. Insgesamt sollen 8 GB Videospeicher zur Verfügung stehen.

Die typische Boardpower der AMD Radeon Pro Duo wird in den Folien auf 350 W beziffert. Zum Vergleich: Eine einzelne Radeon Fury X bringt es hier auf 275 W, was unsere oben angedeuteten Vermutungen im Hinblick auf den Realtakt bestätigen würde. Mit Strom versorgt soll die neue Doppelkern-Grafikkarte über drei 8-Pin-PCI-Express-Stromstecker. Zusammen mit den 75 W, die über das PCIe-3.0-Interface bereitgestellt werden, könnte der 3D-Beschleuniger so theoretisch bis zu 525 W aus dem Netzteil ziehen – es besteht also noch gut Luft nach oben. Gekühlt wird das Rechenmonster, welches es auf eine Compute-Performance von 16,38 TFLOPS bringt, von einer All-In-One-Wasserkühlung. Wie schon beim aktuellen Topmodell der US-Amerikaner wird es aber weiterhin bei einem 120-mm-Radiator bleiben.

Insgesamt soll die AMD Radeon Pro Duo eine GeForce GTX Titan X um etwa 50 % überflügeln, während eine AMD Radeon R9 295X2 um etwa 30 % geschlagen werden soll. Erste Hersteller-Benchmarks attestieren der neuen Dual-GPU-Karte in Grand Theft Auto 5 über 85 FPS, während es die Titan X auf etwa 65 FPS bringen soll. Gleiches gilt für Battlefield 4. Etwas geringer soll der Vorsprung in Assassins Creed: Syndicate, Ashes of the Singularity und Far Cry Primal ausfallen.

Die AMD Radeon Duo Pro im Vergleich
Modell NVIDIA GeForce GTX 980 Ti AMD Radeon R9 Fury X AMD Radeon Pro Duo
Preis ab 640 Euro ab 640 Euro 1.696 Euro
Homepage www.nvidia.de www.amd.de www.amd.de
Technische Daten
GPU G200 Fiji XT 2x Fiji
Fertigung 28 nm 28 nm 28 nm
Transistoren 8 Milliarden 8,9 Milliarden 2x 8,9 Milliarden
GPU-Takt (Base Clock) 1.000 MHz - -
GPU-Takt (Boost Clock) 1.075 MHz 1.050 MHz 1.000 MHz
Speichertakt 1.750 MHz 500 MHz 500 MHz
Speichertyp GDDR5 HBM HBM
Speichergröße 6 GB 4 GB 2x 4 GB
Speicherinterface 384 Bit 4.096 Bit 2x 4.096 bit
Speicherbandbreite 336,6 GB/s 512,0 GB/s 2x 512,0 GB/s
DirectX-Version 12 12 12
Shadereinheiten 2.816 4.096 2x 4.096
Textureinheiten 176 256 2x 256
ROPs 96 64 2x 64
Typische Boardpower 175 W 275 W 375 W

Erste Fotos einer XFX Radeon Pro Duo

Dass es tatsächlich demnächst offiziell losgehen könnte, zeigen erste Fotos eines Boardpartner-Modells aus Asien, welche ebenfalls seit wenigen Stunden ihre Runden durch das Internet drehen. Sie offenbaren zwar keine weiteren Details, zeigen jedoch, dass es zumindest zum Start keine eigenen Kühllösungen geben dürfte. Ob es die aber jemals geben wird, bleib abzuwarten, denn schon bei der Radeon Fury X und Radeon R9 Nano gibt es keine Modelle abseits der Refernz. Einzig die kleinere Radeon R9 Fury wird auch mit anderen Kühllösungen angeboten. Den Herstellern bleibt also nichts anderes übrig, als einen eigenen Aufkleber auf den Lüfter des mitgelieferten Radiators zu kleben, um sich optisch absetzen zu können.

expreview xfx pro duo 03 k
Erstes Boardpartner-Modell der Radeon Pro Duo

Direkt auf den Grafikprozessoren wird eine dicke Kupferplatte aufliegen, die die Abwärme sehr schnell an die Kühlflüssigkeit des darauf liegenden Wasserkühlers abgeben wird. Die Speicherchips, aber auch die hitzigen Spannungswandler werden zwar ebenfalls vom Dual-Slot-Kühler abgedeckt, jedoch nicht aktiv gekühlt. Zwischen den beiden Grafikprozessoren gibt es einen PLX8747-Brückenchip, welcher für die Kommunikation zwischen den beiden GPUs verantwortlich ist. Jeder Grafikchip wird über fünf Phasen mit Strom versorgt.

In die Läden kommen soll die AMD Radeon Pro Duo bereits am morgigen Dienstag. Dann sollen 1.499 US-Dollar fällig werden – diesen Preis hatte AMD offiziell kommuniziert. Ein Preis für den deutschen Markt steht unterdies noch aus – Gerüchten zufolge sollen hierzulande 1.696 Euro fällig werden.

Social Links

Kommentare (31)

#22
Registriert seit: 01.01.1970


Beiträge:
Ich würde zwei Einzelkarten immer einer Dual-Variante vorziehen, alleine wegen der Wärmeentwicklung. Dann noch der Preis, selbst wenn er auf 1200 fällt nach dem Release ist das immer noch heftig. Mit den zwei Nanos ist man da besser beraten.

Als Workstationkarte ist es nochmal eine andere Sache, da ist der Preis mehr als attraktiv, aber dieses Ding wird scheinbar für Gamer angeworben.
#23
customavatars/avatar97341_1.gif
Registriert seit: 23.08.2008
Bitz
Anime und Hardware Otaku
Beiträge: 10926
@Pickebuh:

- Bei der R9-295X2 ist der Radi nicht "ausreichend" bemessen, sondern "grenzwertig"
--> Die Lüfter Schreien, die Brühe kocht und vom OC brauche ich garnicht sprechen.

- Dual-GPU vs 2x Single-GPU
--> Nachtteil: wie BrahmandYaatra schon schrieb die Wärmeentwicklung.
--> Ich hab doppelte "Hitze" auf einer Karte. Es ist aufwendiger diese zu bendigen.

--> Nachteil: die bisherigen Brückenchips haben nicht optimal gearbeitet.
--> Microrückler und leicht geringere "Leistung" gegenüber 2x Single-GPU

--> Nachteil: Dual-GPUs lassen sich schlechter ocen als 2x Single-GPUs


@Minutourus: das will haben Gefühl verschwindet, wenn man fast alle
High-End Modelle mal in den Händen hatte.


Ich hab, nach und nach, meine eigenen Tests gemacht. Teilweise "unsinnige"
Konfigs ausprobiert wie: 1x HD6870X2 + 1x HD6870 im CF. SLI mit TITANEN
(bis auf die X). Seit HD4xxx / GTX 4xx Serie. Wenn es sich vermeiden lässt,
lasst die Finger von CF / SLI. Bring auch bei aktueller Gen. mehr Nachteile
als Vorteile und die Skalierung ist teilweise ein schlechter Witz.

DX12 ist, für mich, kein Argument für die nexten 2 Jahre. Die Ernüchterung
kommt Q3/Q4 2016. Maxwell habe ich nur "probiert" Polaris / Pascal werde
ich nur beobachten und erst wenn die Preise auf etwas die Hälfte des ehm.
NPs gefallen sind diese kaufen / testen. Erst die Nachfolgende Gen.
(kein Rebrand / Shrink) wird wirklich interessant sein.
#24
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8676
Ich find die Karte echt Klasse bis auf den Speicherausbau.
Wen das stimmt das Polaris 10 mit 232mm2 im firestrike Ultra 4000Punkte erreicht (FuryX 980Ti Nieveu)und wie AMD selbst angedeutet hat bezahlbar wird 329-Dollar ca.400 Euro im Raum stehen das ganze Garniert mit 8GB GDDR5(X) und dann im CF.
Genauso wie NVs 1070 und 1080 anliegen muss man echt mutig sein sich für solch eine teure Duo zu entscheiden die so am Speicher spart.
#25
Registriert seit: 01.01.1970


Beiträge:
Wie ich schon woanders schrieb, werden die 4 GB-Karten bald am Speicher aushungern. Die neue Generation hat davon mehr als genug, dementsprechend werden Entwickler ihn auch nutzen. 2 GB-Karten gelten heute schon als veraltet. Titan-X-Leistung für 350 €, das wäre traumhaft, dann kann ich nur erahnen was nächstes Jahr wohl mit den Dickchips auf uns zukommt...
#26
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8676
Jap seh das auch nicht anders.
Der Zugang zu 8GB Karten steigt im Sommer masiv an die Spiele Entwickler werden das auch nutzen.
#27
customavatars/avatar157503_1.gif
Registriert seit: 23.06.2011

Kapitänleutnant
Beiträge: 1851
Zitat DragonTear;24524093
Aus welcher Hinsicht?


Bei Sli liegt nicht die ganze Wärme von 2 GPU auf einem PCB, was höhere Taktraten erlaubt. Da zu kommt das man Karten mit mehr Ram nehmen kann. ETC pp .Müsste man bei so vielen Posts auch mal Wissen. mfg
#28
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31959
Zitat BrahmandYaatra;24524648
Als Workstationkarte ist es nochmal eine andere Sache, da ist der Preis mehr als attraktiv, aber dieses Ding wird scheinbar für Gamer angeworben.


Selbst da passt das nicht. Das Ding hat kein ECC, das Ding hat keinen Support, das Ding bekommt keine zertifizierten Treiber, es ist ein propritärer Formfaktor mit der AIO Wakü usw.
DP aka FP64 Performance hat das Teil auch nicht, FP16 läuft ebenso nur mit FP32 Leistung und die Speichermenge zählt in der Workstationklasse je nach Workload noch eklatanter als im Gamerumfeld.

Das Ding ist reine Machbarkeit, "Abfall" des Profiablegers, der selbst nur für sehr sehr spezielle Einsatzzwecke gebaut wurde. Genau für diese speziellen Zwecke taugt das Ding. Man sollte sich halt nur nicht der Illusion hingeben, dass ein Produkt, was es am Markt gibt, auch für alle Zwecke taugt... Vor allem nicht bei solchen Randerscheinungen ;)


Ich find das Ding trotzdem ziemlich gut. Mal gucken, vllt steck ich mir eine als Renderbackend mit in die Workstation... Und zum Zocken dann ne Polaris/GP104 nebendran.
#29
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9489
Zitat coldheart;24525151
Bei Sli liegt nicht die ganze Wärme von 2 GPU auf einem PCB, was höhere Taktraten erlaubt. Da zu kommt das man Karten mit mehr Ram nehmen kann. ETC pp .Müsste man bei so vielen Posts auch mal Wissen. mfg

Habe nicht bestritten dass es Nachteile gibt, aber ich hab ja nicht umsonst nach der Hinsicht gefragt.
Es gibt schließlich auch Vorteile wie Größe (bzw. Anzahl verwendeter Slots) und der PLX Chip onboard.
Zu sagen normales CF läuft "IMMER besser" ist etwas übertrieben.
#30
Registriert seit: 01.01.1970


Beiträge:
Zitat fdsonne;24525436
Selbst da passt das nicht. Das Ding hat kein ECC, das Ding hat keinen Support, das Ding bekommt keine zertifizierten Treiber, es ist ein propritärer Formfaktor mit der AIO Wakü usw.
DP aka FP64 Performance hat das Teil auch nicht, FP16 läuft ebenso nur mit FP32 Leistung und die Speichermenge zählt in der Workstationklasse je nach Workload noch eklatanter als im Gamerumfeld.

Das Ding ist reine Machbarkeit, "Abfall" des Profiablegers, der selbst nur für sehr sehr spezielle Einsatzzwecke gebaut wurde. Genau für diese speziellen Zwecke taugt das Ding. Man sollte sich halt nur nicht der Illusion hingeben, dass ein Produkt, was es am Markt gibt, auch für alle Zwecke taugt... Vor allem nicht bei solchen Randerscheinungen ;)


Ich find das Ding trotzdem ziemlich gut. Mal gucken, vllt steck ich mir eine als Renderbackend mit in die Workstation... Und zum Zocken dann ne Polaris/GP104 nebendran.


Das kommt auf die exakte Anwendung an. Wenn man kein ECC und Treiber braucht könnte es sich für manche dennoch lohnen, wenn man bedenkt was Workstationkarten sonst so kosten.

Machbarkeit ist es in der Tat, vielleicht haben sie zu viele Fiji-Chips, die werden nach Release der neuen Karten rapide an Wert verlieren. Wer nimmt eine stromfressende Fury wenn er eine doppelt so starke Karte mit mehr Speicher bekommt...
#31
customavatars/avatar149213_1.gif
Registriert seit: 26.01.2011
Siegen
Gefreiter
Beiträge: 38
Dass die Dual-Karte wassergekühlt ist, ist ansich eine gute Idee, aber mit nur einem dünnen 120er Radi? Dann schon eher mit einem 240er mit mal min. 45mm. Und dann kann man den nichtmal tauschen, weil es ja ein geschlossenes System ist..
Dann kommt noch hinzu, dass AMD die ProDuo ja noch gar nicht im Griff hat, denn selbst it dem jetzt aktuellsten Crimson Treiber besteht weiterhin ein AMD bekanntes Problem, was sie auch explizit angeben, nämlich:
AMD Radeon Pro Duo users may experience a system crash or hang after resuming from sleep or hibernate.
Also zu Deutsch:
AMD Radeon Pro Duo Nutzer könnten möglicherweise erleben, dass ihr System sich aufhängt oder abstürzt, wenn das System aus dem Sleep- oder Energiespar-Modus aufwacht.

Solche Probleme sollten bei einer Grafikkarte dieser Preisklasse gar nicht erst auftreten.

Also mal zusammengefasst:
- Die Karte will 350W vom Netzteil, verteilt auf drei 8-Pin PCIe-Buchsen.
- Die Kühlung ist eindeutig unterdimensioniert, Änderungen zecks Optimierung sind weder vorgesehen, noch möglich.
- Die einzelnen Fury-GPUs wurden wegen Temperaturproblemen schon ab Werk runtergetaktet.
- Es liegen pro GPU nur jeweils 4GB Ram an, mehr ist auch nicht machbar.
- Das betreffende System kann reproduzierbar abstürzen, wenn man Gebrauch von Sleep- oder Energiesparmodi unter Windows macht.

Und das alles bekommt man dann für deutlich über 1500€ ?!
Wenn man denn dann Crossfire nutzen möchte, dann doch lieber mit 2 Fury(X) , deutlich weniger Probleme, bessere Performance, bessere Kühlung und dazu noch günstiger...
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]