> > > > AMD Radeon Pro Duo wird deutlich günstiger - in den USA ab 800 US-Dollar

AMD Radeon Pro Duo wird deutlich günstiger - in den USA ab 800 US-Dollar

Veröffentlicht am: von

radeonZumindest in den USA deutet sich eine deutliche Reduzierung des Preises für die AMD Radeon Pro Duo an. Sie ist der aktuelle Dual-GPU-Ableger von AMD, der zwei Fiji-GPUs nebst jeweils 4 GB HBM der 1. Generation verwendet. Eingeführt wurde sie zu einem Preis von 1.699 Euro, inzwischen ist sie hierzulande ab 1.250 Euro zu haben. In den USA sind nun vereinzelt Angebote für etwa 800 US-Dollar zu finden, während das reguläre Angebot weiterhin ab 1.500 US-Dollar startet.

Derzeit gibt es noch keinen offensichtlichen Grund für diese Preisreduzierung. AMD hat den Preis offiziell nicht gesenkt. Ob dies auch als Reaktion auf ein baldiges Erscheinen der Vega-Generation zu verstehen ist, kann ebenso nur schwer abgeschätzt werden.

Ein paar technische Daten zur Radeon Pro Duo

AMD hat die Radeon Pro Duo nicht ausschließlich als reine Spielerkarte entwickelt. Stattdessen dürfte das Haupteinsatzgebiet das professionelle Segment sein, also die Entwicklung von VR-Inhalten oder die Bearbeitung sonstiger Multimedia-Inhalte.

Die technischen Daten sind weiterhin recht beeindruckend. So sollen die beiden GPUs mit einem Takt von 1.000 MHz arbeiten. Damit wäre die Radeon Pro Duo etwas langsamer getaktet als eine Radeon R9 Fury X. Da dieser Takt auch unter Dauerlast gehalten werden soll, ist sie aber auch schneller getaktet als eine Radeon R9 Nano. Die jeweils 4 GB High Bandwidth Memory pro GPU arbeiten mit dem üblichen Takt von 500 MHz.

AMD verwendet drei zusätzliche PCI-Express-Stromanschlüsse mit jeweils acht Pins, um die Karte zusätzlich mit Strom zu versorgen. Damit kann der 3D-Beschleuniger laut PCI-Express-Spezifikation 525 W aufnehmen, allerdings sind die zusätzlichen Anschlüsse auch in der Lage, eine deutlich höhere elektrische Leistung zu übertragen. Demnach handelt es sich bei den 525 W eher um eine grobe Vorgabe. Auf Seiten der Slotblende verbaut AMD viermal DisplayPort 1.2 und einmal HDMI 1.4a.

Die All-in-One-Wasserkühlung aus dem Hause Cooler Master befördert die Kühlflüssigkeit mittels zweier Pumpen durch den Kreislauf. Neben der GPU werden auch einige andere Komponenten durch die Wasserkühlung abgedeckt. Da sich kein Lüfter auf der Karte befindet, müssen auch einige strom- und spannungsversorgende Komponenten aktiv gekühlt werden. Die Abwärme gibt der Kühler über einen Radiator mit 120 x 120 mm ab.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (9)

#1
Registriert seit: 13.10.2005
Magdeburg
Admiral
HWLUXX Superstar
Beiträge: 20907
Wird sich vermutlich auch mit dem reduzierten Preis nicht gut verkaufen.

Die gtx1080 ist da für 600 einfach die homogenere Karte.

Gesendet von meinem LG-H815 mit Tapatalk
#2
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Flottillenadmiral
Beiträge: 5635
Sicherlich für 800€ eigentlich eine sehr gute Idee - so günstig kommt man nicht leicht an 16 TFLOPs SP. Allerdings bieten drei RX 480 stattdessen auch jeweils 8GiB VRAM und verbrauchen einen weiteren PCIe- Platz.

Zudem sind die Preise für Vega noch nicht bekannt. Ich kann mir gut vorstellen, dass 2x die kleine Vega von der Preis/Leistung nochmal deutlich besser ist und wegen des höheren Taktes auch in einigen Spielen klar die Nase vorn hat.
#3
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Kapitän zur See
Beiträge: 3204
Die Radeon Pro Duo kam einfach viel zu spät auf den Markt. Sie hätte gleich 6-8 Wochen nach dem Marktstart der Fury X erscheinen müssen. Dann hätte AMD auch deutlich mehr Einheiten verkauft.
Aber jetzt ist es eben nur noch ein Ladenhüter, der dann, wie üblich zum Einkaufspreis angeboten wird. War ja auch bei der HD 7990 und R9 295X2 so.
Besser die Händler verkaufen noch, zwar ohne Gewinn, aber wenigstens auch ohne Verlust.
#4
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34347
@Pickebuh
da kann man quasi nur zustimmen... Vllt ist die Zeit von MGPU Karten einfach vorbei. Vor allem bei all den Nachteilen und natürlich auch den Preisen.
Die Konkurenz baut ja MGPU nur noch im Profibereich, die letzte reinrassige Gamerkarte mit MGPU war die knapp 1000€ (damals) teure GTX 690. Die TitanZ mit einem unterirdischen P/L im Vergleich und quasi NULL Marktanklang mal völlig ausgeblendet.

Mich wundert so oder so warum AMD an dem Spaß noch festhält. Bis auf den Formfaktor macht MGPU auf einem PCB eigentlich irgendwie nichts besser im Vergleich zu zwei SGPUs...
Man munkelt ja im Moment noch auf eine Dual Polaris, ggf. sogar Dual Vega... -> beides wird aus meiner Sicht ebenso so ziemlich gar keinen Marktabsatz finden.
#5
Registriert seit: 22.02.2010

Bootsmann
Beiträge: 761
Naja MGPU würde ich jetzt nicht für alle Zeiten abschreiben aber dafür bedarf es wohl ein echt darauf ausgelegtes Chip und Platinendesign.
#6
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34347
MGPU in Software oder in Hardware?
-> im Moment sind wir bei einer Softwarelösung. Und die bedarf eben Handarbeit, damit es lüppt. Mit DX12 ändert sich daran nach aller vorraussicht leider nix...

Wenn es vllt irgendwann mal ein MCM seitens der GPU Hersteller gibt, welches eine Art MGPU Verfahren in Hardware kann, also ähnlich dem, wie es ja heute schon passiert, nur das dort die Hardware auf ihre Ausführungseinheiten in EINER GPU skaliert, dann wird da vllt sich was dran ändern. Die Softwarelösung hat einfach zu viele Baustellen. Dennoch kommt man manchmal nicht drum rum. So wirklich Massentauglich ist das halt aber eben nicht...
#7
customavatars/avatar62126_1.gif
Registriert seit: 14.04.2007
Euskirchen, NRW
AMD-Fanboy
Beiträge: 24512
irgendwann werden sie GPUs so verkleben wie es intel beim Q6600 gemacht hat

dann lölpt das auch wies soll
#8
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34347
nö, denn 2x Dualcore macht nicht automatisch annähernd 100% Skalierung, wenn die Software nur zwei Threads auslasten kann.
-> bei einer Grafikkarte erwartet man das aber, sonst haste den gleichen Spaß wie heute.
#9
Registriert seit: 22.02.2010

Bootsmann
Beiträge: 761
Problem ist eher die Verlässlichkeit in der Skalierung. Es darf eben nicht Spiel A geben wo man nahezu 200% Leistung hat, Spiel B mit 170% und Spiel C was garnicht skaliert. Glaube die wenigsten hätten ein Problem damit wenn man z.b. 170% garantiert hätte. Dazu kommen Grafikfehler und Nischendasein was den nutzen weiter in Frage stellt und massiven Support der GPU Hersteller verlangen würde. Auf Spielehersteller würde ich mich daher nicht verlassen.

Generell kommt der PC dafür auch etwas "grob" vor. In Zeiten wo man HBM möglichst nah am Die platziert und jeder cm realer Abstand spürbare Auswirkungen haben kann wäre es evtl. mal Zeit ein neuen Formfaktor zu entwickeln. Wenn man überlegt was heute in Smartphones und Tablets drin steckt kommt einen PC Hardware wie Spielzeug für Grobmotoriker vor.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • 7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

    Logo von IMAGES/STORIES/2017/AMD-RADEONVII

    Heute ist es endlich soweit: Es gibt in Form der Radeon VII endlich wieder eine neue Grafikkarte aus dem Hause AMD. Zwar kommt auch hier die bekannte Vega-Architektur zum Einsatz, durch die Kombination einer in 7 nm gefertigten GPU mit 16 GB an extrem schnellen HBM2, ist die Radeon VII aber... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]