> > > > PowerColor Devil 13 Dual Core R9 290X im Test

PowerColor Devil 13 Dual Core R9 290X im Test

DruckenE-Mail
Erstellt am: von

Seite 1: PowerColor Devil 13 Dual Core R9 290X im Test

powercolor 290xdevil13 logoSowohl für AMD wie auch NVIDIA sind die Dual-GPU-Grafikkarten reine Prestige-Objekte, deren Entwicklungsaufwand und Preis letztendlich meist in keinem Verhältnis zur gebotenen Leistung stehen. Die Radeon R9 295X2 (Hardwareluxx-Artikel) mit fest verbauter Wasserkühlung ist derzeit AMDs Flaggschiff. An eine Alternative dazu hat sich nicht jeder Hersteller herangewagt. ASUS und PowerColor sind die einzigen beiden Hersteller, die eine rein luftgekühlte bzw. wassergekühlte Alternative anbieten. Mit der PowerColor Devil 13 Dual Core R9 290X schauen wir uns eines dieser Modelle an und sind besonders gespannt darauf zu erfahren, wie sie sich gegen die Referenzversion schlagen.

Noch einmal ein paar Worte zum Hintergrund: Dual-GPU-Grafikkarten haben wie gesagt bei beiden Herstellern eine lange Tradition. AMD versorgte uns nach der Radeon HD 6990 allerdings mit keiner echten Radeon HD 7990, sodass sich Hersteller wie ASUS mit der ARES II  und PowerColor mit der Devil 13 HD7990 in dieser Hinsicht selbst aushelfen mussten. Lange war nicht klar, ob und in welcher Form AMD an einer Dual-GPU-Karte zur Radeon R9 290X arbeiten würde. Der enorme Stromverbrauch und die damit verbundene hohe Abwärme stellten lange ein Rätsel dar. Wie erwähnt, entschieden sich aber auch hier einige Hersteller das Heft selbst in die Hand zu nehmen. ASUS setzt bei der ARES III auf eine reine Wasserkühlung, die in den bereits bestehenden Kreislauf eingebunden werden kann. PowerColor ist der zweite Hersteller, der sich mit der nun von uns getesteten Radeon R9 290X2 Devil 13 an dieses Thema heran wagte. Der Name ist dabei nicht zufällig so entstanden, denn offenbar untersagt AMD die Verwendung von "Radeon R9 295X2", sodass die Hersteller sich eigene Bezeichnungen oder Abwandlungen davon haben einfallen lassen.

Auf der anderen Seite haben wir da NVIDIA, die mit der GeForce Titan Z die letzte Dual-GPU-Karte vorstellten, die aber kaum Relevanz besitzt, da sie mit einem Preis von 1.500 Euro und einem doppelt so hohen Startpreis einfach unerschwinglich teuer war - und noch immer ist. Die GTX-700-Serie ließ NVIDIA in dieser Hinsicht also komplett aus und so war die GeForce GTX 690 in der Referenzversion das zuvor letzte Projekt.

PowerColor entschied sich aus unterschiedlichen Gründen dazu, keine Samples der Radeon R9 290X2 Devil 13 zu verschicken. Über andere Kanäle sind wir nun an dieses Modell gelangt, welches auch mehrere Monate nach Erscheinen der Radeon R9 295X2 noch eine oder die schnellste Grafikkarte am Markt ist. Daher haben wir uns auch jetzt noch dazu entschieden einen Artikel zu verfassen.

Architektonische Eckdaten

Die PowerColor Devil 13 Dual Core R9 290X setzt auf zwei "Hawaii"-GPUs mit jeweils 2.816 Shadereinheiten, sodass die Karte auf insgesamt 5.632 Shadereinheiten kommt. Im Vergleich zur Radeon R9 295X2 etwas geringer ist der GPU-Takt mit nur 1.000 MHz anstatt 1.018 MHz. Pro GPU stehen, wie auch bei der Radeon R9 290X, die vollen 4.096 MB GDDR5-Speicher zur Verfügung. Diese arbeiten mit 1.350 MHz und sind über ein 512 Bit breites Speicherinterface angebunden. Damit hat PowerColor den Takt des Speichers um 100 MHz gegenüber der Radeon R9 295X2 gesteigert. Somit ist auch die Speicherbandbreite mit 352 GB pro Sekunde etwas höher und liegt sogar über dem Single-GPU-Modell.

PowerColor Devil 13 Dual Core R9 290X
Straßenpreis ab 900 Euro
Homepage www.powercolor.com
Technische Daten
GPU 2x Hawaii XT
Fertigung 28 nm
Transistoren 2x 6,2 Milliarden
GPU-Takt (Base Clock) -
GPU-Takt (Boost Clock) 1.000 MHz
Speichertakt 1.375 MHz
Speichertyp GDDR5
Speichergröße 2x 4.096 MB
Speicherinterface 2x 512 Bit
Speicherbandbreite 2x 352 GB/s
DirectX-Version 11.2
Shadereinheiten 2x 2.816
Textur Units 2x 176
ROPs 2x 64
Pixelfüllrate 2x 64 GPixel/s
SLI/CrossFire -

Aus der Verwendung von zwei "Hawaii"-GPUs ergibt sich außerdem die Anzahl von 2x 176 Textureinheiten und 2x 64 Renderbackends. Im Grunde sehen wir hier also ein CrossFire aus zwei Radeon R9 290X mit leichtem Overclocking im Speicher. Allerdings durchbricht PowerColor mit der Radeon R9 290X2 Devil 13 bei der Angabe der Thermal Design Power (TDP) auch alles, was wir bisher von offizieller Seite herangezogen wurde. Bis zu 500 Watt soll die Karte verbrauchen, womit sie sich weit außerhalb der ATX-Spezifikationen bewegt, die maximal 300 Watt vorsehen, wenngleich eine Versorgung über 375 Watt theoretisch ebenfalls noch innerhalb der Spezifikationen möglich wäre.

Die Abhängigkeiten des GPU-Taktes vom Verbrauch und der GPU-Temperatur sind erst mit Erscheinen der Radeon R9 290X so richtig bewusst aufgetreten. Seither schauen wir uns bei jeder Karte an, ob sie unter den von uns gewählten Bedingungen (in einem System eingebaut und unter Last) auch ihren maximalen Takt erreichen und halten kann bzw. wo der maximale Boost-Takt liegt. Dies taten wir natürlich auch für die PowerColor Devil 13 Dual Core R9 290X.

Gegenüberstellung von Temperatur und Takt
Spiel Temperatur Takt
The Elder Scrolls V Skyrim 83 °C 1.000 MHz
Company of Heroes 84 °C 1.000 MHz
Grid 2 84 °C 1.000 MHz
Metro: Last Light 84 °C 1.000 MHz
Crysis 3 84 °C 1.000 MHz
Battlefield 4 84 °C 1.000 MHz
Bioshock: Infinite 83 °C 1.000 MHz
Tomb Raider 84 °C 1.000 MHz

Über alle Tests konnte die PowerColor Devil 13 Dual Core R9 290X ihren maximalen Takt von 1.000 MHz halten. Getestet haben wir dies im Silent-Mode, in dem die Lüfter etwas langsamer arbeiten und die GPUs damit etwas wärmer werden. Die Angaben der GPU-Temperatur sind jeweils diejenigen für die wärmste der beiden GPUs.

 

Social Links

Seitenübersicht

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (56)

#47
customavatars/avatar101638_1.gif
Registriert seit: 30.10.2008
Dorsten
Kapitän zur See
Beiträge: 3833
Kommt drauf an. Unter Wasser sind zwei einzelne definitiv besser zu kühlen als die 295

Gesendet von meinem SM-G900F mit der Hardwareluxx App
#48
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8573
Zitat DragonTear;23166471
Naja, die Dualkarten waren dochs chon immer was "exklusives" und da bezahlt man halt etwas mehr. Besonders bei der 295X2 gilt auch dass sie in den meisten Systemen einfacher zu kühlen ist, als 2 Einzelkarten.


Zum jetzigem Zeitpunkt ist der Preis Leistung Lautstärke Top zum Releaszeitpunkt jedoch jenseits von Gut und Böse.
Zitat
Ab sofort hat AMD die weltweit schnellste Grafikkarte im Programm. Die mit 560 Euro exorbitant teure Radeon HD 5970 überholt den bisherige Performance-Platzhirsch Geforce GTX 295 problemlos

So mal aus der Vergangenheit diese Karte war auch nicht gerade das was man als unkomplex bezeichnen konnte.

Ich kann von meiner Seite aus nix finden was Preise von über das Doppelte rechtfertigt (meine Meinung)
Als die 295X den Markt betreten hatte hätte sie nicht mehr wie 899 Kosten dürfen .
Die Titan Z erwähnen wir mal lieber nicht da fehlen einem eh die Worte.
Erst jetzt verkauft sich die 295X doch erst so richtig wäre sie bei Release auch unter 1000 Euro geblieben hätte sie auch ein grossen Run gehabt wie jetzt auch .Die Titan Z wäre endgültig zur Lachnummer geworden.
#49
customavatars/avatar77654_1.gif
Registriert seit: 19.11.2007

Moderator
Beiträge: 1497
Da geb ich dir recht. Hätte die 295x2 beim launch 800-900 gekostet, hätte ich jetzt wohl auch eine im rechner. Aber mehr zahl ich einfach nicht für eine graka.
#50
customavatars/avatar33106_1.gif
Registriert seit: 09.01.2006

Admiral
Beiträge: 13879
Das Problem ist doch einfach bei dieser Karte, dass du nicht einfach den SLI / CF - Partner aus dem Case werfen kannst, wenn die Mikroruckler usw. auf den Sack gehen.

Mir völlig unklar, wozu man eine Dual-GPU Karte kauft, wenn man einfach nur 2 laufen lassen kann.

Denn mal ehrlich - niemand baut ein mITX Dual System auf und braucht unbedingt eine 2-3 Slot Karte dafür.
#51
customavatars/avatar76352_1.gif
Registriert seit: 05.11.2007
Mittelfranken
Flottillenadmiral
Beiträge: 5100
@ HW-Mann

Doch geht
Catalyst Controll center ein Profil für das jeweilige
Spiel anlegen dann kann man da crossfire auch abstellen so man will.
Ich finde aber diese Karte sinnlos da das ref modell der 295X leiser und kühler ist.
#52
customavatars/avatar33106_1.gif
Registriert seit: 09.01.2006

Admiral
Beiträge: 13879
Ahhhh das ist natürlich dann nicht schlecht.
#53
customavatars/avatar136469_1.gif
Registriert seit: 24.06.2010

Flottillenadmiral
Beiträge: 5181
Wie siehts eigentlich mit dem verbauten PLX-Chip aus? In der Vergangenheit war ja oft bei Empfehlungen zu SLI/CF-Mainboards zu lesen, dass man optimaler Weise auf einen PLX-Chip verzichten soll, da dieser ein Inputlag erzeugen würde. Messungen habe ich dazu aber keine gefunden. Bringt diese Verdopplung der Lanes eigentlich wirklich was, ich meine, bei der CPU kommen ja auch so nur 16 an.
#54
customavatars/avatar6035_1.gif
Registriert seit: 03.06.2003
Bochum
Oberbootsmann
Beiträge: 986
@Buffo: Letzten Endes kann es sowas doch gar nicht bringen (zumindest nicht bei SLi oder Crossfire). Steckte in den entsprechenden Slots ein RAID-Controller mit Festplatten dran, so hätte ein Switch-Funktion noch irgendwo einen Sinn. So kann je nachdem was gerade beansprcht wird, die Weich so gestellt werden, dass alle 16 Lanes zur Verfügung stehen. Bei zwei Grafikkarten die gleichzeitig die gleiche Datenmenge bekommen (müssen) bringt das nichts. Da kann der Switch noch so schnell hin und her schalten wie er möchte, letzten Endes läuft es auf die Lanes hinaus, welche bei der CPU angekommen und zusätzliche Latenz bringt so ein Chip immer mit sich, ob die sich nun bemerkbar macht, steht auch einem anderen Blatt.
#55
Registriert seit: 09.03.2005

Stabsgefreiter
Beiträge: 293
ich suche krampfhaft eine wakü lösung für das Monster. die ist ja echt tierisch laut und wird viel zu heiss. Passt da eine Wakü für ne 295 drauf oder ist die anders aufgebaut?
#56
customavatars/avatar51109_1.gif
Registriert seit: 08.11.2006
Hannover
Moderator
BIOS Bernhard
Lutz
Beiträge: 33762
Ich habe keine der Karten aber:

powercolor-290xdevil13-16 » Fotostrecken

vs

http://cdn4.wccftech.com/wp-content/uploads/2014/04/Radeon-R9-295X2-PCB-Front-TPU.jpg

zeigt deutlich, dass die 295x2 ganz anders ist. Der Kühler passt zu 100% nicht.

Du wirst um einen Selbstbau nicht rumkommen. Alternativ schreib ihn mal an:

http://www.liquidextasy.de/dienstleistungen.html?id=74:fertigung-von-kuehlern-ausserhalb-der-produktpalette&catid=55:mainpages

"Wir lassen euch ein Angebot zukommen (Regelfall -Graka 80-125eu, Mainboard 30-125eu)"
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Kleinster Pascal: NVIDIA GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/GTX1060-FOUNDERS-EDITION/NVIDIA-GEFORCE-GTX1060FE-LOGO

NVIDIA bietet die neue Pascal-Architektur samt neuer Fertigung in 16 nm bis heute nur im High-End-Segment an, will die lukrative Mittelklasse nun aber auch bedienen und kündigte daher bereits vor zwei Wochen die GeForce GTX 1060 an. Diese schauen wir uns heute in Form der Founders Edition, dies es... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]