AMD Radeon R9 295X2 im Test

das potential einfach in ein maximum zu drücken, ok. ich fände es deutlich klüger, wenn die balance stimmen würde. schnell genug ist das teil ohnehin. wenns jetzt noch leiser wäre, täte das dem uber ruf sicher keinen abbruch.

mit der AIO das potential zu verschenken, erstmals die power zweier karten leiser als eine einzelne laufen zu lassen...

aber gut, nur meine meinung... soll ja leute geben, die auch CFX MR nicht merken :d
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bleibt also nur zu Hoffen das nvidia ihre Titan z einen 3ten pin gibt damit wir das potenzial dieses monsters voll ausreizen können xD und diue karte schön hoch drehen können...
 
Bleibt also nur zu Hoffen das nvidia ihre Titan z einen 3ten pin gibt damit wir das potenzial dieses monsters voll ausreizen können xD und diue karte schön hoch drehen können...

Auf den Fotos der Titan Z hat die auch nur 2x 8 Pin, aber da wurde auch schon vermutet das sie für 375 Watt ausgelegt ist und mit reduzierten Taktraten kommt. Stichwort Effizienz!
Also kann man davon ausgehen das die 295x2 schneller sein wird, ganz ohne Kristallkugel :d
Wie es bei einer möglichen GTX 790 aussieht, die ja eher ein Preis-/Leistungsmäßiges Gegenstück zur 295x2 sein dürfte, wissen wohl nur die Damen und Herren bei Nvidia.
Auch ob die überhaupt geplant ist/kommt!

Auf jeden Fall hat Nvidia nun die Chance auf die 295x2 zu reagieren ;)
 
Zuletzt bearbeitet:
Mick_Foley schrieb:
Wundert dich das bei einer Dual-GPU-Karte, deren Singl-Chip-Ref-Design-Variante im Hitze und Takt-Problemen zu kämpfen hatte?

Spielt das denn wirklich eine Rolle, was der Referenzkühler geleistet hat? Mir ist zudem von Hitzeprobleme nichts bekannt.
 
Ach darum keine Fotos von der Kiste? :haha:

Ja, zum einen das und zum anderen: Welche Erkenntnis gewinnen wir oder ihr durch Bilder des Koffers? Das eine Grafikkate in einem Koffer verpackt werden kann? Das hatten wir schon einmal ;)

Bleibt also nur zu Hoffen das nvidia ihre Titan z einen 3ten pin gibt damit wir das potenzial dieses monsters voll ausreizen können xD und diue karte schön hoch drehen können...

NVIDIA wird sich bei der GeForce GTX Titan Z aber an gewisse Vorgaben halten, da man diese Karte nicht nur für Spieler vorsieht, sondern vermutlich maßgeblich eher im professionellen Bereich und hier kann man nicht einfach bestimmte Spezifikationen übergehen.
 
Das dazugehörige Brecheisen ist heute noch im Einsatz ;)
 
Wäre es gemein zu fragen warum das Monster im Vergleich zu nem Sli aus 2 TI bei euch deutlich mehr braucht, bei Golem.de es aber genau anders rum ist?
Dort ist das SLI aus 2 780 TI , egal ob im Idle oder bei Furmark, mehr als die 295x2.
Unter Volllast sind zwischen dem Verbrauchsunterschied zwischen euch und Golem ~110W! unter Last und im idle sind es ~10W.

Schon etwas heftig der Unterschied, oder?
 
Wäre es gemein zu fragen warum das Monster im Vergleich zu nem Sli aus 2 TI bei euch deutlich mehr braucht, bei Golem.de es aber genau anders rum ist?
Dort ist das SLI aus 2 780 TI , egal ob im Idle oder bei Furmark, mehr als die 295x2.
Unter Volllast sind zwischen dem Verbrauchsunterschied zwischen euch und Golem ~110W! unter Last und im idle sind es ~10W.

Schon etwas heftig der Unterschied, oder?

Ich arbeite zwar nicht für HWluxx, aber das zwei 780ti mehr verbrauchen als die 295x2 halte ich für ein Gerücht!
Es sei denn natürlich die sind heftigst übertaktet, aber dann würde sich das auch in den Benchmarkergebnissen zeigen!
Ansonsten schreibt Golem da ziemlichen Quatsch.. ;)
 
Feine Karte von AMD.
Nun sieht man erst richtig wie überlegen eine Wasserkühlung gegenüber Luftkühlung sein kann. Ein 120er Radi reicht tatsächlich aus für einen angenehmen Geräusch- und Temperaturpegel dieser fast ungezügelten Dual-Karte. Fantastisch !
Preis und Leistung sind noch angemessen, wenn man bedenkt, das es sich hier um eine komplette garantiegedeckte wartungsfreie Wasserkühlung mit Pumpen, Kühlkörper, Radiator, Schläuchen, Anschlüssen und Wasser, handelt.
Somit kann man sie locker, auch im Verbund, für den Preis einer GTX Titan-Z, in einem Gehäuse unterbringen. :d
Maingear_R9_295X2_02.jpg

Und für alle, die das Argument der PCIe-Stecker Norm gegen diese Karte einbringen, sollte man mitteilen, das nicht eine von den Redaktionen, die diese Karte auf Herz und Nieren getestet haben, irgendwelche Probleme hatten geschweige den abgebrannt sind.
Auch stimmen oft die gemessen Stromaufnahmen bzw. Leistungsaufnahmen nicht wirklich.

Tomshardware z.B. besitzen den genauesten Messstand und ihre Messergebnisse sind noch weit weg von der 500 Watt Verbrauchsgrenze.
Leistungsaufnahme: Gaming - AMD Radeon R9 295X2 im Test: 4K-Gaming-Karte mit Flüssigkühlung

Man sollte den Grün vor Neid erblassten CB-Redakteuren nicht unbedingt immer das Schlechteste von AMD abnehmen wollen. :p
 
Zuletzt bearbeitet:
die temperaturen und die lautstärke sind überwältigend.
ein 120mm radi und das mit nur einem lüfter , da sieht man mal wie gut die gpu s eigentlich zu kühlen sind.
deckt sich mit meiner erfahrung als ich eine 7950 auf corsair h60 umgerüstet habe.

liebe redaktion,
schnallt doch noch einen 2. 120mm lüfter drauf und übertaktet die karte doch noch ein wenig, wäre doch intressant was da geht, oder raucht dann das netzteil ab?
 
Der Testbericht bei Tomshardware liest sich als hätte AMD den selbst verfasst :fresse:

lol:

Maximale Last: GPGPU

Hier kann sich die Radeon R9 295X bei den Balken sehr augenscheinlich von dem aus den beiden GeForce GTX 780 Ti bestehenden SLI-Gespann absetzen. Allerdings ist das Ganze auch dem sehr restriktiven Eingreifen von Power Tune geschuldet, weil die Performance bereits gedrosselt wird, obwohl die Temperatur keine 66°C erreicht.

Die Karte würde mit einem fiesen Power-Virus und Erhöhung des Power-Targets sicher die 500-Watt-Marke knacken können, nur einen wirklich Sinn ergäbe so ein Szenario eher nicht. Deshalb verzichten wir auch mangels Praxisrelevanz darauf. Über die Werte des CrossFire-Gespanns aus zwei Radeon R9 290X möchten wir am liebsten nichts schreiben, denn bevor der Limiter einsetzte, waren wir bei knapp 600 Watt.
Leistungsaufnahme: Vergleich und Übersicht - AMD Radeon R9 295X2 im Test: 4K-Gaming-Karte mit Flüssigkühlung
Ne ja... Tomshardware... :rolleyes:

Hätte mich auch gewundert wenn AMD es plötzlich geschafft hätte die Leistungsaufnahme um gefühlte 100 + Watt zu verringern, bei höherem Takt wohlgemerkt!

Aber so ne genaue Messstation ist klasse, nur wenn die Ergebnisse nicht in Relation zur Leistung sind, ziemlich überflüssig... :rolleyes:

Da finde ich es doch ehrlicher wenn man die Karte so testet wie andere Seiten es tun, sprich mit der max. möglichen Leistung bei allen Tests und nicht nur bei Benchmarks, um dann bei der Leistungsaufnahme ... ich will jetzt nicht sagen schummelt aber was sonst?

Naja ich bin gespannt auf die Karte und mache mir lieber selber ein Bild!
Aber dann mit meinem Strommessgerät, weil ich den Strom auch bezahlen muss.
Meinem Stromanbieter und meinem Netzteil ist es nämlich egal was Tomshardwares "Wundermessgeräte" anzeigen :rolleyes:
 
Zuletzt bearbeitet:
Sehr schöner Artikel, nur sollte im Fazit erster Satz im zweiten Absatz MarkT statt Mark stehen :)
 
Zuletzt bearbeitet:
lol
scheint so...

egal ob 2*8pin genug ist oder nicht, ich hoffe auf customs mit mehr stromanschlüssen.

traue dem noch nicht so ganz.

aber ansonsten wirklich super produkt von amd!!!
 
Schön, das 3.840 x 2.160er Benchmarks dabei sind ! :bigok:
Da ist selbst so eine Monsterkarte mitunter am Limit und man kann relaxed die Entwicklung auf dem 4k Monitorsektor abwarten.

Für mich ist die Karte mit ihren 2 Minipumpen und kleinem 120er Radi nix in dieser Config.
Mal sehen, wann die ersten Fullcover Wasserkühler auftauchen.
 
Der Testbericht bei Tomshardware liest sich als hätte AMD den selbst verfasst :fresse:

lol:


Leistungsaufnahme: Vergleich und Übersicht - AMD Radeon R9 295X2 im Test: 4K-Gaming-Karte mit Flüssigkühlung
Ne ja... Tomshardware... :rolleyes:
Hätte mich auch gewundert wenn AMD es plötzlich geschafft hätte die Leistungsaufnahme um gefühlte 100 + Watt zu verringern, bei höherem Takt wohlgemerkt!
Aber so ne genaue Messstation ist klasse, nur wenn die Ergebnisse nicht in Relation zur Leistung sind, ziemlich überflüssig... :rolleyes:
Da finde ich es doch ehrlicher wenn man die Karte so testet wie andere Seiten es tun, sprich mit der max. möglichen Leistung bei allen Tests und nicht nur bei Benchmarks, um dann bei der Leistungsaufnahme ... ich will jetzt nicht sagen schummelt aber was sonst?
Naja ich bin gespannt auf die Karte und mache mir lieber selber ein Bild!
Aber dann mit meinem Strommessgerät, weil ich den Strom auch bezahlen muss.
Meinem Stromanbieter und meinem Netzteil ist es nämlich egal was Tomshardwares "Wundermessgeräte" anzeigen :rolleyes:

Der Witz ist, dass man dort auch das Maximum mit 2x Bitminer, also dem Worst-Case gemessen hat. Und eine ECHTE EFFEKTIVWERTMESSUNG ist das Einzige, was wirklich aussagekräftig ist. Warum sollte man sich auf das Niveau von Schätzeisen und Kaffeesatzleserei herunter begeben, nur damit es den Nvidia-Fanboys ins Weltbild passt? Ich arbeite selbst im Labor und mit dem Billigkram aus dem Baumarkt sind meist nur die Peaks zu messen. Das macht bis zu 10% aus - mindestens. Wer sich mal in der Theorie mit AMDs Power Tune beschäftigt hat, der weiß auch, warum man dann mit Baumarktware meist nur Mist misst. Ich halte die Werte von TH für sehr realistisch, denn auch Techpowerup misst die nahezu gleiche gleiche Leistungsaufnahme im Gaming. Bei TH las ich, dass man bei Anhebung des Power Target auch die 500 Watt erreicht, Techpowerup hat dies mit genau 500 Watt gemessen. Stimmt also auch. Die Peakwerte lässt TH weg, weil sie realitätsfremd sind. So gesehen glaube ich TH und Techpowerup mehr, als irgendwelchen lokalen Medien, die mit niedrigpreisigen Schätzeisen irgendwelche Werte ermitteln, statt zu richtig messen und nicht mal die Tolerenzgernzen ihrer Messgeräte, geschweigen denn das Prozedere für die Messreihen offen legen. Bei CB las ich Ampére-Werte pauschal mal 12 Volt. Deren Zange zeigt maximal halbsekündlich einen Peak-Wert an. Das muss einfach zu hoch ausfallen, weil Consumer-Netzteile unter Last keine 12 Volt mehr bringen und es zudem neben den Peaks auch Valleys gibt. Die "Messung" von CB ist aus Sicht eine Laboranten einfach nur ein schlechter Witz. Heimwerkerniveau.

AMD hatt laut einigen Seiten auch bestätigt, dass die GPUs durch Binning wesentlich geringere Leckströme besitzen. Man kann allein durch bessere Kühlung bei einer einzelnen R9 290X bis zu 30 Watt und mehr sparen. Dies plus eine bessere Qualität der Chips reicht dann auch für 100 Watt weniger in der Summe. bevor Du jemandem unterstellst gekauft zu sein, solltest Du mal darüber nachdenken, wer hier eigentlich die Leser "betrügt". :d

Grüße aus dem Medizintechnik-Labor und beschäftigt Euch wirklich mal mit ECHTER Effektivwertmessung. Das öffnet die Augen :)
 
Zuletzt bearbeitet:
2 x 290 er unter Wasser sind auch mal etwas schneller und die 780 er sicher auch. wieder Birnen und Äpfel, entweder Luft oder Wasser testen, mfg
 
2 x 290 er unter Wasser sind auch mal etwas schneller und die 780 er sicher auch. wieder Birnen und Äpfel, entweder Luft oder Wasser testen, mfg

Wenn Radeon R9 290X, GeForce GTX 780 Ti und Co. per Referenz mit einem Luftkühler ausgestattet werden und die Radeon R9 295X2 nun eben mit einer solchen AiO-Lösung, dann ist dieser Vergleich sehr wohl angebracht. Da darf sich eine wassergekühlte Karte auch mit einer luftgekühlten vergleichen lassen.
 
So siehts aus. Die 295x2 geht so über den Ladentisch so wie die 780 TI auch mit ihrem Luftkühler. Warum sollte man das dann nicht vergleichen dürfen . Da noch ein vernünftiger Wasserkühler dran und das Ding ist der Hammer. Die erste Dual Karte deren Kühlung echt interessant ist.
 
Zuletzt bearbeitet:
Preis und Leistung sind noch angemessen, wenn man bedenkt, das es sich hier um eine komplette garantiegedeckte wartungsfreie Wasserkühlung mit Pumpen, Kühlkörper, Radiator, Schläuchen, Anschlüssen und Wasser, handelt.

Wenn du meinst, dass die tolle WAKÜ und das Single-PCB ca 440€ Aufschlag zu einem einfachen Crossfire-Setup wert sind, hast du natürlich recht. Bei Nvidia würde so ein Aufpreis schon einen Shitstorm herauf beschwören. Aber gut ist die Karte zumindest geworden.
 
Bei Nvidia würde so ein Aufpreis schon einen Shitstorm herauf beschwören. Aber gut ist die Karte zumindest geworden.
Nah.. für einen Shitstorm müssen die es schon richtig übertreiben... ala Titan Z ;P

@p4n0 Vieleicht sollte AMD eine dritte Wakü auf die Anschlüsse bauen :fresse2:

70 Grad an einzelnen Punkten ist allerdings noch zu wenig um in Panik auszubrechen...
 
Zuletzt bearbeitet:
Naja Mick du musst auch zugeben das nvidia es bestimmt nicht bei 440€ aufpreis belassen würde so wie die derzeit drauf sind. Außerdem ist das der release preis und der ist egal bei welcher karte immer zu hoch gewesen.
 
@p4n0 Vieleicht sollte AMD eine dritte Wakü auf die Anschlüsse bauen :fresse2:

70 Grad an einzelnen Punkten ist allerdings noch zu wenig um in Panik auszubrechen...

Nein, AMD sollte einfach einen weiteren PCI-E Stromanschluss spendieren.
70Grad sind schon sehr viel fuer ne Steckverbindung. Je heißer das Ding wird, desto weiter erhoeht sich sein Widerstand - und der Stecker wird NOCH heißer
weil die Karte nach wie vor mit Strom versorgt werden moechte.
Das istn Teufelskreis der solang geht bis entweder das Netzteil abschaltet oder der Leiter schmilzt.

Wird vA bei starken Single-Rail Netzteilen interessant...
 
Nah.. für einen Shitstorm müssen die es schon richtig übertreiben... ala Titan Z ;P

Vertrau mir, wäre das hier der Launch und der Preis der 790 und es gäbe 780Tis ab 430€, würde es hier aber rund gehen. :shot:

Auch egal, die Karte ist gut, der Preis gaga und mir egal, ich klopp mir sowas eh nicht ins System... :)
 
es geht doch nicht darum, was nv machen würde. es geht um den preis in relation zu einzelnen karten. wie die titan verflucht wurde, weil sie 300 steine mehr kostet als eine 780. hier ist es plötzlich ok, wenn man 400 steine mehr zahlt, als für 2x einzelne karten... man kann sich seine argumentation schon auch so hindrehen, wie es einem gerade passt.
 
Naja Mick du musst auch zugeben das nvidia es bestimmt nicht bei 440€ aufpreis belassen würde so wie die derzeit drauf sind. Außerdem ist das der release preis und der ist egal bei welcher karte immer zu hoch gewesen.

Naja nur weil ein andere Hersteller noch beschissenere Preise nimmt ist das Spaß deswegen ja nicht besser, oder? ;) Oh Übrigens die Preis-Differenz zwischen GTX 680-SLI und 690 ****** 42€ Test: Nvidia GeForce GTX 690 (Seite 13) - ComputerBase. Der Fairness halber sollte man allerdings sagen, dass die Lücke durch ein 670-SLI wieder größer wurde. Die Karte ansich finde ich absolut in Ordnung, aber eine AIO-WAKÜ mit einem Wert von 50-70€ als Rechtfertigung für den Aufschlag ist etwas dünn, oder? Und bevor es kommt, ja AMD ortiert sich nur an Nvidia. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh