Mit Chiplets, RDNA 3 und Größe ist nicht alles: Die Radeon RX 7900 XTX und XT im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Anhänge

  • 0B433733-B844-417D-83F3-CF1FED2112A4.jpeg
    0B433733-B844-417D-83F3-CF1FED2112A4.jpeg
    133,1 KB · Aufrufe: 93
Es kommt bei den idle werten wohl drauf an, was für ein Monitor benutzt wurde.
 
Die Daten hier stammen von Linus von LTT (System Idle Verbrauch), scheinbar sind die aktuellen Treiber/Karten derart verbugged, dass der Verbrauch sogar bei selber Auflösung aber bei unterschiedlichem Fabrikat/Hersteller gewaltige Unterschiede haben kann (84W vs 171W). Das ist... schlecht.

1670868958863.png

 
Hoffe man kann da was retten.
 
Ist der Ruf erstmal runiniert...
 
aber so das es jeder versteht
Ok, die Rede war von der 4090 und von Enthusiasten im Hardware Sektor als Kundengruppe. Also Leute die ~ 1/5 des weltweiten duchschnittlichen Jahres BIP pro Kopf für eine einzige Graka ausgeben können.
Von welchem Kundenkreis sprechen wir also:
a) Menschen in Privatinsolvenz wo die Bank das Konto verwaltet
b) Leute mit etwas Geld oder meinen welches zu haben

Tipp: Ist wie bei Sport1 mit dem Kennwort "Ball" bei nem Fußballquiz ;)
 
Hat dieser Monitor Bug einfluss auf die Benchmarks ? Da heißt es echt abwarten auf funktionierende Treiber obwohl das schon an sich traurig genug ist.
 
Das sollte fixbar sein - so lange AMD das Problem hoch auf die Liste setzt (was es offenbar jetzt ist) - in 2 bis 4 Wochen sollte das geregelt sein. Was nicht geregelt sein wird, ist die eher maue Perf/W Kurve. Da hilft nur ein neues Tape-out auf welches ich auch warten werde. Ne andere Mögichkeit wäre beim Ref-Design Lotto zu spielen und vor dem Refresh auf E-Bay das Ding zu verticken. Ob sich das wirklich "lohnt" muss jeder für sich selbst entscheiden. Schlecht ist die Karte ja nicht - würde ich auf jeden Fall einer 4080 vorziehen. Ich bin halt nur enttäuscht, weil AMD so viel Potential (mal wieder) auf der Straße hat liegen lassen.
 
Laut Linus sollen wohl die Treiber wegen des Chiplet Designs nicht erlauben, dass das Powerlimit unter 90% gesetzt wird.

Ob das wohl auch für die Custom-Karten gilt? Das wäre für diejenigen, die besondere effizient unterwegs sein wollen (weniger Hitze, Strom, etc) bei ähnlichen FPS (4090 als Beispiel) natürlich eine Katastrophe.

Beitrag automatisch zusammengeführt:

Hat dieser Monitor Bug einfluss auf die Benchmarks ?
Scheinbar ja. Laut Linus gibt es bei unterschiedlichen Monitoren (bei selber Auflösung) unterschiedliche FPS:

Screenshot 2022-12-12 192147.jpg
 
Hat dieser Monitor Bug einfluss auf die Benchmarks ? Da heißt es echt abwarten auf funktionierende Treiber obwohl das schon an sich traurig genug ist.
Das,... ist keine dumme Frage ehrlich gesagt.
Daran hatte ich noch gar nicht gedacht.

Wenn der Monitor selber sozusagen 1/3 des Powerbudgets zieht, fehlt das dann bei den FPS für das Spiel? Oder ist das, was die Monitore ziehen, eher ne Art "ich behalt mal vorsichtshalber 100 Watt bereit" - Sache, die dann trotzdem voll in die FPS gehen kann?
 
Habe grade erst gesehen, dass AMD bei dem DP 2.1 Anschluss nur auf einen Teil der vorgesehenen Bandbreite setzt?


1670870313616.png


Das ist doch albern... also würde man als Kunde beim "Ausreizen" von DP 2.1 direkt in der DisplayCompression landen... dann kann man sich auch direkt eine DP 1.4 Karte holen.

1670870358062.png


Also haben wir am Ende

4090: 8.10 GBit/s
vs
7900 XT(X): 13.5 GBit/s, anstatt 20 GBit/s
 
Für den Preis ein inakzeptables Produkt, wenn man mich fragt. Die 7900 XT haette sich 7800XT nennen sollen und die XTX die 7900XT.
Jetzt zahlt man 400€ mehr und das soll Chiplet sein? Dann wären die doch lieber bei Monolithic geblieben.

Wenn der Chip wirklich einen Bug haben sollte, dann hätte man lieber die 7900 Serie, als 7800er vermarktet und per respin dann die 7900er released.
 
Habe grade erst gesehen, dass AMD bei dem DP 2.1 Anschluss nur auf einen Teil der vorgesehenen Bandbreite setzt?
Naja, ist relativ egal.
Nur ne weitere Marketingsache halt.

Realistisch liefern ja weder die GPUs (noch die von NVidia) genug Leistung, als das DP 2.1 irgendeine nennenswerte Relevanz hätte.
"Zukunftssicherheit" ist auch komplett egal, weil die GPUs in 3 Jahren ja nicht auf einmal 3x so viel FPS liefern.
Bei nem MONITOR wäre das wichtig, aber dei dem Motor des Monitors (also der GPU),...

Da würde ich AMD jetzt keinen Strick draus drehen. Genauso wenig wie ich sie feiern würde, weil sie offiziell 2.1 haben. Es ist einfach irrelevant.
Aber natürlich ne weitere Kerbe für das schiefe Marketing. Das Team ist diese Gen eindeutig über die Ziele hinaus.
 
Ich finde halt das zum Markstart ein Treiber zur verfügung stehen sollte der halbwegs läuft vorallem weil man weiß das die Hardware auf dem prüfstand steht.Das fällt wohl auch unter das schiefe Marketing.
 
Ich finde halt das zum Markstart ein Treiber zur verfügung stehen sollte der halbwegs läuft vorallem weil man weiß das die Hardware auf dem prüfstand steht.Das fällt wohl auch unter das schiefe Marketing.
Bedenken sollte man hier insbesondere, dass AMD den Start ihrer Generation bereits zwei Monate hinter ihre Konkurrenz geschoben hat - was aus marktwirtschaftlicher Sicht extrem schlecht ist. Heißt also, man wusste hier um die großen Treiberprobleme - muss nun aber liefern/will nun veröffentlichen, weil sonst die Quartalszahlen schlecht aussehen und die Aktionäre der Lisa ihr Telefon zuschreien.

Leider hat man die Probleme bisher nicht aus der Welt schaffen können - trotz verzögerten Launchs. Die "armen" Software Entwickler bei AMD haben wohl die letzten drei Monate einen einzigen, elendig langen Crunch mitmachen dürfen. Genützt scheint es am Ende nicht soviel zu haben. Wenn ich mir zum Beispiel diverse Reviews anschaue und sehe, dass eine 7900 XTX bei Games quasi durch die Bank weg ständig maximal taktet und ununterbrochen ~355 Watt rumgurkt, spricht das für ernsthafte Architekturprobleme. Und wenn AMD auch nach monatelanger Fleißarbeit daran nichts geändert hat, sind kurzfristige Fixes eher unwahrscheinlich.

Ähnliches hatte ich ja bereits befürchtet - man schiebt einen Launch nicht nach hinten heraus, ohne triftige Gründe (wenn die Konkurrenz bereits veröffentlich hat und Kunden abgreift). Das sprach für Probleme im Voraus, und nun sind diese offensichtlich.
 
Zuletzt bearbeitet:
Wer einmal ordentliches Raytracing (Control, Cyberpunk) auf einem ordentlichen TV/Monitor gezockt hat (3090/4080/4090 auf einem LG 42/48 OLED zum Beispiel) und mir hinterher erzählt, dass er das nicht mega fand, den muss ich erstmal zum Arzt schicken.

Genau, das habe ich auch festgestellt.
Wenn man CP77 mit max. Settings und RT spielt und dann mal zum Vergleich RT ausschaltet, wirkt das Bild auf mich total flach.
Ich möchte nicht mehr drauf verzichten.
 
Schade, die Treiberproblematik (mal wieder :( ) und die Preise der XTX lassen mich als RTX 3080 Besitzer dann doch etwas
enttäuscht zurück. Mit DLSS steht man mit der 3080 dann in den meisten RT Spielen immer noch besser da als mit den
7900ern und der Abstand zur XT ist in vielen Games eh zu gering. Diese Generation lasse ich definitiv aus...

Anders sieht es ein Segment niedriger aus, da hoffe ich schon eher auf einen feinen Ersatz für die 3060ti und bei den gar
nicht so stark gestiegenen TDP Werten, ist eine sehr flotte "Mittelklasse-2 SLot-Karte" fürs ITX System ziemlich wahrschein-
lich. Aktuell schiele ich da wieder mal eher auf eine 4060ti/4070...die AMD Treiber schrecken mich immer wieder ab :(.
 
IDLE Power teilweise 120W und mehr je nach Monitor:

1670871916538.png


Wie konnte das denn übersehen werden??


 
Genau, das habe ich auch festgestellt.
Wenn man CP77 mit max. Settings und RT spielt und dann mal zum Vergleich RT ausschaltet, wirkt das Bild auf mich total flach.
Ich möchte nicht mehr drauf verzichten.
es muss nicht max settings sein.

und es braucht auch keine reflections.

das was rt so geil macht ist RT GI und RT AO.

das macht aus dem flachen bild, ein realistisches
 
Für den Preis ein inakzeptables Produkt, wenn man mich fragt. Die 7900 XT haette sich 7800XT nennen sollen und die XTX die 7900XT.
Im Vergleich zu Team grün isses genau richtig verpreist. Der Chipdefekt ist ja schon in den Benches mit drin und da kämpft sie auf Augenhöhe mit der 4080. Nur wäre sie ohne Chipdefekt halt näher an der 4090 gewesen - und dann auch teurer.

Jetzt zahlt man 400€ mehr und das soll Chiplet sein? Dann wären die doch lieber bei Monolithic geblieben.
400€ mehr im Vergleich zu? Nvidia?

Wenn der Chip wirklich einen Bug haben sollte, dann hätte man lieber die 7900 Serie, als 7800er vermarktet und per respin dann die 7900er released.
Jupp - volle Zustimmung. Aber die Aufkleber waren wohl schon gedruckt. Entsprechend kommt ne 7950, 7970, 7990 und das in XT, XTX und XTXH Varianten. Trotzdem darfst du dich auf die gefixte-Variante freuen, sofern nicht ein BWL-Typ sagt "Nö".
 
IDLE Power teilweise 120W und mehr je nach Monitor:


Wie konnte das denn übersehen werden??
Gleiche Geschichte wie bei Vega. Man war schon im Verzug und hat das Teil schnell rausgekloppt. Weihnachtsgeschäft halt.

Du kennst die videos, wo im Media-Markt 100 Leute auf einen Stapel von Konsolen gerannt sind und sich gegenseitig die Beine gestellt haben? So lange der Homo Sapiens sich so verhält, wird sich das wohl kaum ändern.
 
es muss nicht max settings sein.

und es braucht auch keine reflections.

das was rt so geil macht ist RT GI und RT AO.

das macht aus dem flachen bild, ein realistisches

Trifft es ganz gut.
RayTracing ist nicht per se hübscher. Es ist REALISTISCHER.

Merkt man natürlich vor allem in RPGs.
Wenn man First Person in so ein Gebäude geht, Licht kommt nur durch die Fenster,... dann merkt das Gehirn bei Raster: "hier stimmt was nicht!" - kann es aber nicht zuordnen.
Bei raster sind dann 100 Lichtquellen überall versteckt und Schatten erzeugt, die alle irgendwie "gut" aussehen, aber die das Gehirn unterbewusst als "falsch" erkennt. Der Mensch checkt halt, dass das Licht durch das Fenster ganz andere Lichtverhältnisse und Schatten werfen müsste.

Wenn man dann mal mit dem richtigen RT Effekt gespielt hat. Die Spiegelungen echt sind, die Lichter echt wirken,... dann merkt man, dass "hübscher" der falsche Begriff für Raytracing ist. Es ist einfach realer. Und das ist dann natürlich subjektiv: Will man das? Stört einen das sonst?
Ich kann mich mittlerweile nur noch schwer an nicht RT Licht gewöhnen, nachdem ich ganz Cyberpunk mit RT gespielt habe. Alles hat so realistisch gewirkt. Und auf einmal merke ich in anderen Spielen, wie faked alle Räume und Lichter sind.

Aber gut: In 3-4 Generationen werden wir alles nur noch mit RT machen können vermutlich. Dann ist das Problem vom Tisch. ;-)
 
Im Vergleich zu Team grün isses genau richtig verpreist. Der Chipdefekt ist ja schon in den Benches mit drin und da kämpft sie auf Augenhöhe mit der 4080. Nur wäre sie ohne Chipdefekt halt näher an der 4090 gewesen - und dann auch teurer.


400€ mehr im Vergleich zu? Nvidia?


Jupp - volle Zustimmung. Aber die Aufkleber waren wohl schon gedruckt. Entsprechend kommt ne 7950, 7970, 7990 und das in XT, XTX und XTXH Varianten. Trotzdem darfst du dich auf die gefixte-Variante freuen, sofern nicht ein BWL-Typ sagt "Nö".

Das Problem ist einfach, dass die Treiber wirklich nicht das Gelbe vom Ei sind. Ich habe hier selber eine 6800XT und die Treiber sind manchmal wie Lotto spielen. Besonders gibt es derzeit 2-3 Dinge, die mich im Treiber stören, aber die leider nicht gefixt werden oder können.

400 Euro mehr im Vergleich 6800XT vs 7900XT, aus Kostengründen wurde ja hier Chiplet verwendet und im Endeffekt haben wir Kunden keinen Vorteil dadurch. Im Gegenteil, wir müssen trotzdem mehr zahlen.
 
Trifft es ganz gut.
RayTracing ist nicht per se hübscher. Es ist REALISTISCHER.

Merkt man natürlich vor allem in RPGs.
Wenn man First Person in so ein Gebäude geht, Licht kommt nur durch die Fenster,... dann merkt das Gehirn bei Raster: "hier stimmt was nicht!" - kann es aber nicht zuordnen.
rate mal was das fürn game ist :) (außer du hast das video schon gesehen :d)

1670872567733.png
 
Das Problem ist einfach, dass die Treiber wirklich nicht das Gelbe vom Ei sind. Ich habe hier selber eine 6800XT und die Treiber sind manchmal wie Lotto spielen. Besonders gibt es derzeit 2-3 Dinge, die mich im Treiber stören, aber die leider nicht gefixt werden oder können.

400 Euro mehr im Vergleich 6800XT vs 7900XT, aus Kostengründen wurde ja hier Chiplet verwendet und im Endeffekt haben wir Kunden keinen Vorteil dadurch. Im Gegenteil, wir müssen trotzdem mehr zahlen.
Joar - so ist der Markt halt. Treiber hab ich mich geistig von entkoppelt: Ich werde ähnlich wie n Kumpel von mir wohl nächstes Jahr komplett auf Linux umsteigen und dann stört mich das etwas weniger (sieht verhältnismäßig gut aus dort) und dann hab ich meinen Seelenfrieden. Ist natürlich nicht für alle die Lösung, aber für mich. Die paar Befehle mit Wiki-Hilfe kann ich auch noch eingeben.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh