Mit Chiplets, RDNA 3 und Größe ist nicht alles: Die Radeon RX 7900 XTX und XT im Test

jo hab ich auch gesehen. fragt sich nur warum. kriegt die karte in 4k die fps nicht durchgedrückt?
AMD hat seit jeher in 4K große Leistungsverluste (versus NVIDIA, im Sprung von FHD->WHQD->4K), manche sagen, das hänge am langsameren VRAM, andere sehen Gründe in der Architektur.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Reicht dir die Leistung denn nicht ? Lohnt sich eigentlich nicht aufzurüsten wenn du mich fragst.
Warte doch lieber auf die nächste Gen. Sprich RTX 5000 & RDNA 4
Zocke aktuell bei 5120x1440 bzw. 2560x1440 und da wäre mehr Leistung nicht schlecht. Aber weder die 4080 noch die 7900 XTX überzeugen mich wirklich bei den aktuellen Preisen.

Wobei man sagen muss, dass eine 7900 XTX für 1149€ ein besseres P/L hat als eine 3090 TI, die ich vorher hatte. (Nur eben ohne DLSS..)
 
Wenn man minimum 2 Jahre warten möchte^^

Spielt doch keine Rolle. Viel merken würde er vom Wechsel ja nicht. Ist ja nicht so wie Früher.
Früher gabs in einer Gen mehr Leistungssprung als heute in 2 Gens. (Geforce 5 auf 6 oder 6, oder 7 auf 8, und immer mehr als 120% Extra leistung)
Daher lohnt es sich einfach nicht mehr, jede Gen mit Mini Sprung mitzunehmen.
 
Schade dass mit der RT Leistung. Damit fällt für mich AMD raus.
Sitze hier noch auf meiner 1070. Mehr als 500€ hab ich nie für eine GPU ausgegeben aber so kommt man heut nicht mehr weit. Hatte auf eine 6900xt geschielt, doch dachte ich wart noch die neuen GPUs ab. Jetzt ist sie unter 800€ nicht mehr zu haben.
Naja mal auf eine 4060 ti für 600€ hoffen. Da werden wohl noch ein paar Monate ins Land gehn.
 
in hitman läuft die 7900xtx auch wieder so wie man sie sich gewünscht hätte

1670866216863.png
 
Zocke aktuell bei 5120x1440 bzw. 2560x1440 und da wäre mehr Leistung nicht schlecht. Aber weder die 4080 noch die 7900 XTX überzeugen mich wirklich bei den aktuellen Preisen.

Wobei man sagen muss, dass eine 7900 XTX für 1149€ ein besseres P/L hat als eine 3090 TI, die ich vorher hatte. (Nur eben ohne DLSS..)
RSR und auf RDNA 4 warten würde ich an deiner stelle wohl auch. Die neuen Gens sind zu endtäuschend.
 
Wenn man minimum 2 Jahre warten möchte^^

Nächstes Jahr wird es von AMD mit Sicherheit eine hochgezüchtete Variante mit ~450-500 Watt geben, und NVIDIA haut dann die 4090 Ti mit echten 600 Watt raus, ggf. sogar mit 48 GB VRAM (um die ganzen 4090 Besitzer zum Aufrüsten zu drängen), die alles und jeden Platt macht (inkl. Stromrechnung).
Beides kann ich aktuell nicht glauben.
Die Tests bei der 4090 haben gezeigt, dass alles über 350 Watt kaum einen Mehrwert liefert. Da fast das Doppelte reinzujagen, für 5% mehr Leistung oder so? Evtl. 10%? Kein Plan. Sehe da nicht so den Markt ehrlich gesagt. Dafür ist es aktuell viel zu beliebt den Verbrauch zu drücken und trotzdem alles zu maxen in Games. 10% Mehr würden ja nicht mal was bringen, bis in 1-2 Jahren Spiele kommen, die das auch fordern in der Menge.

Bei RDNA3 sieht es ähnlich aus.
Auch hier zeigen OC Versuche keinen nennenswerten Sprung. Habe in einem Review was von 5% gesehen in Sonderfällen, aber das war es dann auch schon. Die vertragen viel mehr Strom nicht mal. (kommen mit weniger aber wohl auch nicht aus).

Das Einzige, was ich wirklich sehen kann, ist eine neue Line von NVidia: "RTX 40XX Eco" - wo sie ab Werk die Effizienz pushen und sowas wie "95% der Leistung für 60% Watt!" - bewerben.
Nach Oben scheinen beide Architekturen keinen vermarktbaren Spielraum zu liefern.
 
Manche Benchmarks sind wirklich komisch, scheinbar hat die 7900 XTX im Raytracing zur Vorgängergeneration stellenweise überhaupt keine Verbesserung? Erst wenn FSR ins Spiel kommt, kann man die 6950 etwas abhängen.

Man beachte hier:

RT Ultra 6950 XT: 52 FPS
RT Ultra 7900 XTX: 53 FPS

1670866379347.png
 
ich sag ja. je nach spiele parcour ist mal amd gleich auf oder darunter


1670866380287.png
 
Beides kann ich aktuell nicht glauben.
Die Tests bei der 4090 haben gezeigt, dass alles über 350 Watt kaum einen Mehrwert liefert. Da fast das Doppelte reinzujagen, für 5% mehr Leistung oder so? Evtl. 10%? Kein Plan. Sehe da nicht so den Markt ehrlich gesagt. Dafür ist es aktuell viel zu beliebt den Verbrauch zu drücken und trotzdem alles zu maxen in Games. 10% Mehr würden ja nicht mal was bringen, bis in 1-2 Jahren Spiele kommen, die das auch fordern in der Menge.

Bei RDNA3 sieht es ähnlich aus.
Auch hier zeigen OC Versuche keinen nennenswerten Sprung. Habe in einem Review was von 5% gesehen in Sonderfällen, aber das war es dann auch schon. Die vertragen viel mehr Strom nicht mal. (kommen mit weniger aber wohl auch nicht aus).

Das Einzige, was ich wirklich sehen kann, ist eine neue Line von NVidia: "RTX 40XX Eco" - wo sie ab Werk die Effizienz pushen und sowas wie "95% der Leistung für 60% Watt!" - bewerben.
Nach Oben scheinen beide Architekturen keinen vermarktbaren Spielraum zu liefern.
NVIDIA hat bereits bei der 3090 Ti bewiesen, dass es bei dem Vollausbau "Premium Line" Produkt nicht um Effizienz geht. Das wäre zudem ein Grund dafür, 2x den neuen 12+4Pin Anschluss draufzuklatschen. Die "Enthusiasten" würden NVIDIA eine 4090 TI mit 48 GB VRAM aus der Hand reißen. Da würde jeder mittelklassige Content Creator/Designer/whatever mit Kussmund entgegen springen und seine überteuerte Workstation Karte beerdigen. 24 GB VRAM sind für viele semi-professionelle Anwendungen (aktuell vor allem AI Tasks) leider ein riesiger Flaschenhals.
 
gibts schon VR benchmarks ?
vermute aber da ja heutzutage min 4K gerendert wird pro auge wird auch da die AMD etwas einknicken.
vorteil: es gibt dort kaum RT und DLSS sieht auch bescheiden aus.

andere Sache: wenn die custom modelle stark OC können, schmilzt der Vorsprung in Rasterleistung der 4090 vlt ja noch mehr.
 
Wenn man mal sehen will wie richtige Leistungssprünge in einer Generation aussehen.
Man schaue sich Geforce FX5600 vs 6600GT an. Das sind mehr als 100% Leistungszuwachs in einer Gen, bei ca gleichem verbrauch.
Und so ging das schon Jahre davor so, und Jahre danach.
Zb Geforce 6600GT auf 7600GT legt um 66% Leistung zu.
Wenn man sich hier anschaut, wie AMD,s neue Gen teilweise schlechtere FPS pro Watt liefert als die alte Gen, dann ist das Aufrüsten wirklich nicht Lohnenswert.
Das ist kein wirklicher Sprung wie wir ihn damals hatten.
Eine Generation damals.jpg
 
andere Sache: wenn die custom modelle stark OC können, schmilzt der Vorsprung in Rasterleistung der 4090 vlt ja noch mehr.
Möglich, aber unwahrscheinlich. Das aktuelle Referenzdesign hat bereits eine riesige Vapor-Chamber und drei fette Lüfter (ist also eine "gute" Karte), zudem haben die OC Versuche bei den heutigen Reviews bereits gezeigt, dass nach oben hin in der Architektur nichts mehr zu holen ist - viel mehr könnte man da auch bei Custom Designs nicht herausholen.
 
NVIDIA hat bereits bei der 3090 Ti bewiesen, dass es bei dem Vollausbau "Premium Line" Produkt nicht um Effizienz geht. Das wäre zudem ein Grund dafür, 2x den neuen 12+4Pin Anschluss draufzuklatschen. Die "Enthusiasten" würden NVIDIA eine 4090 TI mit 48 GB VRAM aus der Hand reißen. Da würde jeder mittelklassige Content Creator/Designer/whatever mit Kussmund entgegen springen und seine überteuerte Workstation Karte beerdigen. 24 GB VRAM sind für viele semi-professionelle Anwendungen (aktuell vor allem AI Tasks) leider ein riesiger Flaschenhals.
Aber ob NVidia sich den viel lukrativeren Markt der Profikarten kaputtmachen will?
Sehe dafür eigentlich keinen Grund.
Wie Du schon sagst: Mit 48gb wäre das ne Idee und ein Use-Case,... aber halt auch ein Schuss in den eigenen Fuß.
Wobei mein neues Netzteil in der Tat mit 2x 12+4 ausgeliefert wurde haha.
 
Wenn man mal sehen will wie richtige Leistungssprünge in einer Generation aussehen.
Man schaue sich Geforce FX5600 vs 6600GT an. Das sind mehr als 100% Leistungszuwachs in einer Gen, bei ca gleichem verbrauch.
Und so ging das schon Jahre davor so, und Jahre danach.
Zb Geforce 6600GT auf 7600GT legt um 66% Leistung zu.
Wenn man sich hier anschaut, wie AMD,s neue Gen teilweise schlechtere FPS pro Watt liefert als die alte Gen, dann ist das Aufrüsten wirklich nicht Lohnenswert.
Das ist kein wirklicher Sprung wie wir ihn damals hatten.
Anhang anzeigen 827357
AMD hat diese gesamte Technik-Generation bei der Effizienz versagt.

Ich hatte mich so sehr auf Zen 4 gefreut und war schon am überlegen, ob ich meinen 5950x beerdigen soll.

Und dann kommt raus, dass Zen 4 eine SCHLECHTERE Effizienz hat.

Traurig...

1670867004890.png


Für mich vollkommen unverständlich, da man auf besseren Nodes unterwegs ist.

Noch viel unverständlicher ist, dass man sich über NVIDIA lustig macht, aber nicht abliefern kann in Sachen Effizienz. Wenn ich den Mund weit aufreiße, sollte auch was bei rum kommen.. ansonsten macht man sich lächerlich.
 
Wenn man mal sehen will wie richtige Leistungssprünge in einer Generation aussehen.
Man schaue sich Geforce FX5600 vs 6600GT an. Das sind mehr als 100% Leistungszuwachs in einer Gen, bei ca gleichem verbrauch.
Und so ging das schon Jahre davor so, und Jahre danach.
Zb Geforce 6600GT auf 7600GT legt um 66% Leistung zu.
Wenn man sich hier anschaut, wie AMD,s neue Gen teilweise schlechtere FPS pro Watt liefert als die alte Gen, dann ist das Aufrüsten wirklich nicht Lohnenswert.
Das ist kein wirklicher Sprung wie wir ihn damals hatten.
Anhang anzeigen 827357
Da hatten wir auch deutlich größere Node Shrinks... die großen Leistungssprünge der Vergangenheit sind quasi Geschichte. Wir nähern uns dem Punkt, wo "kleine" Node shrinks extrem teuer werden (vielfach Faktor), die Leistungsgewinne aber im einfachen bis unteren zweistelligen %-Bereich liegen. Deshalb versucht sich AMD ja bereits an Chiplets. Der Chip in der Mitte wird auf der teuren Node gebaut, und der Kram drumherum wird in günstigeren Chargen produziert. Funktioniert bisher aber bzgl. Effizienz mal überhaupt nicht.

Das Spiel dürfte noch 3-5 Generationen gut gehen, danach landet die Industrie an der Wand. Dann wird es fast nurnoch um Architektur / Software gehen (sofern wir bis dahin keinen technischen Durchbruch/neue Technik haben, z.B. Quantenkomputation).
 
Bietet FSR eigentlich die DLSS Leistung? Ich hatte das Gefühl dass hier auch ein enormer Unterschied herrscht?
 
Tja, ich bin jetzt mal das Netz durchgegangen nach den Benches und es sieht doch eher nach 4080 Performance aus, statt "in 10% Schlagdistanz zur 4090". Die Leaks zu den Gerüchten von Hardwaredefekten des Chips haben sich wohl bewahrheitet und "Software-Lösungen" um Hardwarefehler zu beheben kosten halt Performance. So sehr ich AMD auch gewünscht habe zu Mindest in Raster der 4090 auf die Pelle zu rücken, muss ich hier den Rotstift zücken und sagen, dass ich nicht beeindruckt bin.

4080 Performance (+/- 5% nach Spiel) in Raster für weniger Geld mit 3090Ti Performance im Raytracing sind für den Preis "okay", aber wer auch immer grünes Licht für den halbausgereiften Chip gegeben hat, sollte für einen Monat lang den Raja-Hut tragen.

Was bleibt ist mal wieder "Warten auf den Refresh" mit den gefixten Chips und wenn AMD nicht die Eier hat das zu tun "weil ein Re-Tape zu teuer ist" dann gute Nacht. Den Trostpreis gewinnt AMD auf Linux - dort sehen die Relativwerte etwas besser aus. Aber hey, wenn AMD das Ding selbst gegen die 4080 setzt, isses wohl "okay". Schade. Für den Preis okay, aber den Halo-Effekt hat AMD verpasst.
 
Linus test
hier liegt die xtx hinter der 4090 in cod

1670867330488.png


bei hardware unboxed liegt sie vor der 4090

1670867466316.png

da sieht man mal wie krass die unterschiede sind

lest mehrere tests !
 
Ein Thema, dass wir hier noch gar nicht aufgemacht haben irgendwie:
Leider hat sich AMD die 4080 / 4090 zum Vorbild genommen für ihre zwei Karten.

Die 4080 wirkt so, als wäre sie nur dafür da, die 4090 besser aussehen zu lassen.
Bescheidener Preis, großer Leistungsunterschied.

Bei XT -> XTX sieht es recht ähnlich aus bei genauerer Betrachtung. Wegen 100 Dollar weniger (10%) bekommt man überdurchschnittlich mehr Abzug bei der Performance. Deutlich mehr als 10%. So gilt auch hier: P / L ist beim teureren Modell besser, was ich absolut Banane finde. Bei beiden Herstellern.
Das Haloprodukt darf ja kosten was sie wollen. Das ist nun mal so, in jedem Bereich des Lebens. Aber "darunter" ist dann P / L durchaus relevant.
Kann man nur hoffen, dass sie das nicht bis ins Mid-Range durchziehen und die GPUs zwar immer billiger, aber immer weniger relative Leistung bekommen.
 
Da hatten wir auch deutlich größere Node Shrinks... die großen Leistungssprünge der Vergangenheit sind quasi Geschichte. Wir nähern uns dem Punkt, wo Node shrinks extrem teuer werden (vielfach Faktoren), die Leistungsgewinne aber im einfachen bis zweistelligen %-Bereich liegen. Deshalb versucht sich AMD ja bereits an Chiplets. Der Chip in der Mitte wird auf der teuren Node gebaut, und der Kram drumherum wird in günstigeren Chargen produziert. Funktioniert bisher aber bzgl. Effizienz mal überhaupt nicht.

Das Spiel dürfte noch 3-5 Generationen gut gehen, danach landet die Industrie an der Wand. Dann wird es fast nurnoch um Architektur / Software gehen.
Kann man nur hoffen dass das Lehrgeld für die Zukunft ist. Wenn das Design sich später als richtungsweisend herausstellt und man es perfektionieren kann werden die Karten neu gemischt. Das passiert aber nicht in absehbarer Zeit
 
Bietet FSR eigentlich die DLSS Leistung? Ich hatte das Gefühl dass hier auch ein enormer Unterschied herrscht?
FSR bietet in etwa DLSS 2.X Leistung in Sachen FPS, grafisch ist DLSS allerdings die "bessere" Wahl.

Bei DLSS 3.0 rennt aktuell NVIDIA AMD weg und NVIDIA kann hier in RT Titeln wie Cyberpunk die 3x FPS Zahl rausballern, bei ähnlicher/gleicher Grafikqualität (zu FSR 2.X). Da reden wir von 35 FPS vs 100 FPS. Das sind Welten.
 
Linus test
hier liegt die xtx hinter der 4090 in cod

Anhang anzeigen 827361

bei hardware unboxed liegt sie vor der 4090


da sieht man mal wie krass die unterschiede sind
13900K, 5800X3D, 12900K, 7950X, 5950X.... bei der aktuellen GPU Leistung machen die CPUs auf einmal sau viel aus, weil sie einfach das Bottleneck sind. Selbst in 4k teilweise noch.
Nicht jeder Reviewer scheint die Systemspecs anzugeben, aber das sind die 5 CPUs, die mir heute aufgefallen sind.

Subjektive Tendenz:
13900K hilft Nvidia etwas mehr und je langsamer die CPU relativ wird, desto näher kommt AMD, bzw. überholt auch mal.
Würde ich als auffällig bezeichnen, dass RDNA 3 im CPU Limit mehr Spielraum zu haben scheint. Ein eindeutiger Vorteil!
 
Würde ich als auffällig bezeichnen, dass RDNA 3 im CPU Limit mehr Spielraum zu haben scheint.
Man könnte auch eine Umkehrformulierung treffen und sagen, dass die 4090 mehr Leistung braucht, als aktuelle CPUs liefern können - was am Ende des Tages gut ist, weil die Karte dementsprechend noch lange nicht am Limit ist und bei stärkeren CPUs in Zukunft mehr liefern wird^^
 
Ein Thema, dass wir hier noch gar nicht aufgemacht haben irgendwie:
Leider hat sich AMD die 4080 / 4090 zum Vorbild genommen für ihre zwei Karten.

Die 4080 wirkt so, als wäre sie nur dafür da, die 4090 besser aussehen zu lassen.
Bescheidener Preis, großer Leistungsunterschied.

Bei XT -> XTX sieht es recht ähnlich aus bei genauerer Betrachtung. Wegen 100 Dollar weniger (10%) bekommt man überdurchschnittlich mehr Abzug bei der Performance. Deutlich mehr als 10%. So gilt auch hier: P / L ist beim teureren Modell besser, was ich absolut Banane finde. Bei beiden Herstellern.
Das Haloprodukt darf ja kosten was sie wollen. Das ist nun mal so, in jedem Bereich des Lebens. Aber "darunter" ist dann P / L durchaus relevant.
Kann man nur hoffen, dass sie das nicht bis ins Mid-Range durchziehen und die GPUs zwar immer billiger, aber immer weniger relative Leistung bekommen.
selbes sieht man zz am markt. die non OC modelle sind weniger verfügbar.
sicher weil es sich rumgesprochen hat, dass man in afterburner auch selber eben den regler nach rechts ziehen kann und so 50€+ spart
sprich hersteller bietet sie nur an, um einen leckeren einstiegspreis angeben zu können.
 
Der Stromverbrauch im Idle ist auch einfach lachkick 😂

Dachte kurz bin wieder in 2006 angekommen
 
Bei XT -> XTX sieht es recht ähnlich aus bei genauerer Betrachtung. Wegen 100 Dollar weniger (10%) bekommt man überdurchschnittlich mehr Abzug bei der Performance. Deutlich mehr als 10%. So gilt auch hier: P / L ist beim teureren Modell besser, was ich absolut Banane finde. Bei beiden Herstellern.
Das wird AMD mit Sicherheit so nicht geplant haben.
Nur hat NVIDIA durch ihren gewaltigen Leistungssprung AMD in Zugzwang gebracht - die 7900 XTX sollte mit Sicherheit teurer werden, doch da AMD hier leistungstechnisch sich niemals in Richtung 4090 bewegen konnte (ohne vernichtet zu werden; wäre die 7900 XTX teurer, hätten die Reviewer sich die 4090 als Pendant Karte genommen), musste man die Preise nach unten korrigieren. Der Preis der 7900 XT ist albern - und der Unterschied zur 7900 XTX sollte mit Sicherheit auch deutlich größer sein, doch weiter runtergehen konnte AMD hier wohl nicht - TSMC will für ihre Nodes viel Geld, und AMD muss man Ende des Tages noch etwas Gewinn machen. Bei dem Leistungsunterschied zwischen 7900 XT und 7900 XTX sollte der ursprüngliche Preisunterschied wahrscheinlich bei ~20% liegen.

Der einzige Vorteil von AMD ist hier, dass NVIDIA aus purer Gier die 4080 extrem stark beschnitten hat. Hätten wir eine "echte" 4080 mit entsprechender Leistung (bei selben/günstigerem Preis), würde diese gesamte AMD Generation in Grund und Boden gestampft und müsste von jedem halbwegs vernünftigen Menschen ignoriert werden (wenn man auf seinen Geldbeutel achtet). Da NVIDIA uns aber eine 4070 als 4080 verkaufen will, kommt AMD durch - grade so.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh