Mit Chiplets, RDNA 3 und Größe ist nicht alles: Die Radeon RX 7900 XTX und XT im Test

Das sind die US Preise... und auch noch die vor dem Preiscut der 4080...

Die 4080 gibts aktuell, laut Idealo, ab 1400 €.

Schauen wir mal, wo die 7900 XTX stehen wird. Würde mich ernsthaft wundern, wenn es die unter 1200 € geben würde.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
der Unterschieb beträgt ja auch nur lächerliche 850€ :ROFLMAO::ROFLMAO::ROFLMAO:
Beitrag automatisch zusammengeführt:


und der Preisunterschied von 850 € nie größer :rolleyes2:

Was nützt einem der Preisunterschied in diesem Kundenkreis der eine 4090 kauft? Gar nichts selbst wenn die 7900 XTX nur 400euro kostet kauft der Kundenkreis die 4090 hier geht es um die Performance und nicht um die Preis Leistung. Darauf ging dem Postingersteller sein Kommentar hinaus und den unterstütze ich auch so denn im Performance Bereich hat AMD es leider wieder nicht geschaft irgendwas abzuliefern. Aber die Tendenz ist zumindest da das es besser wird und vielleicht in ein paar Generationen der Gap aufgeholt ist.
 
Zuletzt bearbeitet:
ir VERMUTEN ein Treiberproblem, aber es könnte ja auch ein Architekturding sein. Das Chiplet-Design ist neu.
In Anbetracht der Tatsache, dass diese exakt gleiche Problematik bei den vorherigen NAVI Generationen aufgetreten ist (heftigster Idleverbrauch + Multi Monitor + Video Playback), dürfte das hier jedenfalls kein einfach zu lösendes Problem sein. AMD arbeitet seit Jahren an dem Problem, kriegt es aber nicht gelöst. Einfach schade...
Beitrag automatisch zusammengeführt:

Was nützt einem der Preisunterschied in diesem Kundenkreis der eine 4090 kauft? Gar nichts selbst wenn die 7900 XTX nur 400euro kostet kauft der Kundenkreis die 4090 hier geht es um die Performance und nicht im die Preis Leistung. Darauf ging dem Postingersteller sein Kommentar hinaus und den unterstütze ich auch so denn im Performance Bereich hat AMD es leider wieder nicht geschaft irgendwas abzuliefern. Aber die Tendenz ist zumindest da das es besser wird und vielleicht in ein paar Generationen der Gap aufgeholt ist.
Dazu kommen auch noch die bei NVIDIA viel besseren Treiber-Optimierungen für eine größere Anzahl an Games u. kreativen Workloads, Igor hat hier einiges zu gesagt (und getestet) in seinem Review - und nicht unbedingt zum Guten. Er hat der Karte keine Kaufempfehlung gegeben, weil ihm noch zuviele Treiberprobleme da sind.
 
Wie sieht es bei den Karten mit Spulenfiepen aus? Habe ich es im Test übersehen oder ist es nicht negativ aufgefallen. Es wird hier ja ein brandneues ATX 3.0 Netzteil verwendet.
 
Ich hatte ja Bedenken beim Kauf der 4090, aber wenn ich das sehe... das ist ne herbe Enttäuschung.

Tragen wir mal die Fakten zusammen, insbesondere gegen die 4080 welche ja wie ein Stein in den Regalen liegt.

Die UVP sind 1149€ vs. 1399€, es liegen also 250€ zwischen den beiden Karten.
Für 250€ weniger bekommt man eine Karte, die je nach Auflösung etwa 3-5% mehr Rasterleistung bringt, dafür aber mit RT knapp 25% verliert und im Workstation Betrieb irgenwo zwischen 10-100% langsamer als die 4080 ist. Weiterhin:
- Kein DLSS
- kein 10-bit OpenGL
- höhere Leistungsaufnahme
- nur GDDR6 und kein GDDR6X

Weiterhin gelten die 1149€ nur für die Ref Karten, die richtigen AIB Karten liegen nochmal mindestens 100€ darüber.
Dann haben wir also eine 7900XTX TUF für 1249€+ gegen eine 4080 TUF für 1469€.

Warum sollte ich wegen etwa 15% Preisunterschied all diese Nachteile hinnehmen und habe auf einmal ein gutes Produkt, während die 4080 in allen Bereichen verflucht wird? Die 7900XTX ist bestenfalls so uninteressant wie die 4080, wenn nicht sogar noch schlimmer.
Für normale gamer die nicht auf raytracing stehen die stärkere und günstigere Karte zur 4080. In manchen games wie valhalla sogar schneller wie die 4090
 
Was nützt einem der Preisunterschied in diesem Kundenkreis der eine 4090 kauft? Gar nichts selbst wenn die 7900 XTX nur 400euro kostet kauft der Kundenkreis die 4090 hier geht es um die Performance und nicht im die Preis Leistung.
von welchem "kundenkreis" redest du da ? und was heißt "und nicht im die Preis Leistung" ?? also du zählst mal sicher nicht zu dem "Kundenkreis" ^^
 
Ich als AMD Fan bin gespannt gewesen.
Sehe den Test.
Klicke drauf.
Es hieß Ja Monatelang. Screenshot 2022-12-12 174105.jpg
Und jetzt lese ich den Test.
Ich sehe, eine RX 7900XT ist ganz leicht schneller als eine RX 6900XT.
Ok dafür verbraucht sie bestimmt auch 40% weniger denk ich mir.
Ein Blick auf die Verbräuche: Verwunderung.
Der Verbrauch ist ja Quasi Identisch.
Verbrauch 300W.jpg

Ich vermute der Fehler liegt bei mir, evtl übersehe ich ja etwas, und lese was Computerbase dazu geschrieben hat.
Ernüchterung:
CB schrieb:
"Doch dieser Niederlage nicht genug: Auch RDNA 2 ist plötzlich effizienter als RDNA 3. Die Radeon RX 6900 XT kommt 17 Prozent effizienter als die Radeon RX 7900 XTX und 4 Prozent effizienter als die Radeon RX 7900 XT ins Ziel – ein groteskes Ergebnis."

----
Was soll ich jetzt von AMD,s beworbenen 50% halten ?
Werden die kommenden Mittelklasse Karten auch so schlecht abschneiden ?
Und woran hats gelegen ?
Fragen über fragen.
 
Bei gn hieß das Fazit.

Holy coilwhine, Batman
 
Ich hoffe ich bekomme morgen eine 7900xtx ab :-)
 
In Anbetracht der Tatsache, dass diese exakt gleiche Problematik bei den vorherigen NAVI Generationen aufgetreten ist (heftigster Idleverbrauch + Multi Monitor + Video Playback), dürfte das hier jedenfalls kein einfach zu lösendes Problem sein. AMD arbeitet seit Jahren an dem Problem, kriegt es aber nicht gelöst. Einfach schade...
Hmm.
Das ist irgendwie an mir vorbeigegangen. hatte die letzte Gen nicht aktiv verfolgt, weil kein Upgrade anstand.
Wenn das so ist, dann sollte man wohl nicht von einer raschen Lösung ausgehen und lieber mit 150 Watt Multi Monitor Idle-Verbrauch rechnen derweil? Damit macht ne 4090 jedes nicht AAA bis zum FPS Cap flott und da ist dann die CPU auch schon drin.

Also ganz ehrlich:
Als es bei ADA hieß, dass da 450 und 600 Watt im Raum stehen, hatte ich nicht gedacht, dass es jetzt genau andersherum kommen könnte.
Der Stromsparer NVidia lol
 
Für normale gamer die nicht auf raytracing stehen die stärkere und günstigere Karte zur 4080. In manchen games wie valhalla sogar schneller wie die 4090
Erfahrungsgemäß finden nur jene Raytracing uninteressant, die das ganze noch nie in einem vernünftigen Game und auf vernünftigem Monitor (OLED) gezockt haben, denn wenn RT richtig läuft, ist es einfach nur geil. RT ist leider in vielen Games ein Gimmick (zB Battlefield, FarCry), weil die Developer das nicht vernünftig umgesetzt haben (nur ein Bruchteil der Features umgesetzt, und die umgesetzten laufen nur auf Minimalbetrieb), damit gewisse Karten (AMD, Hust) in Benchmarks nicht allzu heftig abrutschen.

Wer einmal ordentliches Raytracing (Control, Cyberpunk) auf einem ordentlichen TV/Monitor gezockt hat (3090/4080/4090 auf einem LG 42/48 OLED zum Beispiel) und mir hinterher erzählt, dass er das nicht mega fand, den muss ich erstmal zum Arzt schicken.

Beitrag automatisch zusammengeführt:

Also ganz ehrlich:
Als es bei ADA hieß, dass da 450 und 600 Watt im Raum stehen, hatte ich nicht gedacht, dass es jetzt genau andersherum kommen könnte.
Der Stromsparer NVidia lol
NVIDIA wird sich aktuell auch fröhlich die Hände reiben. Die haben eine geniale Node von TSMC bekommen und ihre Architektur in optimaler Weise auf die Platine gebracht - die 4090 ist ein absolutes Effizienzmonster. Ich bezweifle ernsthaft, dass wir so eine Karte in der näheren Zukunft nochmal bekommen werden.
 
Deine Karte zieht mehr! Denn 6W ist nur die Chippower, ohne z.B. den RAM Verbrauch. Eine Grafikkarte zieht im IDLE c.a. 20W komplett. Davon sind 6W nur der GPU Chip.
Den realen Verbrauch einer Grafikkarte wirst Du hier nicht zu sehen bekommen, dafür achten die Hersteller viel zu sehr auf "verschleierte" Werte um den Kunden zu verwirren.
Meine 6900 zeiht 6 Watt komplett. Der Chip ist unter 2 Watt. Das sieht man auch an der Steckdose und ich hab es auch mit der iGPU meines 7900X verglichen ohne GPU im Rechner. Ich hab nen 4K 120Hz Monitor dran. 20-30 Watt sind es mit Youtube oder Twitch.
Was AMD mit der 7900 XT(X) im Idle Verbrauch liefert, ist unter aller Sau. Ich bleib bei meiner 6900 XT und schau in 1-2 Jahren, ob ich sie upgrade. Mal sehen ob sich das bessert mit neueren Treiben. AMD hat es ja angedeutet, das die Power Stages noch nicht korrekt angebunden sind und mit zunehmender Bandbreite der Speichertakt hochfahren werden muss, damit es stabil bleibt. War bei den 6000er auch so und nach einigen Monaten ist es auch deutlich besser geworden.
 
für ein genaueres bild muss man sich mehrere tests und reviewer anschauen. die ergebniss sind bereits zwischen luxx und cb teilweise gigantisch
 
1670865266625.png



Selbst RT Gaming ist nicht möglich in 4K ! Die 4080 spielt in einer ganz anderen Liega bei RT !
 
Für normale gamer die nicht auf raytracing stehen die stärkere und günstigere Karte zur 4080. In manchen games wie valhalla sogar schneller wie die 4090


Schneller als die 4090 in valhalla, wo denn das? Ich hoffe du redest jetzt nicht von 1080p als Referenz, das wäre die falsche Auflösung für die Karten 😅

Teils ist die Karte übrigens auch nicht mal halb so schnell wie die 4090 ;)
 
was aber zu erwarten war. wer RT gaming will muss fast gezungendermaßen zu nvidia greifen solange amd nicht gleichzieht oder deutlich günstiger ist.
 
Hmm.
Das ist irgendwie an mir vorbeigegangen. hatte die letzte Gen nicht aktiv verfolgt, weil kein Upgrade anstand.
Wenn das so ist, dann sollte man wohl nicht von einer raschen Lösung ausgehen und lieber mit 150 Watt Multi Monitor Idle-Verbrauch rechnen derweil? Damit macht ne 4090 jedes nicht AAA bis zum FPS Cap flott und da ist dann die CPU auch schon drin.
Bedenken sollte man zudem, dass die meisten Reviewer kein HDR im Idle/Video Playback testen - das heißt, die tatsächlichen Zahlen (wenn jemand einen HDR Monitor ständig aktiv hat) für viele dürften nochmal ein Stück höher liegen.
 
Dazu kommen auch noch die bei NVIDIA viel besseren Treiber-Optimierungen für eine größere Anzahl an Games u. kreativen Workloads, Igor hat hier einiges zu gesagt (und getestet) in seinem Review - und nicht unbedingt zum Guten. Er hat der Karte keine Kaufempfehlung gegeben, weil ihm noch zuviele Treiberprobleme da sind.
Das kann ich nicht einschätzen aber vielleicht können die Karten mit besseren Treiber noch was gut machen. Aber es werden wohl keine Welten sein. Und ansich ist das auch etwas amüsant, denn als ich hier in irgend einem Beitrag es mal gewagt habe zu sagen das ich die AMD Treiber nicht mag da sie immer sehr hölzern sind wurde ich zurecht gewiesen das Langjährige AMD GPU Nutzer absolut keine Probleme mit den Treiber hatten und die Treiber genau so gut oder besser sind als die von NVidia. Gleichzeitig bei jedem Release einer neuen AMD GPU Gen kommt dann der Spruch "Ja die Treiber sind bei AMD immer sehr schlecht wartet mal ein paar Treiber Versionen ab dann legen die Karten noch zu" ..... Lustig.

Bedenken sollte man zudem, dass die meisten Reviewer kein HDR im Idle/Video Playback testen - das heißt, die tatsächlichen Zahlen (wenn jemand einen HDR Monitor ständig aktiv hat) für viele dürften nochmal ein Stück höher liegen.
Habe das mal getestet zumindest bei meinem System mit 4090 macht der Idle Verbrauch zwischen HDR und kein HDR 2-3 Watt aus. Auf wie im Test 6 Watt Idle komme ich aber in keinster weise bei 4K 60hz im Desktopbetrieb lieg ich da bei 20-24watt ohne hdr. Und mit hdr 2-3 watt noch dazu.
 
Ich halte allein schon die 4080 für die bessere Karte als die 7900xtx. Niedrige Auflösungen spielen bei den Karten keine Rolle, In FHD reichen auch kleinere Karten um alles perfekt spielen zu können. Erst ab 4k+ sollte man die HighEnd Modelle hier wirklich verlgeichen. Hier und mit RT schafft es die xtx meist nicht mal auf Niveau der 4080 von den optionalen Features bei den AMD hinterherhinkt mal ganz abgesehen. Daher finde ich das Fazit etwas irreführend, denn Sie kann nicht mal mit der 4080 mithalten und erst recht nicht mit der 4090. Kommt man zur Effizienz die in diversen Spielen verglichen werden, braucht dort eine 4090 oft weniger als die XTX und liefert deutlich bessere Leistung. Eine 4080 liegt in der Leistungsaufnahme in der Praxis immer unter der XTX und dann bleibt noch die Option des UV / Powerlimit drosseln wodurch die 4090 in Sachen Effizienz nochmal deutlich mehr Punkten kann, denn die verliert bei geringerem Powerlimit deutlich weniger Leistung als die XTX, hinzu kommen noch die Probleme mit der Leistungsaufnahme bezüglich mehreren Monitoren usw. was bei solchen Karten im Setup ja oft der Fall ist. Alles in allem kann AMD mit diesen Karten in keinster Weise zu Nvidia aufschließen die XTX ist die schlechtere Wahl sogar zur 4080 und in Sachen Effizienz unter Beachtung der Tuningmöglichkeiten, sehen die AMD Chips hier überhaupt kein Land. Leistung, Features und Effizienz gehen mit großem Abstand an Nvidia, da gibts überhaupt nichts schön zu reden. Somit hat AMD auch das Maximum im Preis ausgereizt was die dafür verlangen können und bleiben deshalb auch günstiger als die 4080.
 
Selbst RT Gaming ist nicht möglich in 4K ! Die 4080 spielt in einer ganz anderen Liega bei RT !
Die 7900 XTX ist RT mäßig etwa auf 3090 Niveau, das sollte hier für niemandem eine Überraschung sein. AMD hängt ca. 1 1/2 Generationen hinter NVIDIA in Bezug auf RT/DLSS.
 
Selbst RT Gaming ist nicht möglich in 4K !

Leute lasst mal die RX 7900 in ruhe. Die sitzt schon beim Therapeuten wegen
 
Ich als AMD Fan bin gespannt gewesen.
Sehe den Test.
Klicke drauf.
Es hieß Ja Monatelang.Anhang anzeigen 827334
Und jetzt lese ich den Test.
Ich sehe, eine RX 7900XT ist ganz leicht schneller als eine RX 6900XT.
Ok dafür verbraucht sie bestimmt auch 40% weniger denk ich mir.
Ein Blick auf die Verbräuche: Verwunderung.
Der Verbrauch ist ja Quasi Identisch.
Anhang anzeigen 827335

Ich vermute der Fehler liegt bei mir, evtl übersehe ich ja etwas, und lese was Computerbase dazu geschrieben hat.
Ernüchterung:
CB schrieb:
"Doch dieser Niederlage nicht genug: Auch RDNA 2 ist plötzlich effizienter als RDNA 3. Die Radeon RX 6900 XT kommt 17 Prozent effizienter als die Radeon RX 7900 XTX und 4 Prozent effizienter als die Radeon RX 7900 XT ins Ziel – ein groteskes Ergebnis."

----
Was soll ich jetzt von AMD,s beworbenen 50% halten ?
Werden die kommenden Mittelklasse Karten auch so schlecht abschneiden ?
Und woran hats gelegen ?
Fragen über fragen.
Vielleicht sollte ich einfach meine 6900 XT Toxic LE für 799€ behalten und solange warten, bis die 4080er unter 1000€ fallen.. :rolleyes2:
 
Kommt man zur Effizienz die in diversen Spielen verglichen werden, braucht dort eine 4090 oft weniger als die XTX und liefert deutlich bessere Leistung. Eine 4080 liegt in der Leistungsaufnahme in der Praxis immer unter der XTX und dann bleibt noch die Option des UV / Powerlimit drosseln wodurch die 4090 in Sachen Effizienz nochmal deutlich mehr Punkten kann, denn die verliert bei geringerem Powerlimit deutlich weniger Leistung als die XTX, hinzu kommen noch die Probleme mit der Leistungsaufnahme bezüglich mehreren Monitoren usw. was bei solchen Karten im Setup ja oft der Fall ist.
Tests zu dem Thema würden mich auf jedenfall interessieren, die Reviewer bisher haben dazu nicht viel gesagt.

Eine 4090 kann ich auf 60% Powerlimit mit leichtem UV laufen lassen (maximal ~250 Watt Verbrauch) und habe immernoch ~95% Leistung in Games, wie AMD hier wohl mit seiner 7900 XTX abschneiden wird?
 
Schneller als die 4090 in valhalla, wo denn das? Ich hoffe du redest jetzt nicht von 1080p als Referenz, das wäre die falsche Auflösung für die Karten 😅

Teils ist die Karte übrigens auch nicht mal halb so schnell wie die 4090 ;)

Das sollte man durchaus nicht unerwähnt lassen. Allerdings für "beide Lager".
Keine der hier genannten GPUs ist für 1080p gedacht.
Weder die alten 6XXXer GPUs von AMD, noch die 30er Line von NVidia... und erst recht nicht die neuen GPUs jenseits von 1.000 Euro.

Ist zwar nett zu sehen, dass AMD hier und da im CPU Limit etwas mehr Spielraum hat, aber wirklich relevant wird das vermutlich für niemand sein.
Es mag extreme Silent Fans geben, die ne 4090 kaufen, damit sie passiv 1080p@60fps spielen können, ohne das ein Lüfter angeht,... aber so extrem bin ja nicht mal ich drauf. Und ich kauf immer ne Stufe "zu hoch", damit ich die Dinger noch leiser machen kann. ;-)
 
Vielleicht sollte ich einfach meine 6900 XT Toxic LE für 799€ behalten und solange warten, bis die 4080er unter 1000€ fallen.. :rolleyes2:

Reicht dir die Leistung denn nicht ? Lohnt sich eigentlich nicht aufzurüsten wenn du mich fragst.
Warte doch lieber auf die nächste Gen. Sprich RTX 5000 & RDNA 4
 
für cod zocker ist das wohl die brecher karte


1670865902924.png
 
Reicht dir die Leistung denn nicht ? Lohnt sich eigentlich nicht aufzurüsten wenn du mich fragst.
Warte doch lieber auf die nächste Gen. Sprich RTX 5000 & RDNA 4
Wenn man minimum 2 Jahre warten möchte^^

Nächstes Jahr wird es von AMD mit Sicherheit eine hochgezüchtete Variante mit ~450-500 Watt geben, und NVIDIA haut dann die 4090 Ti mit echtem Vollausbau und 600 Watt raus, ggf. sogar mit 48 GB VRAM (um die ganzen 4090 Besitzer zum Aufrüsten zu drängen), die alles und jeden Platt macht (inkl. Stromrechnung).
 
von welchem "kundenkreis" redest du da ? und was heißt "und nicht im die Preis Leistung" ?? also du zählst mal sicher nicht zu dem "Kundenkreis" ^^
Dem Kundenkreis der eine 4090 kauft und verzeiche mir meinen Tippfehler das "i" bei "im" sollte natürlich ein "u" sein.
Und was meinst du mit ich zähle nicht zu dem (welchem?) Kundenkreis?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh