[Sammelthread] AMD RDNA4 RX 90x0 (XT) Smalltalk-Thread

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Stimmt und somit bestellt man bei NBB, denn der Nullprozentshop = NBB
 
Ok, das ist gut zu wissen.
Zwei meiner Kollegen haben grade ihre alte 5700XT / 3060 in Rente geschickt und da bestellt.

Würde mich ja auch reizen, aber muss vernünftig bleiben.
 
Mit der 6900XT kann mans bestimmt noch etwas aushalten, vermute ich?
 
Dank fsr je nach anvisierter Auflösung locker noch 2 Jahre.
 
Ich behalt die RX6800 auch noch 2 Jahre.
Nachfolger wird eine AT-3 mit 48 CU,s.
 
Laut PCGH 11/25 ist der dGPU-Marktanteil von AMD auf 6 % zusammengeschrumpft, "keiner" kauft mehr AMD Radeon ... es sei denn wir tun es! Wäre doch blöd, wenn AMD beschließen würde das es keinen Sinn mehr ergibt sich weiter zu engagieren, oder? Ich bin jedenfalls von der Leistung der 9070XT positiv überrascht :-) !
Nachtrag: Vom Preis sowieso! (lag bei mir noch > 660 EUR)
 
@exi78 jup, die langweilt sich in den meisten Szenarios hier.

Denn viel forderndes wird aktuell nicht gespielt, mal von vershadertem Minecraft oder Cyberpunk mit Mods abgesehen.

Ich bin aber gespannt wie Dying Light - The Beast laufen wird.
Ist mir aktuell aber zu teuer zu kaufen... mein Pile of Shame ist so schon riesig :d
 
Ich bin jedenfalls von der Leistung der 9070XT positiv überrascht :-) !
Nachtrag: Vom Preis sowieso! (lag bei mir noch > 660 EUR)
Preis war eher meh, im vergleich zu einer RX6800XT die es mal für 426€ bei Mindfactory gab.
Meine RX6800 nonXT gabs vor 2 Jahren auch für dreihundert und ein paar zerquetschte € hinterhergeworfen.
Die RX9070XT müsste schon fast doppelt so schnell sein, damit sie bessere Preis Leistung hätte.
Ist aber leider nicht der fall. Für mich bleibt die beste Radeon gen immer noch die Technisch schon 5 Jahre alte RDNA 2.
 

Anhänge

  • 1760113106980.png
    1760113106980.png
    31,1 KB · Aufrufe: 19
  • 1760113136943.png
    1760113136943.png
    31,5 KB · Aufrufe: 19
Ich glaube nicht, dass alte Zeiten = Preise zurück kommen werden. Ich drück trotzdem mal beide Daumen dafür.
P.S. Ohne den starken Euro wäre wir lange nicht in / um 600 EUR.
 
@Nighteye
Du bringst immer eine 6800 XT als Beispiel. Die hast du aber nicht. Eine XT ist noch mal um ~15-20 % schneller als eine normale 6800.
 
Um ehrlich zu sein die Schleuderpreise bei RDNA 2 kamen ja auch erst als RDNA 3 losging.
Davor gabs 6800/XT für viel mehr als die späteren Knallerpreise.
 
Ja, die Karten waren toll aber für 4K nicht wirklich zu gebrauchen.
Ich nutze seit 2014 4K Monitore von ASUS (Klick), damals noch mit SLI. Nur generiert eine Karte eben nicht ausreichend Leistung in 4K und Crossfire war Müll.
Leider gilt das auch heute noch, sonst wäre ich nicht bei der 4090 hängen geblieben (keine 5090, weil es dafür andere Gründe gibt, unter anderem weil man im Alter ruhiger wird und nicht mehr jeden Scheiß haben muss).
 
Hab noch eine RX6800 Ref von 2021 für satte 610€ hier liegen, ein Erinnerungsstück an Zeiten die ich auf dem Grafikkartenmarkt nicht mehr haben möchte, obwohl ich damals 2x RX6800 Ref, 1x RX6700XT Ref und 1x RTX 3080 FE ergattern konnte 😅
 
Nun, damals hatte ich auch 1x 6800 - 1x 6800XT , dann selbst beim Drop am Faschingsdienstag eine 6800XT ergattert (Wurde dann benutzt bis zum Kauf der 7900XTX Dezember 2022)
und nochmals auch Jux bei einer Versteigerung mitgemacht und durch Nichtwollen eine 6900XT bezahlen müssen und jene mit 140 Euro Miese verkauft!
 
Du bringst immer eine 6800 XT als Beispiel. Die hast du aber nicht. Eine XT ist noch mal um ~15-20 % schneller als eine normale 6800.
Hast evtl meinen Post nicht verstanden.
Ich erwähnte ja den Preis der 6800XT.
Und im Anhang 2 Bilder mit FPS vergleichen zwischen 6800XT und RX9070XT.
Und die daraus kalkulierende Preis Leistung gegenüber einer RX9070XT ist besser bei dem von mir erwähnten RX6800XT Preis von vor 2 Jahren.
Ich brachte meine normale RX6800 nicht als Bild Beispiel, weil PCGH die nicht mit getestet hat. Aber auch die RX6800 welche teilweise Neu für 330€ weg gingen, waren Mega Preis Leistung auf höchstem Niveau.

Das du jetzt auf einmal von deiner RTX 4090 und deinen 4K sprichst, um meine Karte schwach zu reden, erscheint mir eher wie Langeweile deinerseits.
Deine Karte ist Preis Leistung schlechter, um nicht zu sagen letzter Platz. Meine Karte mit das beste. Mir gings nur um Preis Leistung. Das ist alles.

Für mich Persönlich sind RTX 4090 Käufer wirklich die am wenigsten Intelligenten.
Für das Geld hätte ich mir 30 Jahre Mittelklasse Radeons kaufen können.

So sieht meine History die letzten 15 Jahre zumindest aus.
2011 HD6870 129€ Mindfactory
2016 Polaris 199€ Mindfactory
Dann zuletzt die RX6800 350€ Mindfactory

Macht 678€ von 2011 bis heute.
Und meine Karte wird noch Jahre genutzt.

Wird wohl erst 2028 durch die AT3 Mittelklasse ersetzt welche so viel kosten sollte wie eine RX9060XT 16GB heute (also ca 350€)
1760173454785.png


Und die Karte werde ich dann wieder mindestens 5 Jahre nutzen.
Wären dann 1000€ von 2011 bis 2033. Also über 22 Jahre und nur die hälfte des Geldes einer RTX 4090/5090 bezahlt.
Daher halte ich die Nvidia Kunden für weniger Intelligent.
PS: Ich Spiele zwar nicht in 4K. Aber 3440x1440 ist auch schön. Und da gibt es etwas, das nennt sich Optimierung.
Details mal von Ultra auf High runterschrauben. Frame Gen. Ich Spiele mit Star Citizen eines der Anspruchsvollsten Spiele würde ich sagen, und meine GPU reicht.
Ich habe sie sogar auf 150W gedrosselt (400mhz weniger Takt) weil die Leistung genug ist.
Wenn ich eines Tages mehr Leistung brauche, lasse ich die Karte für das Spiel dann einfach mal im Standard Takt laufen.
 
Zuletzt bearbeitet:
Und im Anhang 2 Bilder mit FPS vergleichen zwischen 6800XT und RX9070XT.
Und die daraus kalkulierende Preis Leistung gegenüber einer RX9070XT ist besser bei dem von mir erwähnten RX6800XT Preis von vor 2 Jahren.
Ich brachte meine normale RX6800 nicht als Bild Beispiel, weil PCGH die nicht mit getestet hat. Aber auch die RX6800 welche teilweise Neu für 330€ weg gingen, waren Mega Preis Leistung auf höchstem Niveau.

Das sind jetzt auch sehr schlechte Beispiele die du da gewählt hast als Vergleich. In den Meisten Fällen ist der Leistungsunterschied zwischen 6800XT und 9070XT <40% zugunsten der 9070XT.

Und die Karte werde ich dann wieder mindestens 5 Jahre nutzen.
Wären dann 1000€ von 2011 bis 2033. Also über 22 Jahre und nur die hälfte des Geldes einer RTX 4090/5090 bezahlt.
Daher halte ich die Nvidia Kunden für weniger Intelligent.
PS: Ich Spiele zwar nicht in 4K. Aber 3440x1440 ist auch schön. Und da gibt es etwas, das nennt sich Optimierung.
Details mal von Ultra auf High runterschrauben. Frame Gen. Ich Spiele mit Star Citizen eines der Anspruchsvollsten Spiele würde ich sagen, und meine GPU reicht.
Ich habe sie sogar auf 150W gedrosselt (400mhz weniger Takt) weil die Leistung genug ist.
Wenn ich eines Tages mehr Leistung brauche, lasse ich die Karte für das Spiel dann einfach mal im Standard Takt laufen.

Finde ich es irgendwie cool das du deine Hardware so lange nutzt und daran Freude hast.

Ich für meinen Teil warte schon sehnsüchtig auf die nächste Gen :d
 
Und die daraus kalkulierende Preis Leistung gegenüber einer RX9070XT ist besser bei dem von mir erwähnten RX6800XT Preis von vor 2 Jahren.
Vor zwei Jahren gab es allerdings schon die Nachfolgegeneration in Form der 7000er. Klar, dass da die 6000er da im Preis gefallen sind. Vergleicht man die Launchpreise - 649€ bei dir 6800XT (zu welchem man die dank Corona und Crypto lange gar nicht bekommen hat) - sieht es gleich anders aus.
 
Logisch. Gerade die Corona Preise waren schlimm. Meine Polaris war ein guter alter Krieger und hat die Corona Zeit zum glück durchgestanden bis es wieder gute Preise gab.
Die Karte lief noch bis letztes Jahr im Rechner der Partnerin für World of Warcraft. Schon erstaunlich.
Ca 70% mehr FPS hatte ich beim Wechsel.
(Hier ist eine Stark OC Polaris im vergleich)
1760184038658.png


Aber so viel hat sich seit dem auch nicht getan, wenn ich sehe wie bei vielen Benchmarks eine RTX 5060ti gegen eine RTX 3060 verliert.
 

Anhänge

  • Geforce RTX 5060 8GB Bad Memory Edit.jpg
    Geforce RTX 5060 8GB Bad Memory Edit.jpg
    136,8 KB · Aufrufe: 12
Zuletzt bearbeitet:
Wenn mans so sieht, ist die B580 immer noch eine gute Investition für unter 300€ und 12GB VRAM 👍
 
@Nighteye
Alles gut. Ich gebe lieber einmal richtig Geld aus und habe dann längere Zeit Ruhe, anstatt jedes Jahr eine neue Midrange Karte zu kaufen (die dann für 4K Gaming eh zu schwach ist).
Ich habe auch nicht behauptet, dass die 6800 / 6800 XT schlecht wäre, nur reichte mir die Leistung damals nicht aus (von den Treibern mal ganz abgesehen).

PS: 3440x1440 ~ 4,95 Millionen Pixel -> 3860x2140 ~ 8,3 Millionen Pixel = fast doppelte Last
 
@Nighteye
Alles gut. Ich gebe lieber einmal richtig Geld aus und habe dann längere Zeit Ruhe, anstatt jedes Jahr eine neue Midrange Karte zu kaufen (die dann für 4K Gaming eh zu schwach ist).
Ich habe auch nicht behauptet, dass die 6800 / 6800 XT schlecht wäre
Da du mir jetzt so freundlich geantwortet hast, will ich meinen Ton auch runter fahren. Sorry für meine Härte.
Mal aus purer Neugierde gefragt.
Welche Grafikkarten hattest du vor der RTX 4090 ?
Mir gehts bei der Frage speziell um den Zeitraum 2014 (Also ab da, wo du in 4K spielst)
Zähl mal bitte alle auf. Danke
 
Fakt ist: ne GPU über 300w werde ich 24/7 im Gehäuse nicht betreiben oder eben Untervolten bis es passt.
Wieso denn das, 350 - 400 wären auch in Ordnung ich würde die dann im Zweifelsfall wasserkühlen. Das ist dieses mal lediglich nichts geworden weil es bei der 9070 keinen Sinn macht und der einzige Kühler von Alphacool 200 € kostet, so gesehen schon ein Drittel des Kartenpreises. Das macht zumindest für mich keinen Sinn da ich sofort wechseln würde wenn es ~4090-5090 Performance um die 1 K gäbe. Und das ist mal zu erwarten in 2026.
Da du mir jetzt so freundlich geantwortet hast, will ich meinen Ton auch runter fahren. Sorry für meine Härte.
Mal aus purer Neugierde gefragt.
Welche Grafikkarten hattest du vor der RTX 4090 ?
Mir gehts bei der Frage speziell um den Zeitraum 2014 (Also ab da, wo du in 4K spielst)
Zähl mal bitte alle auf. Danke
Ich hatte seit 2015 einen 4K-Monitor was mit einer 780 Ti zwar lief aber definitiv zu früh war. Von allen Flaggschiffmodellen war die 7900 XTX die erste wo ich sagen würde dass sie nahezu alles perfekt erfüllt bei 4K. Einzig RT ist immer so eine sache, ist bei NVIDIA aber nicht besser. Selbst mit einer 4090 gibt es Spiele wo man Sachen runterstellen müsste. Die 9070 ist dennoch eine gute 4K-Karte da sie im Endeffekt nur eine sparsamere 7900 XTX / 4080 ist. Da ist dann auch egal ob die XTX 10 % mehr FPS in BF6 liefert, OC/UV können beide und die XT kann diese Leistung mit nur 300 W abliefern. Ich habe das PT auf -15 gesetzt.
 
Da du mir jetzt so freundlich geantwortet hast, will ich meinen Ton auch runter fahren. Sorry für meine Härte.
Mal aus purer Neugierde gefragt.
Welche Grafikkarten hattest du vor der RTX 4090 ?
Mir gehts bei der Frage speziell um den Zeitraum 2014 (Also ab da, wo du in 4K spielst)
Zähl mal bitte alle auf. Danke
2x die GTX 680 und bin dann auf 2x GTX 980 umgestiegen (alles Wassergekühlt).
CPU war damals Sockel 2011 der i7-4930K (ich musste auch erst im 3DMark nachschauen).


Von den zwei 980 auf eine 1080 Ti, 2080 Ti, 3090, 4090.
 
Zuletzt bearbeitet:
2x die GTX 680 und bin dann auf 2x GTX 980 umgestiegen (alles Wassergekühlt).
Und dann 2022 von 2x GTX 980 auf RTX 4090 ? Hast ja dann quasi einen Sprung von 4 Generationen gemacht.
GTX 900 -> GTX 1000 -> RTX 2000 -> RTX 3000 -> RTX 4000.
 
Nee habe ich oben ergänzt.

2x GTX 980, 1080 Ti (Founders), 2080 Ti, 3090, 4090.
 
Mit der 6900XT kann mans bestimmt noch etwas aushalten, vermute ich?
Mein Bekannter spielt damit RDR2 und sowas auf 1440p Widescreen, geht noch gut aber ich empfehle ihm immer die zu verscherbeln und sich zumindest die 9060 XT zu holen. Der ist sicher auch zu faul den FSR4-Treiberhack zu benutzen den ich ihm geschickt habe. Allen RDNA2/3-Nutzern würde ich es raten, es scheint tatsächlich zu funktionieren da kann man hoffen dass AMD vielleicht einsieht das auch offiziell zu bringen.
Ich behalt die RX6800 auch noch 2 Jahre.
Nachfolger wird eine AT-3 mit 48 CU,s.
Ich will mir noch eine 6800 kaufen sobald die Preise auf die 100 zugehen. 200 habe ich schon gesehen. So eine Karte wäre gut als Rücklage. Mir würde schon eine Karte mit DP und HDMI 2.x reichen aber die wollen alle Mondpreise für ihre RX 480/Vega/1070. Und weit über 50 € für eine 10 J alte Karte mit EOL Treiber zu zahlen ist Schwachsinn.
Und dann 2022 von 2x GTX 980 auf RTX 4090 ? Hast ja dann quasi einen Sprung von 4 Generationen gemacht.
GTX 900 -> GTX 1000 -> RTX 2000 -> RTX 3000 -> RTX 4000.
Das ist heftig wobei ich kein SLI gemacht hätte. Ich hatte auch die 1070 aber mit der 1080 Ti gings dann ab die wurde damals auch als erste 4K60-Karte beworben. Mehr als 60 gab es damals einfach nicht. Und die ersten 144er 4K waren absoluter Schrott und kosteten 1,5 K, ich habe für meinen 65 Zoll OLED TV weniger bezahlt. Immer noch über 1 K aber er läuft schon Jahre und vermutlich bis er mal kaputt geht das Ding war jeden Cent wert. Dabei habe ich vorher schon oft auf dem TV gezockt. Wir können froh sein dass es nun so viel Leistung gibt, die Leute vergessen immer dass nun jeder von 144 Hz 4K redet früher war bei 60 Schluss und dafür reicht bereits eine Karte wie die 6900 XT (=9060) dicke. Für 60 Hz würde sich eine 9070 oder XTX nicht lohnen.
 
Da du mich zitiert hast:
Wieso denn das, 350 - 400 wären auch in Ordnung ich würde die dann im Zweifelsfall wasserkühlen.

1. Geräusch/Temp Reduzierung ohne zusätzliche mittel - wie extra Umbauten, Wakü, etc.pp. Das ist auch der Hauptgrund.

Aus meinem gedämmten und daher generell etwas wärmeren Silent Base 601 würde ich die Nitro+ bei ihren Stock 330w deutlich raus hören.
Mit ihren festgesetzten 250w eben halt gar nicht.
Meine Antwort:
Keine Ahnung ... ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh