[Sammelthread] AMD RDNA5 RX 10000 (XT) Smalltalk-Thread

Ahab geht ab

Urgestein
Thread Starter
Mitglied seit
29.12.2014
Beiträge
1.387
AMD RDNA-5-KartenRadeon RX "10090 XT"Radeon RX "10070 XT"Radeon RX 10070 GRERadeon RX "10060 XT"
DieAT0AT2AT2AT2
Compute Units154644844
TBP380 Watt275 Watt235 Watt210 Watt
L2 Cache40 MB24 MB20 MB16 MB
Speicherkapazität36 GB DDR718 GB DDR715 GB DDR712 GB DDR7
-Bus384-Bit192-Bit160-Bit128-Bit
-Geschwindigkeit36 Gbps36 Gbps36 Gbps36 Gbps
Bandbreite1728 GB/s864 GB/s720 GB/s576 GB/s
Leistungsvergleich zur RTX 4080264 %120 %95 %64 %
KonkurrenzRTX 6090RTX 5080 - RTX 4090RX 9070 - RTX 4080 SuperRTX 5060 Ti - RTX 5070


Quelle MLID

Obs stimmt....Keinen Schimmer
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hier der aktuell Gerüchte- später Smalltalk Thread für das, was nach RDNA4 kommt. Sobald mehr feststeht, wird ggf. der Titel angepasst.


Dann schaun wir mal, was wir schon an Infos haben...



 
Zuletzt bearbeitet:
Ich spekuliere darauf, das es nicht RX 10000 heissen wird, sondern sich das Namens/Nummernschema schon wieder ändern wird... weil man nicht 5-stellig will und überrascht feststellen wird das nach 9000 aber was 5-stelliges käme, wenn man dem Nummerschema treu bleiben würde.

Das man das Namensschema beim letzten mal schon geändert hat und die Grakas jetzt nicht wie vorher 9700xt sondern 9070xt benannt wurden, war dann vielleicht nicht nur eine Angleichung ans NVidia-Schema, sondern die Vorbereitung das man die nächsten Grakas dann 9170xt nennen kann?

:ROFLMAO:
 
Ja wobei sich die Namensgebung auch immer wiederholt. Für AMD ist das eigentlich fast so ein großer Schritt wie damals auf RDNA1 und sie werden auch wieder im Highend mitspielen. Die 9070 wurde nicht umsonst nur "70" genannt.

Die Leaks sind noch was früh aber könnten schon stimmen. Dass es Richtung 2 x 9070 gehen wird davon kann man ausgehen, selbes Schema wie bei der 5700 XT damals zur 6900 XT, die praktisch doppelt ist und doppelt Leistung hatte. Das darf man AMD schon zutrauen wieder ein Schlachtschiff zu bringen, ob es für die 6090 reicht wird man sehen, mir würde schon eine 4090-5090 für um die 1000 € reichen. Hauptsache auch bezahlbar, wen interessieren Karten für 3 K... Selbst 1K sind schon ziemlich irre aber noch im Rahmen für Hobbygamer-Enthusiasten. Man kann ja seine alte Hardware immer verkaufen und sowas kauft sich auch kein casual gamer der nur ein paar Stunden im Monat damit zockt... Eher pro Tag.
 
Und dann zockt man auf 1080p mit 75hz :-)

Hm mit dem Startpost muss ich nochmal was probieren.
 
Zuletzt bearbeitet:
Die Radeon RX "10070 XT" wird dann wohl das Brot und Butter Performance segment für die meisten Aufrüster.
Mit nur 10% mehr IPC aber nicht lohnenswert von RX9070Xt aufzurüsten. (CU,s also Compute Unit Anzahl ist ja gleich hoch)
Vielleicht ist das die erste Karte wo es Sinn macht von RX6700XT/RX6800/RX7700XT aufzurüsten.
Allerdings nur von der Leistung. Der Stromverbrauch ist für meinen Geschmack noch etwas zu Geforce lastig, also zu Hoch.

RDNA 6 wird für mich Interessanter.
 
Denke dann kann ich gemütlich bis 2028 warten. Wer weiß, evtl erleben wir mit RDNA 6 (2028) wieder so einen heftigen Sprung wie damals von RDNA 1 auf RDNA 2.
Der Sprung RDNA 4 auf 5 soll ja laut MLID nur 10% IPC zuwachs sein, also nicht so Brutal gut wie damals RDNA 1 auf RDNA 2.
 
Dann warte mal wir haben hier kb so lange wie du zu warten und vielen geht es nur um den Nvidia Stecker
 
Ich rechne eher damit dass die 9000er der neue Budget-King werden. 10000 werden zu Anfang wieder teuer sein. Lohnen tun da nur die Highendmodelle für die die sowieso darauf gieren. Die Lücke zwischen 70 und 90 ist aber wieder sehr groß, da muss noch irgendwas rein.

Rasterleistung haben wir eigentlich schon längst genug. RT wird aufgebohrt wie schon bei RDNA4, dann noch mehr Shader und Bandbreite für ein Flaggschiff. RDNA4 würde mir mit doppelt Shadern 384-Bit schon reichen. Das käme vermutlich irgendwo um 4090 raus. Interessant wird was es dann am Ende kostet, hoffentlich wieder 999 USD wie die XTX. Das sind ja dann immer noch 1200 € am Launch in €. Wäre es mir aber wert und ist auch wesentlich bekömmlicher als alles was NVIDIA da gebraut hat, momentan bekommt man für das Geld ja nicht mehr als eine lächerliche 5080, die wiederum keine 20 % über dem Stand von 2022 liegt.
 
Ich rechne eher damit dass die 9000er der neue Budget-King werden. 10000 werden zu Anfang wieder teuer sein. Lohnen tun da nur die Highendmodelle für die die sowieso darauf gieren. Die Lücke zwischen 70 und 90 ist aber wieder sehr groß, da muss noch irgendwas rein.

Rasterleistung haben wir eigentlich schon längst genug. RT wird aufgebohrt wie schon bei RDNA4, dann noch mehr Shader und Bandbreite für ein Flaggschiff. RDNA4 würde mir mit doppelt Shadern 384-Bit schon reichen. Das käme vermutlich irgendwo um 4090 raus. Interessant wird was es dann am Ende kostet, hoffentlich wieder 999 USD wie die XTX. Das sind ja dann immer noch 1200 € am Launch in €. Wäre es mir aber wert und ist auch wesentlich bekömmlicher als alles was NVIDIA da gebraut hat, momentan bekommt man für das Geld ja nicht mehr als eine lächerliche 5080, die wiederum keine 20 % über dem Stand von 2022 liegt.
für eine 144 Cus Karte von Amd würde ich auch 2000 Zahlen AMD würde ich das mehr gönnen als Nvidia
 
Sag das besser nicht zu laut die Preise sollen mal wieder vernünftig werden. Der Leak spricht sogar von 156 CUs und das ist nicht der Vollausbau. Der kommt scheinbar nicht für Gamer braucht aber dann auch keiner. Die können meinetwegen dann auch eine Titan für 3 K bringen solange es eine schöne 384-Bit 24-32 GB Karte gibt. 512-Bit wären zu heftig schon alleine wegen dem Verbrauch. Selbst wenn man die 600 W liefern kann so müssen sie immer noch aus dem Gehäuse befördert werden. Das ist mit 350 W einfach leichter zu bewerkstelligen.
 
Damit wärst du realtiv alleine. Aber irgendwie scheinst du sowieso eine Hirnwäsche bekommen zu haben.
Nicht nur er aber diese Preise sind auch irre. Mittlerweile wirkt die 4090 für 1750 schon wie ein Schnapper, hätte man das im Nachhinein gewusst. Denn die wäre jetzt mehr wert als beim Einkauf und man hätte Jahre Freude dran gehabt. Andererseits unterstützt man diese Abzockerei damit. Dass AMD 2 K für eine Consumerkarte verlangt glaube ich nicht, die werden eher auf Marktanteile gehen. NVIDIA kann das machen weil sie sowieso schon dominieren. Und AMD hat die Preise auch angezogen, eine Karte wie die 9070 hätte vor ein paar Jahren noch 400 gekostet, jetzt 50 % mehr und das wirkt günstig weil NV noch teurer ist.
 
Die 999€ für eine 154CU GPU von AMD kannst du vergessen, die werden mindestens 1499€ verlangen.
Ich glaube irgendwie nicht an eine 154 CU GPU.
Der Stromverbrauch im ersten Post passt nicht wirklich.
64 CU und 275W und dann sollen 154 CU nur 380W brauchen ?
Vorallem mit 192bit Bus vs 384bit Bus ?
So eine Karte müsste eher 400W+ ziehen. (Tendiere eher zu 450W)
Es sei denn die Taktfrequenzen sind sehr viel niedriger als sie sein könnten, um Energie zu sparen.
 
Wird man sehen aber selbst 96 oder 128 wären schon OK. Zumal in dem Leak eine große Lücke zwischen denen klafft. Die haben vielleicht so eine schon gebaut und testen die jetzt, am Ende entscheidet die Skalierung was sie machen. Eine 96 CU RDNA4 war offenbar auch mal geplant aber dann verworfen. Taktraten sind letztlich egal wenn die Leistung stimmt, um die 3 GHz wird es wieder rauskommen, aufgebohrtes RT, Optimierungen und 10-20 % mehr IPC/Raster. Selbst eine RDNA4 mit 96 CU würde vermutlich schon an die 4090 kommen.

Was man auch bedenken muss ist dass es glaube ich 3 oder 2 nm wird, ein ganz schöner Sprung. Das wird die Effizienz definitiv noch nach oben treiben.
 
Selbst eine RDNA4 mit 96 CU würde vermutlich schon an die 4090 kommen.
Mehr als das.
Die 64 CU RDNA 4 kommt ja schon fast an die RTX 4090 ran. 14% weniger fps ist kein Riesen unterschied.
Alleine 14% mehr IPC würden für gleichstand sorgen.
1755588246139.png
 
Nimmst mal n paar RT Titel in 4k und dann reden wir weiter.

Du und Deine Rosinenpickerei immer wenn es um AMD geht. Das nervt.
Beitrag automatisch zusammengeführt:

Geht auch nicht nur um RT. Wenn die 4090 nicht CPU limitiert ist, ist nix mit 14% Abstand.
 
Zuletzt bearbeitet:
Wichtiger ist doch einfach, die Karte bringt Leistung und das Gesamtkonzept ist voll in Ordnung.
Es ist ne 70er Karte keine 80 oder 90.
Mal ist sie nur so schnell wie ne 5070, mal sitzt sie ner 5080 im Nacken.

Karte macht Bild, also Ziel erreicht.
 
Und warum wird die evtl kommende 80 oder 90 dann so abgefeiert? 4090 Leistung für 1200 bis 1400€ 4 Jahre nach der 4090 ist ja auch ne Errungenschaft. Wenn die das bei 100W weniger Verbrauch schafft kann man evtl den Hut ziehen. Aber das möchte ich erstmal sehen.
Beitrag automatisch zusammengeführt:

Karte macht Bild, also Ziel erreicht.
Ging auch eher um die Pipi Langstrumpf Fakten, die eine gewisse Person hier mal wieder ablies. Die 9070XT ist für sich genommen ne top Karte.
 
Und warum wird die evtl kommende 80 oder 90 dann so abgefeiert? 4090 Leistung für 1200 bis 1400€ 4 Jahre nach der 4090 ist ja auch ne Errungenschaft. Wenn die das bei 100W weniger Verbrauch schafft kann man evtl den Hut ziehen. Aber das möchte ich erstmal sehen.
Meinst du die Spekulierte RDNA 4 mit mehr Ram und OC ? Wird nicht an RTX 4090 rankommen. Die RDNA 4 wurde quasi schon über ihrem Sweetspot ausgeliefert und verliert durch den hohen Takt extrem an Effizienz.
Wenn AMD da noch mehr Takt drauf prügelt wird das nicht so gut skalieren und die Effizienz nur noch weiter zerstören.
Wenn wir ehrlich sind ist die jetzige RX9070XT mit ihren 300-330W schon garnicht so weit vom Real verbrauch einer RTX 4090 mit im schnitt 370W weg.
Am besten war der Computerbase Test dazu, welcher zeigte, lässt man die RX9070XT mit -20% Powertarget bei nur 242W laufen verliert sie kaum Leistung.
Mit 90% Powertarget bei 273W war sie sogar leicht schneller.

1755596282717.png

1755596352618.png

1755596380709.png


Nimmst mal n paar RT Titel in 4k und dann reden wir weiter.
Du und Deine Rosinenpickerei immer wenn es um AMD geht.
War es nicht wirklich. BF6 ist ein Mainstream Titel und 2560x1440 ist auch Mainstream. (Eig noch 1920x1080 laut Steam aber lassen wir das)
Und klar in 4K schlägt die höhere Speicherbandbreite der RTX 4090 gut durch und der abstand wird größer.
Wenn die 4090 nicht CPU limitiert ist, ist nix mit 14% Abstand.
Ich sehe da immer noch eine RTX 5090 deutlich über der RTX 4090. Wäre da ein CPU Limit, wäre die RTX 5090 nicht so viel schneller.
Fazit: Kein CPU Limit. Müsstest du eig wissen so lange wie du schon dabei bist.
 
Querbeet im Raster in WQHD 38% und 4K 48% Diff zur 4090.
RT WQHD 39% und 4K 52% Diff zur 4090.

 
Erstaunlich auch der geringe 1% low abstand zwischen RTX 4090 und der 650€ Radeon in BF6.
1755597867957.png

10% mehr IPC sind ja gesichert. Also dürfte eine neue 64 CU RDNA 5 mit 10% mehr IPC in 2560x1440 schon locker auf RTX 4090 Niveau kommen was 1% lows angeht.
Wenn dann noch mehr Takt dazu kommt durch den Shrink, locker vom hocker.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh