Gerücht: AMDs RDNA-5-GPUs sollen Mitte 2027 erscheinen

Aber nach PCIe Spec reicht es nicht und an die müssen sich die Hersteller halten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Techlogi Die Spec unterliegt dem copyright... da kann ich nichts versenden. ob man das googlen kann, weiss ich nicht.

Edit:
Aber allgemein ist ja bekannt:

1x8 Pin -> 150W + Toleranz (die höher liegt als bei 12Vhpwr)
3x8 Pin -> 450W + Toleranz
3x8 Pin + PCIe Slot (max.75W!!) -> 525W + Toleranz
 
Zuletzt bearbeitet:
FPS/Watt ist schon ein guter Ansatz aber leider kein alleiniger Indikator. Da fließen noch andere Faktoren mit rein.
GameEngine/Treiber können hier gut oder schlecht sein.
Vor Jahren hatte HWUnboxxed mal einen test gemacht mit einer schwächeren CPU und hier hat sich gezeigt das Nvidia Treiber scheinbar Overhead haben oder zumindest hatten.
Sprich eine AMD Karte hatte plötzlich im gleichen Setup mehr FPS/Watt als die Nvidia Karte.


Um das mal zu übertragen, wenn deine CPU mit der Nvidia Karte 100W mehr säuft als mit der AMD, hast du zwar auf dem Papier mit Nvidia mehr FPS/Watt, hast aber den gestiegenen Strombedarf der restlichen Komponenten raus genommen aus der Gleichung----

Bei FPS/Watt müsste die Gesamtleistung betrachtet werden und nicht nur anhand einer Grafikkarte.
 
Zuletzt bearbeitet:
3x8 Pin + PCIe Slot (max.75W!!) -> 525W + Toleranz
Ah das meinst, du dazu muss man aber auch sagen, dass aktuelle Karten kaum noch was aus dem Slot ziehen (bei der z.B. der 9070XT Nitro+ hat Igor 0,5-0,6A gemessen) und es für +12V auch nur 5,5A = 66W wären.

Edit, wobei ich auch nix gegen 4x 8Pin hätte. :d
 
Ich schon, also dann lieber den Nvidia Stecker. 2x8pin wäre so meine Schmerzgrenze.
 
Bin nicht in der Landwirtschaft aber letzteres sowieso.
 
Auf 3D Center heißt es.
Eventuell mag es überraschen, dass AMD diesen Weg zu UDNA – welchen man erst September 2024 angekündigt hatte – derart rasch geht. Andererseits ist RDNA3 nicht wirklich gut gelungen und RDNA4 wird nunmehr eine Mager-Generation, da ist ein gewisser Push nach vorn sicherlich vonnöten. Eine total neue Technik birgt natürlich immer auch das Risiko, das gerade in der ersten Generation noch nicht alles so funktioniert wie gedacht. Zudem ist nach wie vor unklar, ob das Zusammenbringen von CDNA und RDNA selbst auf Ebene der reinen Recheneinheiten (ALUs) wirklich von Vorteil zugunsten der Leistungsfähigkeit ist (zugunsten der Entwicklungskosten ist es sicherlich). Denn die Bedürfnisse von Grafik-Berechnung und HPC-Computing haben sich durchaus auseinanderentwickelt, auch wenn man beides grundsätzlich unter die Gruppe der Parallel-Beschleuniger einordnen kann. Dass es AMDs Gaming-Grafikkarten wirklich zum Vorteil gelangt, wieder dieselben ALUs wie die HPC/AI-Beschleuniger zu verwenden, muß AMD somit erst einmal beweisen.

Dabei darf man durchaus den Verdacht äußern, dass AMD dies auch deswegen zusammenbringt, um für Consumer-Grafikkarten eine größere KI-Beschleunigung zu ermöglichen – genau dafür wären auf Computing-Leistung ausgelegten Rechenwerke nämlich gut verwendbar. Nun mag sich in Firmenetagen derzeit alles um "AI" drehen, aber noch ist keineswegs klar, ob und wie der Konsument hierfür zur Kasse gebeten werden kann. Ob man sich hierzu nicht eventuell maßgeblich vergaloppiert, ist noch nicht heraus, aber zumindest als Risiko anzusehen. Zudem besteht die Fragestellung, ob es AMD gelingen kann, UDNA-Grafikchips mit richtig viel Gaming-Leistung hinzustellen, wenn selbige Zusatzfunktionalität immer noch mit dabei sein muß – oder ob die Ausrichtung auf Compute-starke Rechenwerke nicht am Ende wieder der Gaming-Leistung schadet (wie zuletzt bei Vega wegen des stark hochgehenden Stromverbrauch).

Sicherlich ist die Zusammenführung der CDNA- und RDNA-Entwicklungszweige für AMD auch ein Weg, um Entwicklungskosten zu sparen bzw. ist damit gesichert, dass es auch langfristig weiter Desktop-Grafikkarten von AMD gibt. Schließlich wird somit die Architektur-Entwicklung sowieso allein wegen der (lukrativen) HPC/AI-Sparte getätigt, entsprechende Desktop-Grafikkarten wären somit jederzeit ein (einfach zu erstellendes) "Abfallprodukt" dieser Entwicklung. Aber vermutlich müssen Architektur-seitig bei UDNA vorrangig die Consumer-Produkte "Kompromisse" eingehen, eher weniger die HPC/AI-Produkte. Sprich, UDNA könnte doch stark auf HPC/AI-Anwendungen ausgelegt sein, womit erneut die Schlagkraft im Consumer- bzw. Gaming-Bereich zu bezweifeln wäre. Aber vermutlich kann AMD die nötigen Entwicklungskosten anders gar nicht mehr rechtfertigen, man denke nur an die für RDNA4 angedachten und letztlich doch nicht realisierten (echten) MultiChip-Konstruktionen.
Es wird interessant werden zu sehen, wie es AMD bei UDNA schaffen kann, diese Hürden zu nehmen bzw. mit welchen Kompromissen dies dann jeweils verbunden sein wird.

-
Was sagt ihr dazu ?

Es gab ja schon Gerüchte das die "RDNA 5" nenn ich sie jetzt mal, im Raster keinen Riesen Schritt machen was FPS pro Watt trotz Shrink angeht.
Es hieß von MLID zb, Im Raster nicht viel besser als RDNA 4, dafür aber viel besser in Ai & Raytracing.
 
Vor Jahren hatte HWUnboxxed mal einen test gemacht mit einer schwächeren CPU und hier hat sich gezeigt das Nvidia Treiber scheinbar Overhead haben oder zumindest hatten.

Hat sich nicht geändert.

Screenshot 2026-02-14 081058.png
Quelle (kostenpflichtiger Plus-Artikel)
 
Was sagt ihr dazu ?

Es gab ja schon Gerüchte das die "RDNA 5" nenn ich sie jetzt mal, im Raster keinen Riesen Schritt machen was FPS pro Watt trotz Shrink angeht.
Es hieß von MLID zb, Im Raster nicht viel besser als RDNA 4, dafür aber viel besser in Ai & Raytracing.
Ich feiere es. Ich möchte auf Linux wechseln und AMDs Treiber ist auf Linux super. Workstation Fähigkeiten sind super, das ist was aktuell bei AMD fehlt seit VEGA, deshalb musste ich zu Nvidia gehen.
Wenn das wieder alle vereinen und die AMD Karten als "Prosumer" taugen wäre es echt stark. Bei den Nvidia Karten ist das Problem das die Karten zu wenig RAM haben außer bei den ganz teuren Karten.
AMD war hier immer großzügiger und darauf hoffe ich. Ich möchte mit nächsten Upgrade die RTX3080 in Rente schicken und dafür brauch ich eine entsprechende Karte die alle Belange ablösen kann.

Nachtrag: Wegen dem Verbrauch, so lange dieser bei der Grafikkarte sich an die Leistungsaufnahme der RTX3080 orientiert und nicht mehr als etwa 375W brauch bin ich dabei.
Hat sich nicht geändert.

Anhang anzeigen 1184597
Quelle (kostenpflichtiger Plus-Artikel)
Danke damit bestätigt sich das, zwar Nvidia mehr FPS Liefert, aber insgesamt der Systembedarf ansteigt und somit die GPU Ersparnisse verpuffen, weil CPU mehr schluckt.
 
Zuletzt bearbeitet:
Laut MLID wird RDNA 5 10% mehr IPC haben und 100% in 2027 kommen.
 
Bei den Nvidia Karten ist das Problem das die Karten zu wenig RAM haben

Der nummerische Wert allein besagt rein gar nichts über die effektive Speichergröße. NVIDIA verwendet eine Speicherhierarchie, diese mit der von AMD kaum vergleichbar ist. Wenn man das nur halbwegs durchleuchtet hat, dann zeigt sich auf, wieso die Radeon-Grafikkarten auf viel mehr Precharge ANGEWIESEN sind.
 
VRAM Mangel ist doch sowieso bald Geschichte bei Nvidia mit RTX Neural Texture Compression. Es müssen ja nur noch die Entwickler in die Spiele bringen.
 
Der nummerische Wert allein besagt rein gar nichts über die effektive Speichergröße. NVIDIA verwendet eine Speicherhierarchie, diese mit der von AMD kaum vergleichbar ist. Wenn man das nur halbwegs durchleuchtet hat, dann zeigt sich auf, wieso die Radeon-Grafikkarten auf viel mehr Precharge ANGEWIESEN sind.
Es gibt auch schon viele Tests die dennoch bewiesen haben das die Nvidia Karten zu wenig haben. Texturen aufploppen etc... gibt es von bekannten Tech-Tubern viele Benchmarks. HWunboxxed, GamersNexus...
Ich weiß das Nvidia da eigene Kompression dafür verwendet, aber manchmal reicht es einfach nicht.
Reservierter Speicher ist ungleich genutzter Speicher, es ist bekannt das bei mehr verfügbaren Speicher gerne Anwendungen mehr reservieren, aber nicht effektiv ausschöpfen das ist auch klar.
Trotzdem meckern Anwendungen gerne wenn der Speicher nicht ausreicht oder deaktivieren Features wenn zu wenig Speicher vorhanden ist.
 
Das was N3cron sagt stimmt.
Hab mal mit einem Kumpel an der selben Stelle in Star Citizen gestanden. Selbe Auflösung und Grafikeinstellungen.
Ich RX6800 Underclocked, er RTX 3070ti.
Er hatte leicht höhere FPS als ich, aber wir sahen unterschiede in den Bildern.
Bei ihm fehlten ab einer gewissen Distanz einfach viel mehr Texturen als bei mir. Hab sogar noch 2 Screenshots auf der Festplatte von dem Test irgendwo rumliegen falls es jemand nicht glaubt.
Das Level of Detail war bei der RTX 3070ti definitiv schlechter, obwohl exakt gleiche Grafiksettings (haben wir mehrfach überprüft)
Vramverbrauch war so bei 7GB, also seine 8GB waren nicht komplett genutzt.
 
Das war schon Mal so, wundert mich aber nicht das sie es immer noch so machen.
Kurz nach 2000 war es auch groß in den Techmedien der Fall wo die ersten Nvidia Karten mit DDR Speicher, die nachfolgenden aber auch, aufgrund von internen Treibersetings die man nicht einstellen könnte, die Qualität beschnitten hatten, damit sie schneller als die Konkurrenz sind.

Das waren auch so kleine Mini Änderungen, bisschen LOD hier, ein wenig mit der Bittiefe gespielt, also anstatt dass das Bild mit 32 Bit berechnet wurde, dann nur noch mit 16 oder gar 8 Bit berechnet wurde. Mit Z Filtern war glaube ich noch was.

Als es dann doch zu große Wellen geschlagen hatte, haben sie sich damit rausgeredet dass das eher keiner bei bewegten Bildern sieht.

Da muss damals auch viel Geld geflossen sein um diese Tatsache aus der Welt des Internets zu schaffen.
 
Texturen aufploppen etc... gibt es von bekannten Tech-Tubern viele Benchmarks. HWunboxxed, GamersNexus...

Das ist mir durchaus bekannt. Auch die PC Games Hardware sowie die PC WELT haben dafür praxisnahe Videoclips bereitgestellt, in denen Texturen vermatschen.
Derartige Effekte zeigen sich besonders unter DLSS.

Des Weiteren sollte NVIDIAs Speicherkompression positiv angerechnet werden, dass sie sich dynmaisch an die dedizierte Speichergröße anpasst. Mit der Vergrößerung des Caches meint NVIDIA, einer unzureichende Speichergröße dadurch entgegenzuwirken, dass der Cache ein schnelleres Nachladen gewährleiste. In der Praxis profitieren davon diejenigen Gamer, welche ständig von Ort zu Ort hetzen, ohne sich überhaupt nur ansatzweise mit ihrer Umgebaung vertraut gemacht zu haben. Diese gottlose Spielweise trifft auf die überwiegende Mehrheit zu: Für die andere Gruppe von Gamern kann eine temporäre Speicherverwaltung durchaus von Nachteil sein.
 
Der neue RDNA 5 Midrange Chip der im Raytracing leicht schneller als eine RX9070XT werden soll (AT2) soll durch TSMC N3 nur 264mm² klein sein.
(Bei gleicher Anzahl an Transistoren wie die RX9070XT)
Nur mal so als Vergleich:
RX6600 237 mm²
RX6700 335 mm²
RX6800 520 mm²
RX7700 346 mm²
RX7900 529 mm²
RX9070 357 mm²
Damit wäre der RDNA 5 Mainstream Chip (AT2 aka RX10070) fast so klein wie eine RX6600 und soll wohl nur durch Taktvorteil zwischen TSMC N4 (RDNA 4) auf TSMC N3 (RDNA 5) auf RX9070XT Niveau Leistung kommen.
Ehrlich gesagt, endtäuschend. 350~ mm² hätten mir da besser gefallen. Ob die größeren Brüder AT0 & AT1 überhaupt als Gaming GPU kommen ist Unklar.
 
Jap entweder sie bringen ato oder at1 oder ich bin raus bei AMD
Beitrag automatisch zusammengeführt:

 
Wäre echt sehr schade, ich würde nämlich gerne zur nächsten Generation auf AMD wechseln und die RTX3080 in Rente schicken. Aber aktuelle ist es wie in der Realpolitik, die muss länger bis zur Rente arbeiten mangels alternativen *hust*.
 
entweder sie bringen ato oder at1 oder ich bin raus bei AMD
Der AT2 Chip könnte evtl doch auch 40 CU,s anstatt 32 CU,s haben, wenn man den Spekulationen von Kepler anstatt MLID glaubt.
Wurde mir zumindest so im Forum von Planet3Dnow erklärt.
 

Anhänge

  • 1772202536409.png
    1772202536409.png
    74,4 KB · Aufrufe: 20
Der AT2 Chip könnte evtl doch auch 40 CU,s anstatt 32 CU,s haben, wenn man den Spekulationen von Kepler anstatt MLID glaubt.
Wurde mir zumindest so im Forum von Planet3Dnow erklärt.
Das is mir egal wenn ich mir ein Pc für um die 8 K Baue bau ich da keine AT2 Krücke ein sondern nur Highend
 
Es ist einfach so krass wie so gut wie keinen hier im Luxx AMD,s nextgen GPU,s Interessieren.
Die Spekulationen scheinen völlig uninteressant für die meisten Leser hier zu sein. Und womit ? Mit Recht !

Radeons Downfall

Ein Artikel von Nighteye:

Die meisten Spekulantionen deuten darauf hin, dass AMD das RDNA 5 Flagschiff (AT 0) nicht für den dGPU Gamer in Massenproduktion herausbringen wird.
Für PC Gamer wird es als dGPU sehr wahrscheinlich nur den Codename: "AT 2" geben.
Dieser hat 32 Doppel CU,s (64 Legacy CUs , also quasi RX9070XT bestückung)
TSMC N3 (Taktet theoretisch höher als TSMC N4 bei RDNA 4)
Allerdings streicht AMD aus Kostengründen den Infinite Cache welcher bei RDNA 2 & 3 & 4 verbaut war.
RDNA 5 wird also massiv mehr Speicherbandbreite benötigen. Doch soll die Speicheranbindung bei AT 2 nicht steigen, sondern sogar von 256bit auf 192bit fallen. (Um kosten zu senken)

Der L2 Cache wird etwas aufgebohrt, so wie auch der L0 Cache, doch alles in allem wird dies nicht den Infinite Cache ersetzen können.
Es geht AMD bei der Next gen pur um Kostensenkung.
Die Rasterleistung wird wieder nicht steigen, sondern unter RX7900XTX bleiben. Nur die Raytracing Leistung bei AT 2 wird besser ausfallen.

Es kamen nun Hinweise zu Taktfrequenzen bei RDNA 5 raus.
MLID postete den RDNA 5 GPU Chip in der neuen Playstation 6 welche 2027 launchen soll.
1772919198192.png

Die niedrige Tflop Anzahl offenbart kein Leistungswunder durch die Architekturänderungen bei RDNA 5.
RX9070 nonXT 37 Tflops
RX10070 nonXT (PS6) (mit 54 CU,s) 34-40 Tflops (je nach Takt)
RX9070 XT 49 Tflops
RX10070 XT (mit 64 CU,s) ca 55~ Tflops (je nach Takt)
RX7900XTX 61,44 Tflops
Trotz TSMC 3nm bewegt sich der Takt auf einem level welches für TSMC 4nm sehr einfach zu erreichen wäre.
Die RX9070 nonXT mit 56 CU,s und 2600mhz bleibt gediegen bei 220W unter Gaminglast.
Der niedrige Takt bei RDNA 5 GPU,s in der Playstation 6 sind (naheliegend) aus Effizienzgründen so niedrig, quasi um unter 200W zu bleiben.
Die RDNA 5 als dGPU für den PC könnten mit 3,2ghz kommen, wären dann aber auch wieder mit der Brechstange auf den Markt geworfen wie damals die RX9070XT bereits.
(RDNA 4 Brechstange für den dicken Balken im Benchmark)
RDNA 4 Sweetspot.jpg

Alles in allem, wird RDNA 5 wohl nur ein RX6060ti Konkurrent, sind sich die meisten Spekulanten einig.
Es fehlt einfach an Raster Leistung um die NextGen RTX 6070ti anzugreifen.
Denn die RDNA 5 AT 2 wird mit ihren 64 Legacy CU,s und evtl 200mhz mehr Takt, kaum die Rasterleistung einer RDNA 3 einholen.
Wohingegen Nvidia seinen ersten Shrink seit dem Jahr 2022 mit RTX 6000 vollziehen wird.
Der Leistungssprung von Nvidias RTX 5070ti auf RTX 6070ti wird mit Sicherheit mindestens 50% betragen.
Wohingegen AT2 nur im Raytracing zulegen wird, und im Raster immer noch langsamer als Radeons Topmodell aus dem Jahre 2022.
RX7900XTX Raster vs RX9070 XT Part 1.png

RX7900XTX Raster vs RX9070 XT Part 2.png
Diese Rasterunterschiede sind kein Wunder, betrachtet man die Tflops Rechenleistungen:
RX9070 XT 49 Tflops
RX10070 XT (mit 64 CU,s) ca 55 Tflops (je nach Takt)
RX7900XTX 61,44 Tflops
RTX 4090 83 Tflops
RTX 5090 105 Tflops (Mit alter Shrink Technik aus dem Jahr 2022)

Erste Leaks über Nvidias Rubin Architektur offenbaren 60% mehr Tflops pro Watt.
Ergo wird eine RTX 6090 mit gleichem Stromverbrauch bei knapp 200 Tflops landen.
Die darunter liegende RTX 6080 wird voraussichtlich die hälfte haben.
Daraus lässt sich Prozentual auch die RTX 6070ti ableiten.
AT2 (RDNA 5) wird also bestenfalls ein RTX 6060ti Konkurrent sein.


Und da es kein größeres Modell wird, wird es sehr Kritisch für die Marktanteile von Radeon sein.

Radeon hat in nur einem Jahr, 10% Marktanteil verloren.
1772920775213.png

Dies bekräftigen neben den Zahlen des Jon Peddie Research ebenfalls die Steam Survey Statistiken.
Konnte RDNA 4 im Dezember 2025 schon 0,02% Marktanteil auf Steam Generieren, verlor Radeon bis Februar 2026 wieder Marktanteil und sank mit RDNA 4 auf unter 0,01% und verschwand vollständig aus der Steam Statistik.
Februar 2026 hat alleine RTX 5000 schon 25% Marktanteil auf Steam.
Alleine die RTX 5070 kletterte auf fast 10% Marktanteil in Steam.
1772921020445.png

AMD strich mit RDNA 4 zwei Modelle, (RTX 5080 & RTX 5090 Konkurrenten) und verlor 2025 und 2026 immer mehr Marktanteil:
Mit RDNA 5 wird sich die Situation verschärfen.
Hier eine Übersicht der Situation 2027/2028.

The Downfall of Radeon 2028
The Fall of Radeon.png

Ich nannte AT 2 in diesem Fall RX 10060, weil es nicht weise von AMD wäre, die Karte als RX 10070 zu vermarkten, da sie leistungstechnisch nur ein RTX 6060 Konkurrent sein wird
Weitere Probleme für Radeon:
1.) Optische Qualitätsunterschiede bei Framegen vs Intel & Nvidia (Laut Hardware Unboxed & PCGH Raff)
2.) Wegen Punkt 1, noch kein Multi Frame Gen für Radeon (Laut Hardware Unboxed)
3.) Kein FSR 4 Support für ältere Generationen, wohingegen das neuste XeSS sogar mit MFG auch auf alten Intel Arcs läuft.
4.) Kein Offizieller Vulkan Support für FSR 4 nach über einem Jahr nach Release. (Problematisch für MMO,s die auf Vulkan basieren wie Star Citizen)
Punkt 4 ist besonders Ironisch, da AMD bei der Vorstellung von RDNA 4 sogar Star Citizen als Positiv Beispiel verwendet hat.

Radeon könnte 2028 ganz leicht auf unter 2% Marktanteil fallen wenn die Spekulationen sich bewahrheiten, und AMD nur den AT-2 für PC Gamer als dGPU bringt.
Dies könnte zur Ultimativen Abkehr von Radeon für den PC führen, da sich bei 1% Marktanteil keine Grafikkartenentwicklung für den PC Markt mehr lohnen könnte.
Intel stieg laut jüngsten Meldungen auch aus dem dGPU Markt für PC Gaming aus, und bringt nur noch dGPUs zum Arbeiten.
Intel will den PC Gaming Markt in Zukunft nur noch mit APU,s/iGPUs bedienen (Grafikeinheiten in Prozessoren)
Es stehen alle gleise für ein Nvidia Monopol mit 99% Marktanteil im PC Gaming dGPU segment für 2030.
 
Zuletzt bearbeitet:
1. Lieber Niko, bitte lern mal vernünftig Zitieren. Nach 5 Jahren im Forum sollte dir schon oft genug gesagt sein, dass Fullquotes nicht Sinnvoll sind.
2. Das es größere RNDA 5 Modelle gibt, ist seit 2025 bekannt. Allerdings ist AT0 als Flaggschiff wohl nicht als dGPU für Gamer vorgesehen.
Du machst den Fehler und setzt gleich, das diese auch als dGPU erscheinen, nur weil es sie als Bauplan gibt.
Es gab auch größere RDNA 4 Modelle, die allerdings nie für Gamer erschienen sind.
3. Es gibt gründe, warum ich im Beitrag schrieb, dass die Spekulanten davon ausgehen, dass es nur eine AT-2 für Gamer geben wird.
 
@Niko199112
Bitte nimm mal das Vollzitat raus. Das muss nicht sein. Wir haben durch die Forensoftware die tolle Möglichkeit auf einzelne Sätze eingehen zu können, nutze diese ruhig. Danke.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh