Gerücht: AMDs RDNA-5-GPUs sollen Mitte 2027 erscheinen

Aber nach PCIe Spec reicht es nicht und an die müssen sich die Hersteller halten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Techlogi Die Spec unterliegt dem copyright... da kann ich nichts versenden. ob man das googlen kann, weiss ich nicht.

Edit:
Aber allgemein ist ja bekannt:

1x8 Pin -> 150W + Toleranz (die höher liegt als bei 12Vhpwr)
3x8 Pin -> 450W + Toleranz
3x8 Pin + PCIe Slot (max.75W!!) -> 525W + Toleranz
 
Zuletzt bearbeitet:
FPS/Watt ist schon ein guter Ansatz aber leider kein alleiniger Indikator. Da fließen noch andere Faktoren mit rein.
GameEngine/Treiber können hier gut oder schlecht sein.
Vor Jahren hatte HWUnboxxed mal einen test gemacht mit einer schwächeren CPU und hier hat sich gezeigt das Nvidia Treiber scheinbar Overhead haben oder zumindest hatten.
Sprich eine AMD Karte hatte plötzlich im gleichen Setup mehr FPS/Watt als die Nvidia Karte.


Um das mal zu übertragen, wenn deine CPU mit der Nvidia Karte 100W mehr säuft als mit der AMD, hast du zwar auf dem Papier mit Nvidia mehr FPS/Watt, hast aber den gestiegenen Strombedarf der restlichen Komponenten raus genommen aus der Gleichung----

Bei FPS/Watt müsste die Gesamtleistung betrachtet werden und nicht nur anhand einer Grafikkarte.
 
Zuletzt bearbeitet:
3x8 Pin + PCIe Slot (max.75W!!) -> 525W + Toleranz
Ah das meinst, du dazu muss man aber auch sagen, dass aktuelle Karten kaum noch was aus dem Slot ziehen (bei der z.B. der 9070XT Nitro+ hat Igor 0,5-0,6A gemessen) und es für +12V auch nur 5,5A = 66W wären.

Edit, wobei ich auch nix gegen 4x 8Pin hätte. :d
 
Ich schon, also dann lieber den Nvidia Stecker. 2x8pin wäre so meine Schmerzgrenze.
 
Bin nicht in der Landwirtschaft aber letzteres sowieso.
 
Auf 3D Center heißt es.
Eventuell mag es überraschen, dass AMD diesen Weg zu UDNA – welchen man erst September 2024 angekündigt hatte – derart rasch geht. Andererseits ist RDNA3 nicht wirklich gut gelungen und RDNA4 wird nunmehr eine Mager-Generation, da ist ein gewisser Push nach vorn sicherlich vonnöten. Eine total neue Technik birgt natürlich immer auch das Risiko, das gerade in der ersten Generation noch nicht alles so funktioniert wie gedacht. Zudem ist nach wie vor unklar, ob das Zusammenbringen von CDNA und RDNA selbst auf Ebene der reinen Recheneinheiten (ALUs) wirklich von Vorteil zugunsten der Leistungsfähigkeit ist (zugunsten der Entwicklungskosten ist es sicherlich). Denn die Bedürfnisse von Grafik-Berechnung und HPC-Computing haben sich durchaus auseinanderentwickelt, auch wenn man beides grundsätzlich unter die Gruppe der Parallel-Beschleuniger einordnen kann. Dass es AMDs Gaming-Grafikkarten wirklich zum Vorteil gelangt, wieder dieselben ALUs wie die HPC/AI-Beschleuniger zu verwenden, muß AMD somit erst einmal beweisen.

Dabei darf man durchaus den Verdacht äußern, dass AMD dies auch deswegen zusammenbringt, um für Consumer-Grafikkarten eine größere KI-Beschleunigung zu ermöglichen – genau dafür wären auf Computing-Leistung ausgelegten Rechenwerke nämlich gut verwendbar. Nun mag sich in Firmenetagen derzeit alles um "AI" drehen, aber noch ist keineswegs klar, ob und wie der Konsument hierfür zur Kasse gebeten werden kann. Ob man sich hierzu nicht eventuell maßgeblich vergaloppiert, ist noch nicht heraus, aber zumindest als Risiko anzusehen. Zudem besteht die Fragestellung, ob es AMD gelingen kann, UDNA-Grafikchips mit richtig viel Gaming-Leistung hinzustellen, wenn selbige Zusatzfunktionalität immer noch mit dabei sein muß – oder ob die Ausrichtung auf Compute-starke Rechenwerke nicht am Ende wieder der Gaming-Leistung schadet (wie zuletzt bei Vega wegen des stark hochgehenden Stromverbrauch).

Sicherlich ist die Zusammenführung der CDNA- und RDNA-Entwicklungszweige für AMD auch ein Weg, um Entwicklungskosten zu sparen bzw. ist damit gesichert, dass es auch langfristig weiter Desktop-Grafikkarten von AMD gibt. Schließlich wird somit die Architektur-Entwicklung sowieso allein wegen der (lukrativen) HPC/AI-Sparte getätigt, entsprechende Desktop-Grafikkarten wären somit jederzeit ein (einfach zu erstellendes) "Abfallprodukt" dieser Entwicklung. Aber vermutlich müssen Architektur-seitig bei UDNA vorrangig die Consumer-Produkte "Kompromisse" eingehen, eher weniger die HPC/AI-Produkte. Sprich, UDNA könnte doch stark auf HPC/AI-Anwendungen ausgelegt sein, womit erneut die Schlagkraft im Consumer- bzw. Gaming-Bereich zu bezweifeln wäre. Aber vermutlich kann AMD die nötigen Entwicklungskosten anders gar nicht mehr rechtfertigen, man denke nur an die für RDNA4 angedachten und letztlich doch nicht realisierten (echten) MultiChip-Konstruktionen.
Es wird interessant werden zu sehen, wie es AMD bei UDNA schaffen kann, diese Hürden zu nehmen bzw. mit welchen Kompromissen dies dann jeweils verbunden sein wird.

-
Was sagt ihr dazu ?

Es gab ja schon Gerüchte das die "RDNA 5" nenn ich sie jetzt mal, im Raster keinen Riesen Schritt machen was FPS pro Watt trotz Shrink angeht.
Es hieß von MLID zb, Im Raster nicht viel besser als RDNA 4, dafür aber viel besser in Ai & Raytracing.
 
Vor Jahren hatte HWUnboxxed mal einen test gemacht mit einer schwächeren CPU und hier hat sich gezeigt das Nvidia Treiber scheinbar Overhead haben oder zumindest hatten.

Hat sich nicht geändert.

Screenshot 2026-02-14 081058.png
Quelle (kostenpflichtiger Plus-Artikel)
 
Was sagt ihr dazu ?

Es gab ja schon Gerüchte das die "RDNA 5" nenn ich sie jetzt mal, im Raster keinen Riesen Schritt machen was FPS pro Watt trotz Shrink angeht.
Es hieß von MLID zb, Im Raster nicht viel besser als RDNA 4, dafür aber viel besser in Ai & Raytracing.
Ich feiere es. Ich möchte auf Linux wechseln und AMDs Treiber ist auf Linux super. Workstation Fähigkeiten sind super, das ist was aktuell bei AMD fehlt seit VEGA, deshalb musste ich zu Nvidia gehen.
Wenn das wieder alle vereinen und die AMD Karten als "Prosumer" taugen wäre es echt stark. Bei den Nvidia Karten ist das Problem das die Karten zu wenig RAM haben außer bei den ganz teuren Karten.
AMD war hier immer großzügiger und darauf hoffe ich. Ich möchte mit nächsten Upgrade die RTX3080 in Rente schicken und dafür brauch ich eine entsprechende Karte die alle Belange ablösen kann.

Nachtrag: Wegen dem Verbrauch, so lange dieser bei der Grafikkarte sich an die Leistungsaufnahme der RTX3080 orientiert und nicht mehr als etwa 375W brauch bin ich dabei.
Hat sich nicht geändert.

Anhang anzeigen 1184597
Quelle (kostenpflichtiger Plus-Artikel)
Danke damit bestätigt sich das, zwar Nvidia mehr FPS Liefert, aber insgesamt der Systembedarf ansteigt und somit die GPU Ersparnisse verpuffen, weil CPU mehr schluckt.
 
Zuletzt bearbeitet:
Laut MLID wird RDNA 5 10% mehr IPC haben und 100% in 2027 kommen.
 
Bei den Nvidia Karten ist das Problem das die Karten zu wenig RAM haben

Der nummerische Wert allein besagt rein gar nichts über die effektive Speichergröße. NVIDIA verwendet eine Speicherhierarchie, diese mit der von AMD kaum vergleichbar ist. Wenn man das nur halbwegs durchleuchtet hat, dann zeigt sich auf, wieso die Radeon-Grafikkarten auf viel mehr Precharge ANGEWIESEN sind.
 
VRAM Mangel ist doch sowieso bald Geschichte bei Nvidia mit RTX Neural Texture Compression. Es müssen ja nur noch die Entwickler in die Spiele bringen.
 
Der nummerische Wert allein besagt rein gar nichts über die effektive Speichergröße. NVIDIA verwendet eine Speicherhierarchie, diese mit der von AMD kaum vergleichbar ist. Wenn man das nur halbwegs durchleuchtet hat, dann zeigt sich auf, wieso die Radeon-Grafikkarten auf viel mehr Precharge ANGEWIESEN sind.
Es gibt auch schon viele Tests die dennoch bewiesen haben das die Nvidia Karten zu wenig haben. Texturen aufploppen etc... gibt es von bekannten Tech-Tubern viele Benchmarks. HWunboxxed, GamersNexus...
Ich weiß das Nvidia da eigene Kompression dafür verwendet, aber manchmal reicht es einfach nicht.
Reservierter Speicher ist ungleich genutzter Speicher, es ist bekannt das bei mehr verfügbaren Speicher gerne Anwendungen mehr reservieren, aber nicht effektiv ausschöpfen das ist auch klar.
Trotzdem meckern Anwendungen gerne wenn der Speicher nicht ausreicht oder deaktivieren Features wenn zu wenig Speicher vorhanden ist.
 
Das was N3cron sagt stimmt.
Hab mal mit einem Kumpel an der selben Stelle in Star Citizen gestanden. Selbe Auflösung und Grafikeinstellungen.
Ich RX6800 Underclocked, er RTX 3070ti.
Er hatte leicht höhere FPS als ich, aber wir sahen unterschiede in den Bildern.
Bei ihm fehlten ab einer gewissen Distanz einfach viel mehr Texturen als bei mir. Hab sogar noch 2 Screenshots auf der Festplatte von dem Test irgendwo rumliegen falls es jemand nicht glaubt.
Das Level of Detail war bei der RTX 3070ti definitiv schlechter, obwohl exakt gleiche Grafiksettings (haben wir mehrfach überprüft)
Vramverbrauch war so bei 7GB, also seine 8GB waren nicht komplett genutzt.
 
Das war schon Mal so, wundert mich aber nicht das sie es immer noch so machen.
Kurz nach 2000 war es auch groß in den Techmedien der Fall wo die ersten Nvidia Karten mit DDR Speicher, die nachfolgenden aber auch, aufgrund von internen Treibersetings die man nicht einstellen könnte, die Qualität beschnitten hatten, damit sie schneller als die Konkurrenz sind.

Das waren auch so kleine Mini Änderungen, bisschen LOD hier, ein wenig mit der Bittiefe gespielt, also anstatt dass das Bild mit 32 Bit berechnet wurde, dann nur noch mit 16 oder gar 8 Bit berechnet wurde. Mit Z Filtern war glaube ich noch was.

Als es dann doch zu große Wellen geschlagen hatte, haben sie sich damit rausgeredet dass das eher keiner bei bewegten Bildern sieht.

Da muss damals auch viel Geld geflossen sein um diese Tatsache aus der Welt des Internets zu schaffen.
 
Texturen aufploppen etc... gibt es von bekannten Tech-Tubern viele Benchmarks. HWunboxxed, GamersNexus...

Das ist mir durchaus bekannt. Auch die PC Games Hardware sowie die PC WELT haben dafür praxisnahe Videoclips bereitgestellt, in denen Texturen vermatschen.
Derartige Effekte zeigen sich besonders unter DLSS.

Des Weiteren sollte NVIDIAs Speicherkompression positiv angerechnet werden, dass sie sich dynmaisch an die dedizierte Speichergröße anpasst. Mit der Vergrößerung des Caches meint NVIDIA, einer unzureichende Speichergröße dadurch entgegenzuwirken, dass der Cache ein schnelleres Nachladen gewährleiste. In der Praxis profitieren davon diejenigen Gamer, welche ständig von Ort zu Ort hetzen, ohne sich überhaupt nur ansatzweise mit ihrer Umgebaung vertraut gemacht zu haben. Diese gottlose Spielweise trifft auf die überwiegende Mehrheit zu: Für die andere Gruppe von Gamern kann eine temporäre Speicherverwaltung durchaus von Nachteil sein.
 
Der neue RDNA 5 Midrange Chip der im Raytracing leicht schneller als eine RX9070XT werden soll (AT2) soll durch TSMC N3 nur 264mm² klein sein.
(Bei gleicher Anzahl an Transistoren wie die RX9070XT)
Nur mal so als Vergleich:
RX6600 237 mm²
RX6700 335 mm²
RX6800 520 mm²
RX7700 346 mm²
RX7900 529 mm²
RX9070 357 mm²
Damit wäre der RDNA 5 Mainstream Chip (AT2 aka RX10070) fast so klein wie eine RX6600 und soll wohl nur durch Taktvorteil zwischen TSMC N4 (RDNA 4) auf TSMC N3 (RDNA 5) auf RX9070XT Niveau Leistung kommen.
Ehrlich gesagt, endtäuschend. 350~ mm² hätten mir da besser gefallen. Ob die größeren Brüder AT0 & AT1 überhaupt als Gaming GPU kommen ist Unklar.
 
Jap entweder sie bringen ato oder at1 oder ich bin raus bei AMD
Beitrag automatisch zusammengeführt:

 
Wäre echt sehr schade, ich würde nämlich gerne zur nächsten Generation auf AMD wechseln und die RTX3080 in Rente schicken. Aber aktuelle ist es wie in der Realpolitik, die muss länger bis zur Rente arbeiten mangels alternativen *hust*.
 
entweder sie bringen ato oder at1 oder ich bin raus bei AMD
Der AT2 Chip könnte evtl doch auch 40 CU,s anstatt 32 CU,s haben, wenn man den Spekulationen von Kepler anstatt MLID glaubt.
Wurde mir zumindest so im Forum von Planet3Dnow erklärt.
 

Anhänge

  • 1772202536409.png
    1772202536409.png
    74,4 KB · Aufrufe: 6
Der AT2 Chip könnte evtl doch auch 40 CU,s anstatt 32 CU,s haben, wenn man den Spekulationen von Kepler anstatt MLID glaubt.
Wurde mir zumindest so im Forum von Planet3Dnow erklärt.
Das is mir egal wenn ich mir ein Pc für um die 8 K Baue bau ich da keine AT2 Krücke ein sondern nur Highend
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh