Gerücht: AMDs RDNA-5-GPUs sollen Mitte 2027 erscheinen

Aber nach PCIe Spec reicht es nicht und an die müssen sich die Hersteller halten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Techlogi Die Spec unterliegt dem copyright... da kann ich nichts versenden. ob man das googlen kann, weiss ich nicht.

Edit:
Aber allgemein ist ja bekannt:

1x8 Pin -> 150W + Toleranz (die höher liegt als bei 12Vhpwr)
3x8 Pin -> 450W + Toleranz
3x8 Pin + PCIe Slot (max.75W!!) -> 525W + Toleranz
 
Zuletzt bearbeitet:
FPS/Watt ist schon ein guter Ansatz aber leider kein alleiniger Indikator. Da fließen noch andere Faktoren mit rein.
GameEngine/Treiber können hier gut oder schlecht sein.
Vor Jahren hatte HWUnboxxed mal einen test gemacht mit einer schwächeren CPU und hier hat sich gezeigt das Nvidia Treiber scheinbar Overhead haben oder zumindest hatten.
Sprich eine AMD Karte hatte plötzlich im gleichen Setup mehr FPS/Watt als die Nvidia Karte.


Um das mal zu übertragen, wenn deine CPU mit der Nvidia Karte 100W mehr säuft als mit der AMD, hast du zwar auf dem Papier mit Nvidia mehr FPS/Watt, hast aber den gestiegenen Strombedarf der restlichen Komponenten raus genommen aus der Gleichung----

Bei FPS/Watt müsste die Gesamtleistung betrachtet werden und nicht nur anhand einer Grafikkarte.
 
Zuletzt bearbeitet:
3x8 Pin + PCIe Slot (max.75W!!) -> 525W + Toleranz
Ah das meinst, du dazu muss man aber auch sagen, dass aktuelle Karten kaum noch was aus dem Slot ziehen (bei der z.B. der 9070XT Nitro+ hat Igor 0,5-0,6A gemessen) und es für +12V auch nur 5,5A = 66W wären.

Edit, wobei ich auch nix gegen 4x 8Pin hätte. :d
 
Ich schon, also dann lieber den Nvidia Stecker. 2x8pin wäre so meine Schmerzgrenze.
 
Bin nicht in der Landwirtschaft aber letzteres sowieso.
 
Auf 3D Center heißt es.
Eventuell mag es überraschen, dass AMD diesen Weg zu UDNA – welchen man erst September 2024 angekündigt hatte – derart rasch geht. Andererseits ist RDNA3 nicht wirklich gut gelungen und RDNA4 wird nunmehr eine Mager-Generation, da ist ein gewisser Push nach vorn sicherlich vonnöten. Eine total neue Technik birgt natürlich immer auch das Risiko, das gerade in der ersten Generation noch nicht alles so funktioniert wie gedacht. Zudem ist nach wie vor unklar, ob das Zusammenbringen von CDNA und RDNA selbst auf Ebene der reinen Recheneinheiten (ALUs) wirklich von Vorteil zugunsten der Leistungsfähigkeit ist (zugunsten der Entwicklungskosten ist es sicherlich). Denn die Bedürfnisse von Grafik-Berechnung und HPC-Computing haben sich durchaus auseinanderentwickelt, auch wenn man beides grundsätzlich unter die Gruppe der Parallel-Beschleuniger einordnen kann. Dass es AMDs Gaming-Grafikkarten wirklich zum Vorteil gelangt, wieder dieselben ALUs wie die HPC/AI-Beschleuniger zu verwenden, muß AMD somit erst einmal beweisen.

Dabei darf man durchaus den Verdacht äußern, dass AMD dies auch deswegen zusammenbringt, um für Consumer-Grafikkarten eine größere KI-Beschleunigung zu ermöglichen – genau dafür wären auf Computing-Leistung ausgelegten Rechenwerke nämlich gut verwendbar. Nun mag sich in Firmenetagen derzeit alles um "AI" drehen, aber noch ist keineswegs klar, ob und wie der Konsument hierfür zur Kasse gebeten werden kann. Ob man sich hierzu nicht eventuell maßgeblich vergaloppiert, ist noch nicht heraus, aber zumindest als Risiko anzusehen. Zudem besteht die Fragestellung, ob es AMD gelingen kann, UDNA-Grafikchips mit richtig viel Gaming-Leistung hinzustellen, wenn selbige Zusatzfunktionalität immer noch mit dabei sein muß – oder ob die Ausrichtung auf Compute-starke Rechenwerke nicht am Ende wieder der Gaming-Leistung schadet (wie zuletzt bei Vega wegen des stark hochgehenden Stromverbrauch).

Sicherlich ist die Zusammenführung der CDNA- und RDNA-Entwicklungszweige für AMD auch ein Weg, um Entwicklungskosten zu sparen bzw. ist damit gesichert, dass es auch langfristig weiter Desktop-Grafikkarten von AMD gibt. Schließlich wird somit die Architektur-Entwicklung sowieso allein wegen der (lukrativen) HPC/AI-Sparte getätigt, entsprechende Desktop-Grafikkarten wären somit jederzeit ein (einfach zu erstellendes) "Abfallprodukt" dieser Entwicklung. Aber vermutlich müssen Architektur-seitig bei UDNA vorrangig die Consumer-Produkte "Kompromisse" eingehen, eher weniger die HPC/AI-Produkte. Sprich, UDNA könnte doch stark auf HPC/AI-Anwendungen ausgelegt sein, womit erneut die Schlagkraft im Consumer- bzw. Gaming-Bereich zu bezweifeln wäre. Aber vermutlich kann AMD die nötigen Entwicklungskosten anders gar nicht mehr rechtfertigen, man denke nur an die für RDNA4 angedachten und letztlich doch nicht realisierten (echten) MultiChip-Konstruktionen.
Es wird interessant werden zu sehen, wie es AMD bei UDNA schaffen kann, diese Hürden zu nehmen bzw. mit welchen Kompromissen dies dann jeweils verbunden sein wird.

-
Was sagt ihr dazu ?

Es gab ja schon Gerüchte das die "RDNA 5" nenn ich sie jetzt mal, im Raster keinen Riesen Schritt machen was FPS pro Watt trotz Shrink angeht.
Es hieß von MLID zb, Im Raster nicht viel besser als RDNA 4, dafür aber viel besser in Ai & Raytracing.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh