Gerücht: AMDs RDNA-5-GPUs sollen Mitte 2027 erscheinen

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dieser Leak halte ich für sehr glaubwürdig, weil man ja an verschiedensten Ecken munkelt, dass die Speicherkrise, bzw. die hohen Preise bis 2027/28 anhalten könnten. :hust:
 
Bei gleichbleibenden Speicherpreisen, haben die neuen Karten dann sicher kaum mehr oder werden entsprechend teurer.
 
RTX 6090 wird also schonmal keinen Rivalen bekommen.
RTX 6080 evtl auch nicht.
Bleibts beim Nachfolger der RX9070XT als RTX 6070ti Rivale.
Wird für die Preise von Nvidias besten Karten dann bedeuten, das Nvidia freie hand hat nach oben zu gehen.
Die RTX 5090 ist kein Jahr draußen und kostet auf Alternate, lagernd mit den günstigsten Modellen im moment 2,9K€.

Gute Modelle wie Asus etc sind schon länger über 3000€.
Die RTX 4090 gabs damals zwischen 1600€ & 1800€, wohl weil Radeon damals noch die RX7900XTX 24GB hatte.
Wenn Nvidia wieder keine Gefahr durch Radeon fürchten muss, könnte ich mir vorstellen das die Preise von RTX 6080 und RTX 6090 noch höher gehen als schon bei RTX 5000.
5000€ für eine RTX 6090 wären evtl die neue Realität in 2027.
 
Wenn Nvidia wieder keine Gefahr durch Radeon fürchten muss, könnte ich mir vorstellen das die Preise von RTX 6080 und RTX 6090 noch höher gehen als schon bei RTX 5000.
Wenn weiterhin genügend Käufer so unfassbar dämlich sind, solche Preise für eine verdammte Grafikkarte zu zahlen, dann ist es doch ihre eigene Schuld!

Ich weiß auch gar nicht, wofür man abseits von dem KI Gedöns unbedingt noch mehr Performance benötigen sollte. Um die immer mieser werdenden AAA Spiele in noch höherer Auflösung mit mehr Raytracing erleben zu können?
 
Wenn weiterhin genügend Käufer so unfassbar dämlich sind, solche Preise für eine verdammte Grafikkarte zu zahlen, dann ist es doch ihre eigene Schuld!
Die die sowas kaufen, haben schon irgendwie eine Teilschuld, aber selbst wenn die das nicht täten, würde sich in der aktuellen Lage nichts ändern.

Consumer Grafikkarten sind für NVidia aktuell nur das Sauremilchhäubchen. Trotz der absurden Preise für Consumergrafikkarten ist die Gewinnspanne mit dem gleichen Chip (oder zumindest den entsprechenden Fertigungskapazitäten) im KI-Bereich noch viel höher. Sie verlagern ja sogar schon die Produktion von Consumerchips zu KI-Beschleunigern.
Mit anderen Worten: Es würde NVidia vermutlich kaum jucken, wenn ihre Consumer-Grafikkarten sogar überhaupt nichtmehr gekauft werden.
 
Glaube kaum das AMD mit der neuen Gen nur max wieder 64 CUs anbieten wird. AMD hat genügend Zeit gehabt RDNA 5 weiterzuentwickeln. Ich denke AMD wird in Richtung RTX 6080 gehen und die 6090 wird weiterhin keine Konkurrenz haben.
 
Mitte 2027, zum Glück gerade doch noch auf eine 9070XT gewechselt statt auf den Nachfolger zu warten. :d
 
Glaube kaum das AMD mit der neuen Gen nur max wieder 64 CUs anbieten wird. AMD hat genügend Zeit gehabt RDNA 5 weiterzuentwickeln.
AMD hatte auch genug Zeit bei RDNA 4.
Sogar noch mehr Zeit als bei RDNA 2 und RDNA 3.
Zeit ist daher nicht so wirklich ein gutes Argument, findest du nicht ?
RDNA 1 2019 40 CU,s
RDNA 2 2020 80 CU,s
RDNA 3 2022 96 CU,s
RDNA 4 2025 64 CU,s
 
AMD hatte auch genug Zeit bei RDNA 4.
RDNA4 ist doch aber ein super Wurf, bei etwas kleinerem Chip ~50% schneller im Raster bzw. 75%? schneller als eine 6800XT bei ich glaube 50W mehr (weder meine 6800XT noch die 9070XT lief/läuft mit stock Powerlimit :fresse:) Dazu dann noch FSR4.
Oder hab ichs ggf. falsch verstanden?
 
RDNA4 ist doch aber ein super Wurf, bei etwas kleinerem Chip ~50% schneller im Raster bzw. 75%? schneller als eine 6800XT bei ich glaube 50W mehr (weder meine 6800XT noch die 9070XT lief/läuft mit stock Powerlimit :fresse:) Dazu dann noch FSR4.
Oder hab ichs ggf. falsch verstanden?
Du vergleichst da aber einen 2025er doppelshrink mit einem 2 Generationen und 5 Jahre älterem älterem Chip von 2020.
Dazwischen gabs in diesem halben Jahrzehnt bereits mehrere Shrinks. Ist also eher TSMC zu verdanken wovon du sprichst.
Der Zuwachs von RDNA 4 war sogar recht klein, wenn man RDNA 3 dazu betrachtet, und mitbedenkt, was in meiner Signatur steht.
FPS pro Watt ist immer der beste Indikator für Fortschritt
 

Anhänge

  • RDNA 4 war der kleinste Schritt.jpg
    RDNA 4 war der kleinste Schritt.jpg
    51,9 KB · Aufrufe: 18
So langsam wird es Zeit.
Hätte auch nichts gegen Weihnachten 2026.
Meine 6900XT braucht einen Nachfolger :).
 
FPS pro Watt keine Ahnung, meine 6800XT lief mit 345W und die 9070XT läuft mit ~440W. :fresse:
Fand die +50% Raster / +75% RT aber doch nett, vor allem in Verbindung mit FSR4.
 
Schade, dass 9070 XTX nicht kam. Letztendlich ist es eine 5080 geworden und sicher für die nächsten 3-4 Jahre völlig ausreichend. War ein guter Deal, auch preislich, im Verhältnis zu meiner damaligen 6950 XT. In allen Belangen fast 100 % Performancesteigerung bei gleichem Stromverbrauch. Mehr wollte und brauche ich nicht. 😜
 
Werds mir angucken und dann am Preis entscheiden ob mir weiterhin 4k/120 reichen oder ich die 4k/240 erreichen will.
 
Denke es werden mindestens 96 cus und da die cus anders aufgeteilt sind haben die dann bissle über 12000 shader und das mit den 95 Cus kommt von Keppler der hat sich seltenst mal geirrt
 
Ich bin kein Fanboy, auch wenn ich bisher noch keine AMD GPU genutzt habe. Ich kaufe nur das was am schnellsten und besten ist.
Und bei Nvidia tune ich dann den Crap out of it mit Undervolting um sie effizienter zu machen. Meine 5090 läuft aktuell mit UV bei rund 350W und 100% Leistung. Es würde mehr gehen, bin aber bei einem Taktlimit von +1000Mhz im niedrigen Spannungsbereich...

Wäre AMD nächste Gen in 2027 besser, würd ich auch ohne mit der Wimper zu zucken wechseln.

RTX 6090 wird also schonmal keinen Rivalen bekommen.
RTX 6080 evtl auch nicht.
Doch die 6080 wird Konkurrenz haben und es bleibt die Frage ob Nvidia überhaupt eine 6090 machen wird.
Nvidia könnte Gaming nur noch als den ungewünschten alten Onkel ansehen und stiefmütterlich behandeln: Begrenzte DIE-Größe, weniger VRAM.

Dazwischen gabs in diesem halben Jahrzehnt bereits mehrere Shrinks. Ist also eher TSMC zu verdanken wovon du sprichst.
Das was du meinst ist als Metric schwierig umzusetzen: Effizienz der Architektur.
Am besten kann man das mit einer 5090 und 4090 vergleichen können. Oder einer 5080 und 4080 Super. Da ja beide Gens 4,5nm nutzen.
Da sieht man das die RTX5000 im Grunde minimal mehr effizienter ist, aber echt nicht viel.

Bei AMD bringt Undervolting einiges, wobei in beide Richtungen (schneller und/oder effizienter), da die Karten ab Werk oft unterhalb dessen laufen was sie könnten/bräuchten.
Eine 9070XT wäre z.b. mit ~350-400W besser aufgehoben, auch eine 7900XTX wäre besser mit 400-450W geworden. Was aber auch deren Effizienz durchaus nach unten drückt...
Man könnte auch sagen, das AMD sich selber sabortiert und DAS passiert ständig...

Im übrigen ist die 9070 out of the Box DEUTLICH effizienter als eine 9070XT, aber halt nur deshalb, weil AMD die Karte ab Werk stark powerlimitiert hat. Normal wäre eine 9070 keine 220W Karte, sondern eher ~270W.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh