[Sammelthread] AMD RDNA3 Smalltalk-Thread

Also, wenn ich dich richtig verstehe, gehst du davon aus, dass die 7900XT im Vergleich zur 6900XT doppelt so flott sein wird?
Eher die 7950 XT, mindestens. Oder willst du daran glauben dass mehr als die dreifache Menge Shader, vierfacher Infinity cache und 50 % mehr Speicherinterface nicht mindestens doppelt so viel Leistung bringen?

Der Hauptgrund ist allerdings die MCM-Architektur, schau dir einfach mal Zen 1 an und den damit verbundenen Leistungszuwachs an. AMD gelang es damals in einem Schlag einigermaßen mit Intel in Sachen singlethread aufzuholen (was angesichts der grausamen FX-Prozessoren wie eine Auferstehung war) und lieferte im Multithread mehr Leistung und bessere Effizienz als die teuren HEDT-Modelle zu einem vernünftigen Preis. Das wäre ohne MCM nie möglich gewesen. Genauso der Threadripper oder EPYC. Wenn die das richtig umsetzen sehen wir vielleicht bald endlich wieder höhere zweistellige Leistungszuwächse.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Niftu Cal
Du führst durchaus vernünftige Argumente an, ich bleibe dennoch...na, ich sach ma'...verhalten und nehme statt dessen weitere Bestellungen an. :popcorn:
 
Es könnte durchaus passieren:
Hawaii auf Navi 10 41% mehr Performance (Hawaii auf Polaris war ein gewaltiger Energieeffizienzschub)

Allerdings:
Navi 10 auf Navi 22 5% weniger Performance

Quelle:

Deswegen bin ich auch etwas vorsichtig, was die Performanceerwartung bei RDNA3 angeht.
 
Wen da der Navi "30" 16.384 SPs sind es ja 8192 Shader zu jetzt glaub 5120 !
Das sind 60% mehr shader !

Wen die FP 32 Einheiten mal skalieren kommen bis ca 20-25 % Mehr Leistung rum da es aber mehr Einheiten sind als damals bei der 3090 könnte es vielleicht auch 30% sein das muss man den erstmal mal sehen rechnen wir aber mal nur mit 0-20% weil zur Zeit FP 32 nicht immer mit jeder Engine skaliert!
Sollten die normalen Shader voll durchschlagen und der Takt bei wirklich an die 3GHZ liegen könnten da noch knapp 15% -20% kommen!

Rechne ich das grob zusammen und nimm ehr den niedrigeren Wert komme ich auf ca. 70-75% ohne die FP 32 Einheiten !
Mit FF32 könnte die Leistung dann auch mal bis 100%+- ausschlagen !
Also eine Mehrleistung in Abhängigkeit der FP32 Shader von 70-100%+- schätze ich grob auf die 6950XT gesehen!
Mehr wäre na klar genial aber selbst die 70%+ wären ein Riesen Sprung !
 
Zuletzt bearbeitet:
Und dann, wenn man ganz fest an das gute in Lisa glaubt, und ihren Willen ein Statement zu setzen und jeden Rechner auf diesem Planeten mit einem AMD System zu bestücken, haut sie die Dinger zum Selbstkostenpreis raus o_O8-)
 
In manchen Gerüchten ist auch von einer Dual-GPU die Rede. Allerdings finde ich das etwas unlogisch, warum sollte AMD noch Dual-GPU bauen wenn sie MCM können? Das ist doch eigentlich der heilige Gral.

100 % wären schon fett, aber selbst 60 - 80 wären in Ordnung, solange der Preis stimmt. Wenn es dann am Ende nochmal 20 % mehr bei doppeltem Preis sind kaufe ich notfalls die 7900 XT mit 12 K Shadern. Am Liebsten hätte ich aber den Flaggschiffchip mit vollem VRAM und Anbindung und ein paar deaktivierten Shadern. Alleine 384-Bit dürfte noch Einiges ausmachen bei 4K.

Zu allen Shaderdiskussionen sollte man sich noch bewusst sein dass die Karten vermutlich 3 GHz und mehr schaffen könnten. 2,6 Ghz schafft selbst meine gammelige 6900 und die ist kein XTXH. Der sweet spot könnte schon Richtung 2,8+ verschoben werden. Alleine dadurch wird es nochmal brachial Mehrleistung geben.
 
Ich hatte kurz eine 6800XT die ich glaube ich auf 2,6GHz takten konnte. Wenn ich mich richtig erinnere hat aber die Leistung ab 2,2GHz überhaupt nicht mehr entsprechend zugenommen. Täusche ich mich da?
 
Also ich hoffe dass das 15% bringt mit mehr bin ich dann positiv überrascht.
 
Ich hatte kurz eine 6800XT die ich glaube ich auf 2,6GHz takten konnte. Wenn ich mich richtig erinnere hat aber die Leistung ab 2,2GHz überhaupt nicht mehr entsprechend zugenommen. Täusche ich mich da?
Die neuen Karten bekommen ja anscheinend noch viel mehr Cache die 128mb waren ja für 4K wohl sehr auf Kante mit 256 Bit .
 
Der sweet spot ist das nicht. Ich finde 2,4-2,5 sind so das Optimum. Bei RDNA3 wird sich das aber verschieben. Bei der 5700 XT lag de sweet spot noch unter 2 GHz. In einer Gen 500 MHz mehr ist schon krank. Daher halte ich die 3 GHz auch für durchaus greifbar. NVIDIA soll auch die Taktraten anheben.

Der Cache ist auch ein Performancefaktor, mit 512 MB dürfte die Karte auch in 4K besser abschneiden. Wobei die jetzigen schon nah an der 3090 sind obwohl sie weniger verbrauchen und Speicherinterface fehlt, das ist schon beeindruckend und spricht für den Cache. Eine 384-Bit AMD-Karte mit Cache könnte erstmals seit einem Jahrzehnt die Krone übernehmen. Zumindest wird AMD sich nicht mehr verstecken müssen vor der Konkurrenz.
 
Wer bitte möchte denn eine 500W GPU?
 
Alle, die bereit sind, 1000,-€+ für eine GraKa auf den Tisch zu legen. 🤷
 
Alle, die bereit sind, 1000,-€+ für eine GraKa auf den Tisch zu legen. 🤷
Geld ist die eine Sache, die entstehende Hitze eine andere.... Ich habe kein Bock nach dem Zocken durchgebraten zu sein...
 
Wow. Ich behaupte mal ins Blaue, dass sie sich mit Sicherheit auf gut 400 Watt betreiben lässt, aber das ist immer noch ne ganze Menge Abwärme. Hm evtl. nen "Winterrechner" basteln und Heizkosten sparen :geek:
 
Das wird noch sehr Interessant mit dem Chipletdesign!
Könnte ja sein das die erste Karte nur einen Die hat mit Recheneinheiten und der 2 Chip halt der I.O ist wo der Infinety Cache und z.b Speicher Controller usw sitzt.
Erst Später kommt dann ein zweiter Die mit Recheneinheiten dazu !

So zu sagen wird erst die Vorbereitung für weitere Dies getroffen mit dem I.O Chip!
Zum jetzigen Zeitpunkt scheint es noch ein wenig zu früh sein gleich mit 2GPUs und einem I.O zu starten Weil die Software noch angepasst werden muss da sonst ein Chip brach liegen könnte wenn der nicht angesprochen wird!

So interpretiere ich das erst mal in groben Zügen!


 
Zuletzt bearbeitet:
Geld ist die eine Sache, die entstehende Hitze eine andere.... Ich habe kein Bock nach dem Zocken durchgebraten zu sein...
Dafür musst du im Herbst/Winter deinen Gamingroom nicht mehr heizen, win-win in der aktuellen Situation.
 
Im Sommer hat man eine 6600/3050 im Rechner gepaart mit einem kleinen i3/i5 die kaum Abwärme erzeugen und ab Herbst/Winter wird wieder umgebaut auf die dicken Boliden die ordentlich den Raum aufheizen können ^^

Oder man hat gleich 2 PCs, einen für die warmen Tage und einen für die kalten Tage.

Könnte man mit Sicherheit auch per Software managen, aber wer will das schon, wenn es durch Basteltrieb und noch mehr Hardware auch getan ist 😆
 
1657697993625.png
 

Wenn die Grafikkarten dann alleine 700w ziehen und die lastspitzen nochmal mit 50% zu Buche schlagen, dann benötigt man ja bald ein 1600w NT nur damit der Kübel läuft....
Und das ist die Entwicklungsrichtung, die ich wirklich abartig finde:

Lass die Karten ins unermesslich teure abdriften. Wer sie sich dennoch leisten will, schadet(?) nur dem eigenen Geldbeutel.

Karten, die völlig entfesselt Strom ziehen, schaden allen.
 
Wenn man Igor glauben schenken mag, den Test der Lastspitzen der 3090Ti als Anhaltspunkt hernimmt, dann dürften sich in der neuen Generation (auf beiden Seiten?) die Lastspitzen in Grenzen halten:

Somit dürften auch hier "normale" (Marken-)Netzteile von 750 bis 850 Watt ausreichend sein.
 
Oder die Netzteilhersteller wissen schon mehr. Hier auf Luxx ploppt doch gefühlt jeden zweiten Tag ne neue News zu den 1600 Watt Netzteilen auf. Ich meine die Dinger sprießen jetzt aus dem Boden wie noch nie.

Finde das aber auch nicht gut das die Effizienz im Moment in den Hintergrund gedrängt wird. Ich hoffe das die Generation danach wieder Effizienter wird.
 
Oder man muss wie bei vega erstmal eine Runde optimieren
 
Ich hoffe das die Generation danach wieder Effizienter wird.
Dann kann man hoffentlich mit einem Blick in die Vergangenheit werfen und hoffen, dass auf einen etwaigen neuen Fermi wieder ein Maxwell/Pascal folgt.
 
Auch eine Karte die viel verbraucht kann effizient sein!

Ich weiß aber natürlich wie es gemeint ist
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh