Gerüchte neu entfacht: Ryzen 9 9950X3D2 mit 192 MB L3-Cache und schneller Ryzen 7 9850X3D

Für mich wird aus dem jetzigen Gerücht gar nicht so definitiv ersichtlich, dass es um Cache unter beiden CCDs handelt, oder überlese ich da etwas? Ich gehe zwar selbst eigentlich auch davon aus, aber es gab ja auch das Gerücht, dass AMD mehrere Cache Layer unter einem Die stapelt, was hier prinzipiell auch gemeint sein könnte.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denke genau das Gegenteil ist der Fall, ich denke mit dem 9950X3D2 und genauso 9850X3D verärgter AMD nur seine treuesten Kunden.

Denn es wird wohl niemand vom 9950X3D auf den 9950X3D2 oder dem 9800X3D auf den 9850X3D upgraden.

Aber wenn man sich den 9950X3D als "Königs-Ryzen" oder den 9800X3 als "Single-Chiplet Königs-Ryzen" für teures Geld gekaut hat, wäre ich jetzt schon ziemlich sauer, wenn ihn dann AMD wieder vom Thron stösst.
Also vom 9800X3D würde ich locker auf den 9950X3D gehen, wenn die Gerüchte so stimmen.
 
Für mich wird aus dem jetzigen Gerücht gar nicht so definitiv ersichtlich, dass es um Cache unter beiden CCDs handelt, oder überlese ich da etwas?
Steht doch in der News eigentlich ersichtlich drin, dass es sich um einen AM5-Prozessor handelt, bei dem beide CCDs 96 MB L3-Cache bieten (eben 32 + 64 MB). Zusammen wären es dann 192 MB an L3-Cache.
 
Ja das steht im Newstext... aber ich lese das nicht in dieser Klarheit aus der Quelle heraus, auf dem die News basiert.
 
Die Frage ist doch nur: Kann ich das Ding noch vor dem Wochenende bekommen? :d
 
Außerdem muss das interne Chipmanagement, aber auch Programme/Spiele aktiv den Cache und Kerne so nutzen, dass eine Mehrleistung, bzw. das Verhältnis Preis/Leistung die Mehrkosten rechtfertigt. Ich meine, das war der Hauptknackpunkt, es nicht zu tun.:unsure:
Es ist genau umgekehrt. Wenn nur ein CCD den 3D V-Cache hat, dann muss man im OS sehr viel Aufwand betreiben, um die Software mit optimaler Performance betreiben zu können. Deshalb sind die 9004 EPYCs auch immer mit 3D V-Cache auf allen CCDs verakuft worden.
 
Es ist genau umgekehrt. Wenn nur ein CCD den 3D V-Cache hat, dann muss man im OS sehr viel Aufwand betreiben, um die Software mit optimaler Performance betreiben zu können. Deshalb sind die 9004 EPYCs auch immer mit 3D V-Cache auf allen CCDs verakuft worden.
Das heißt es könnten dann einzelne Kerne von beiden CCDs genutzt werden von einem Game? Also "lossless"?
 
Ich finde nur den Namen beim 16 Kerner gaga.... na ja lassen wir das.

PS: Ryzen 9 9950X3D2 -> warum nicht Ryzen 9 9990X3D ?
Ja, das ist alles +/- beknackt, wobei das ohnehin immer schon ziemlich beknackt war, siehe 3000+ tbredB vs. 3000+ Barton usw... und Intel kann das ja mindestens so gut, mit einem 2600K, 3570K, 3770K, 4770K, 4990K und ein Ultra 225/245K/265K/270Kplus (neuerdings?) machens ja auch nicht besser.. .
Noch schlimmer sind die Mobile-CPUs beider Hersteller.
Getoppt wird das aber noch von den Server-CPUs beider Hersteller, ob nun Epyc oder noch schlimmer, Xeon.

Hier muss man NV mal loben, die ihr Namensschema schon länger durchziehen, trägt sicher zur Beliebtheit bei (weil man sich halt ausmalen kann, was in etwa man da kauft)... zumindest war man so schlau und hat diese GTX=>RTX Sache sonst unverändert lassen und bei 1070 begonnen... und nicht wie AMD ein neues Namensschema mit der 90er Nummer (9070XT) eingeführt... wo der Sprung aufs neue "Format" ja direkt ins Haus steht..
Bei Zen1 hat das auch noch alles relativ logisch begonnen.

Naja.
 
Wenn die CPUs wirklich erst zur CES Angekündigt werden dann wird das wie bei der 3090Ti eine absolute Todgeburt weil Zen6 2026 kommen soll und ca 6-7Monate vorher ein Upgrade null lohnt
 
Das heißt es könnten dann einzelne Kerne von beiden CCDs genutzt werden von einem Game? Also "lossless"?
Nein, so einfach ist das nicht.

Bisher ist das aber so, dass Games nur auf einem CCD (mit dem 3D V-Cache) gut laufen. Das liegt daran, dass man Software speziell anpassen muss, damit sie auf mehreren CCDs gut läuft. Für Games macht man das üblicherweise nicht. Aus diesem Grund ist für Gamer der Ryzen 7 9800X3D aktuell das Optimum. Allerdings werden Desktop CPUs nicht nur für Gaming genutzt, und für angepasste Software ist es nun einmal deutlich besser einen Ryzen 9 9950X oder einen fiktiven Ryzen 9 16 Core mit 2×CCD mit 3D V-Cache zu nutzen anstatt des Ryzen 9 9950X3D, den man aktuell bekommt. Weil man sich bei den aktuellen immer mit der Asymmetrie der CCDs herumschlagen muss.
 
Bei weiterhin 8 Kernen im CCD dürfte die Gaming Leistung doch eh nicht wirklich besser sein als beim 9950X3D. Die Games können ja trotzdem nur auf einem CCD laufen.
Gibt ja nicht nur Gaming, aber für viele Anwendungen die nicht soviele Kerne benötigten, könnte die Verteilung auf zwei Chiplets sogar vorteilhaft sein.

Weil dann könnte man schön die Kerne rotieren, also Kern 1-4 auf Chiplet 1 -> Kern 9-12 auf Chiplet 2 -> Kern 5-8 auf Chiplet 1 -> Kern 13-16 auf Chiplet 4 und dadurch die nicht benötigten Kerne abkühlen lassen und die jeweils aktiven Kerne möglichst hoch boosten.

Beim Gaming ist natürlich das Problem das ein Kernwechseln und noch mehr ein Chipletwechsel eine kleine Verzögerung bringt, die schnell zu FPS Lows führt. Aber bei anderen Anwendungen wäre das nicht so kritisch. Und auch bei manchen Games gäbe es Szenen wo FPS Lows kaum auffallen und die man dafür nutzen könnte.

Alleine schon damit die legendären X3D 8-Kerner irgendwann einmal schließlich komplett in der Vitrine stehen. 5800X3D, 5700X3D, 7800X3D, 9800X3D - alles schon da. Verteilt über mehrere Plattformen im Familienkreis liefert selbst der kleinste immer noch sehr geiles Kino.
Das würde mich jetzt garnicht für eine Vitrine reizen. Denn 8-Kerner sind ja absoluter Mainstream, und selbst die X3D Modelle sind wegen ihrer häufigen Verbreitung Massenware. Wenn dann höchstens der 5800X3D oder alternativ 5700X3D weil es die beiden ersten Modelle mit 3D Cache wären.

Vitrinenwürdiger finden würde ich 3950X, 5950X oder alternativ 5900XT, 8300G und 8700G.
 
Gibt ja nicht nur Gaming, aber für viele Anwendungen die nicht soviele Kerne benötigten, könnte die Verteilung auf zwei Chiplets sogar vorteilhaft sein.
Der 3D Cache ist halt ein Gaming Feature, weil es eben nur da wirklich was bringt. Also der neue Prozessor wird sich auch diesmal wieder hauptsächlich an Gamer richten. Für Anwendungen abseits von Gaming gibt es den 9950X in AMDs Portfolio
 
Schon den Ryzen 7 5800X3D und den Ryzen 7 7800X3D vergessen? Bei den Modellen befindet sich der 64 MB große 3D-V-Cachen über dem CCD. Und auch wenn sich der 3D-V-Cache bei Ryzen 9000 unter dem Zen-5-CCD aufhält, erzeugt dieser zusätzliche Cache eine zusätzliche Abwärme.
Schon klar! Aber immer kommt die Hitze aus dem Stromverbrauch. Das Endprodukt einer jeden elektrischen Arbeitsleistung ist, wenn keine mechanische/kinetische Arbeit verrichtet wird: Wärme. Wenn ein Chip also insgesamt wärmer wird (nicht nur punktuell), verbraucht er auch mehr Strom. Das ist Physik! ;)
 
Der 3D Cache ist halt ein Gaming Feature, weil es eben nur da wirklich was bringt. Also der neue Prozessor wird sich auch diesmal wieder hauptsächlich an Gamer richten. Für Anwendungen abseits von Gaming gibt es den 9950X in AMDs Portfolio
Der 3D Cache bringt auch richtig was bei Datenbanken, bei Entwicklung, bei KI-Anwendung (nicht nur Erstellung von LLMs), bei Video- und Grafikbearbeitung, bei Audiobearbeitung, bei.... soll ich weiter machen? So gut wie jeder Poweruser profitiert von extra cache. Gaming ist eine wichtige Industrie, ja, aber eben nur ein kleiner Teil des Ganzen...
 
Der 3D Cache bringt auch richtig was bei Datenbanken, bei Entwicklung, bei KI-Anwendung (nicht nur Erstellung von LLMs), bei Video- und Grafikbearbeitung, bei Audiobearbeitung, bei.... soll ich weiter machen? So gut wie jeder Poweruser profitiert von extra cache. Gaming ist eine wichtige Industrie, ja, aber eben nur ein kleiner Teil des Ganzen...
Ich sehe in den Reviews in den meisten Anwendungen höchstens marginale Unterschiede zum normalen 16 Kerner. Mag sein, dass es da noch Anwendungen gibt, wo es mehr bringt als ein paar Prozent. Wenn dem so ist, mein Fehler. Habe aber noch nie gehört, dass die X3D Desktop CPUs außerhalb vom Gaming eine große Rolle spielen. Schließlich zielt das gesamte Marketing auch auf diesen Bereich, da wird es wohl kaum ein so kleiner Teil des Ganzen sein.
 
Natürlich zielt das Marketing aufs Gaming - das sit der Bereich wo man am ehesten etwas damit erreichen kann. Otto-Normal-Büromensch brauch das nicht.
Es gibt tatsächlich Tests mit den großen Brüdern (EPYC und Threadripper) zu den Themen, da zeigt sich ganz gut was dieser Cache bringt, gerade unter Hochlast.
Die normalen Benchmarks in Gaming-Magazinen sind halt lustig. Nackt eingerichtetes Windows, es läuft nichts al der Benchmark. Aussagekraft für Realszenarios geht gegen Null.
 
Verstehe diesen "Move" von AMD nicht. Macht für mich null Sinn zum aktuellen Zeitpunkt diese CPU zu launchen. Ich persönlich warte auf den "ZEN6" (oder wie diese CPUs auch immer heißen werden) und hoffe, dass es die neue CPU Generation in 2026 geben wird. Wird vermutlich wieder gefühlte max. 10% "schneller" sein. Dennoch sehe ich für mich keinen Sinn darin als Zwischenlösung gefühlte 750€ für eine CPU mit 3D Cache auf beiden Chiplets auszugeben. Das AMD Marketing/ Strategie ist z. T. sehr schwer zu verstehen.

Warum sollte jemand um viel Geld und zum jetzigen Zeitpunkt solche CPUs kaufen, wenn es (hoffentlich) und in absehbarer Zeit neue AMD CPUs geben wird um damit wieder eine CPU der "Vorgängerversion" zu besitzen? Verstehe ich nicht. Hoffe vor Allem auch, dass sich hinsichtlich PCIe Lanes und Chipsatz mit der zukünftigen Generation etwas tun wird.

l. G.
Karl
 
Das neue Headspreader-Design sieht ja interessnat aus und Igor nennt sogar schon einen Preis von 799 Doller:


"Mit 192 MB Cache dürfte der 9950X3D2 in CPU-limitierten Spielen neue Bestwerte erreichen"
es gibt keine "cpu limitierten spiele"
 
Bedeutet vermutlich 900€ bei uns. Für mich, und wie geschrieben, vollkommen sinnfrei, auch wenn das Ganze cool klingt. Bin mit meinem 7950x aktuell super zufrieden und werde erst upgraden wenn ich für mich einen "objektiven" Mehrwert sehe, bzw. investiere keine gefühlten 900€ für eine CPU, wo es ein paar Monate später eine neue Generation (hoffentlich auch Chipsatz) geben wird. Aktuell stören mich vor Allem die unzureichende Anzahl der PCIe Lanes etc.

Sehe aufgrund von z. B. 3DMark Benchmark Ergebnissen auch nicht, dass meine "veraltete" CPU und ohne 3D Cache, meine MSI Suprim 5090 in einer Weise limitiert, als dass es mich stören würde. Ob ich nun bei den Top 5% oder 10% im Vergleich zu anderen 5090 Usern zähle, ist für mich irrelevant. Kenne auch kein Spiel wo ich mich über die FPS beschweren könnte. Egal ob ich auf meinem 4k oder 2k Monitor spiele. Ist wie vieles relativ und subjektiv. Wer auf Benchmark Ergebnisse, auf jedes Quäntchen Leistung steht, für den macht die "optimierte" AM5 CPU definitiv Sinn. Für mich nicht. Mir fehlt aktuell auch das Vertrauen in die Zuverlässigkeit von AMD "3D" CPUs wenn ich mir so diverse Beiträge in diversen Foren gebe. Scheinen sehr sensibel auf SOC Spannung etc. zu reagieren. Bin auch schon gespannt auf die CPU Temperaturen und Effizienz/ Performance von diversen Luftkühlern/ AIOs.

l. G.
Karl
 
Zuletzt bearbeitet:
Der 3D Cache bringt auch richtig was bei Datenbanken, bei Entwicklung, bei KI-Anwendung (nicht nur Erstellung von LLMs), bei Video- und Grafikbearbeitung, bei Audiobearbeitung, bei.... soll ich weiter machen? So gut wie jeder Poweruser profitiert von extra cache. Gaming ist eine wichtige Industrie, ja, aber eben nur ein kleiner Teil des Ganzen...
Die Aussage ist komplett Realitätsfern. Deswegen wird auch der Epyc mit Dual Cache meist nur für extrem spezielle (meist Datenbank) Anwendungen verwendet und ist sonst in der Praxis komplett unrelevant.

Mal die Aussage auseinandernehmen:
Datenbanken -> Nur, wenn Daten-Hot-Sets in den Cache passen (z. B. OLTP-Workloads mit kleinen Index-Bereichen). Sonst keinerlei nenenswerter Vorteil.
Entwicklung oder besser gesagt kompilieren -> Maximal bei C++ Projekten mit vielen kleinen Dateien. Sonst unrelevant.
KI-Anwendungen -> Kleinere Modelle vielleicht minimal, große Modelle sind rein RAM/GPU dominiert. Also unrelevant.
Audio-Bearbeitung -> Fast ausschließlich CPU Takt abhängig. Unrelevant.
Video-Rendering / -Editing -> Real World eher GPU limitiert, nicht CPU Cache limitiert, auch bei reinem CPU Rendering. Bei CPU basierten Raytracing vielleicht minimal. Insgesamt unrelevant.
 
Und das beruht worauf?
Datenbanken von z.B. Webservern - MySQL und co - profitieren gerade vom Cache durchaus.
Kompilieren hab ich nie von gesprochen, aber mei - ich würd ja gern mal nen Linux Kernel build Benchmark sehen, denke da würde der durchaus von profitieren. Gibts da Zahlen?
KI-Anwendungen: Hilft durchaus, nämlich dann wenn das Modell zu groß wird. Nur wenig, gebe ich zu, weills dann schnell zu langsam wird.
Audio-Bearbeitung bei vielen Spuren wird schnell mal RAM-intensiv.
Bei Video wirds sehr schnell relewvant - dazu gibts Krita-Benches.

Das Ding ist, und das hast du wunderbarerweise komplett ignoriert: Real World läuft das nicht isoliert, sondern "nebenher" - und da kann der Cache ziemlich viel bringen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh