Gerüchte neu entfacht: Ryzen 9 9950X3D2 mit 192 MB L3-Cache und schneller Ryzen 7 9850X3D

hat also eins der 137 gerüchte über die neuen prozessoren gestimmt....

ist ja wie an der börse...da gibts auch immer einen der den aktuellen kurs korrekt vorhergesagt hat. der trick ist einfach genug vorherzusagen unter zig accounts ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der hier hochgelobte DDR5-6000 CL30 war aber scho nimmer teuer, sogar teurer als DDR5-6800 CL34.
 
@RealMax123
NEIN?! OH?! DOCH! :stupid:

Du darfst hier rechts auf die s.g. Preisentwicklung klicken
 
@RealMax123 wenn ich mir meinen 6800 CL34 anschaue und das Gegenstück mit 6000 CL30 war der 6800 immer ein Stück teurer.




Der RAM ist jetzt mit Abstand die teuerste Einzelkomponente (wenn man beide Sticks als eine Komponente sieht) in meinem Rechner und als ich ihn im HWLuxx Adventskalender gewonnen habe war es einer der kleinen Preise, inzwischen wärs ein Hauptgewinn....:lol:
 
WTF
Aber nur 2% in Geek? :unsure:

Hoffe das sicher der Leak nicht bestätigt, mit Mehrleitung im Bereich der Messtolleranz.
 
Zuletzt bearbeitet:
hab mir jetzt die Seite nicht angesehen, aber die Mehrleistung kommt ja theoretisch sowieso erst bei Auslastung > 8 Kerne zu stande, vorher wird das ja eh alles mit dem 1. CCD abgefedert
 
Was erhoffst du dir denn? Es wird keine große Mehrleistung dabei rumkommen, immerhin ist der max. Takt geringer

Wenn ein Hersteller ein neues Topmodell raus bring, sollte es auch irgendwo schneller sein als das alte Modell also warten wir mal ab.
 
Hoffe das sicher der Leak nicht bestätigt, mit Mehrleitung im Bereich der Messtolleranz.
Und freundliche Bitte: Nimm dir doch gern einen Moment länger Zeit, wenn du etwas posten willst oder musst. 🙂

Wenn ein Hersteller ein neues Topmodell raus bring, sollte es auch irgendwo schneller sein als das alte Modell also warten wir mal ab.
Sagt wer? Aber richtig, abwarten. 😉
 
Wenn ein Hersteller ein neues Topmodell raus bring, sollte es auch irgendwo schneller sein als das alte Modell also warten wir mal ab.
Topmodell ist auch der 9950x3D und für Gaming wirst du mit dem X3D2 0% Mehrleistung haben. X3D2 macht nur für Anwendungen Sinn, welche es benötigen.
 
Topmodell ist auch der 9950x3D und für Gaming wirst du mit dem X3D2 0% Mehrleistung haben. X3D2 macht nur für Anwendungen Sinn, welche es benötigen.
Das denke ich auch der 9850X3D wird vermutlich als einziger eine Mehrleistung haben in Games aufgrund der 400mhz mehr
 
aber die Mehrleistung kommt ja theoretisch sowieso erst bei Auslastung > 8 Kerne zu stande, vorher wird das ja eh alles mit dem 1. CCD abgefedert
Eben aber mit 100 MHZ weniger auf den Cores beim 9950x3d2 zum Vorgänger bzw. 500 MHZ zum 9850X3D wird da wohl eher nichts draus. /:
 
Wird ein reines Produkt für die Enthusiasten - 3D Cache auf zwei CCDs dürfte kaum etwas bringen. In Spielen sowieso nicht, weil es viel zu wenig Spiele gibt, die auf mehr als 8 Kernen laufen. Und wenn, dann dürfte der Lag aus der Kommunikation eh die Frametimes killen...
Und in Anwendungen bringt der Cache meist auch gar nichts.
Weiß also nicht, was AMD da macht. Haben die zu viele CCDs mit 3D Cache, die irgendwie weg müssen?

Die 2% Unterschied im Benchmark sind ja sogar innerhalb Messtoleranzen. Das wird in den meisten Fällen Richtung +-0 gehen.
 
Wann kommt der denn, weiß man da schon was?
 
Eine sache will mir einfach nicht aus dem Kopf gehen. Wieso baut man in die Gaming-CPU's eine IGPU ein? Wer sich solche High-End CPU kauft, nutze auch eine dedizierte GPU. Ich sehe den Platz sowie die Energie der IGPU als völlige Verschwendung, wobei diese Energie eher besser in die reine CPU Leistung fließen könnte.
 
Wird ein reines Produkt für die Enthusiasten - 3D Cache auf zwei CCDs dürfte kaum etwas bringen. In Spielen sowieso nicht, weil es viel zu wenig Spiele gibt, die auf mehr als 8 Kernen laufen. Und wenn, dann dürfte der Lag aus der Kommunikation eh die Frametimes killen...
Und in Anwendungen bringt der Cache meist auch gar nichts.
Weiß also nicht, was AMD da macht. Haben die zu viele CCDs mit 3D Cache, die irgendwie weg müssen?

Die 2% Unterschied im Benchmark sind ja sogar innerhalb Messtoleranzen. Das wird in den meisten Fällen Richtung +-0 gehen.
AMD wird das als reine Machbarkeitsstudie nutzen und sehen wie der Markt so eine CPU annimmt für den Zen 6 Launch hat man bei NV mit der 3090ti auch gesehen das war Quasi schon eine '4090 Light'

Lisa kann sich so was in der Jetzigen Situation locker leisten weil seitens INTEL keine Gefahr droht und mit dem 9850X3D macht sie nur das was Intel X Jahre mit ihren KS CPUs gemacht hat also auch hier ein Kluger Schachzug
 
AMD wird das als reine Machbarkeitsstudie nutzen und sehen wie der Markt so eine CPU annimmt für den Zen 6

Und feststellen, dass die dummen und fetten Gamer ihnen die doppel Cache Cpus aus den Händen reißen auch wenn es keinen Nutzen hat. /:

Wird Zeit das Intel mal wieder auf den Tisch haut.
 
Naja kommt drauf an ich glaube der 9950X3D2 wird jetzt nicht so das Objekt der begierde werden eher der 9850X3D

Viele die ein 9950X/X3D haben werden hier nicht um bedingt abgeholt weil das Upgrade quasi fast nicht lohnt auf Games bezogen
 
CES26 wird die Ankündigung kommen und evtl Feb verkauf

Hoffentlich bleibt der $€ kurs weiterhin schlecht was uns in die Karten dann spielt :ROFLMAO:
 
weil seitens INTEL keine Gefahr droht
Trügerische Ruhe.
Arrow Lake ist so schlecht nicht. Klar. Die X3D CPUs sind derzeit das Maß der Dinge (für Gamer). Wenn man sich aber mal den Vergleich zwischen den Non-X3D-CPUs aus Zen 5 und Arrow Lake anschaut, weiß ich nicht, was da eigentlich für AMD spricht. Die "Möglichkeit" in Zukunft eine CPU mit 3D-Cache nachzurüsten? Na ja...
In Spielen ist der 265K effizienter als ein 9700X und quasi gleich schnell...
In Anwendungen fliegt der 265K davon. Klar. Er verbraucht dann auch entsprechend. Spricht aber erstmal nicht viel gegen.
Wenn man dann noch berücksichtigt, dass der Verbrauch im Idle und in Teilllast auch für Intel spricht.
Also nüchtern betrachtet... Intel ist nicht weit weg.

Wenn man dann noch überlegt, was sich AMD für den 3D Cache bezahlen lässt. Und die Tatsache berücksichtigt, dass der 3D Cache auch nicht in allen Spielen zündet. Für eine X3D-CPU muss man eigentlich schon sehr differenziert hinschauen, was man so spielt und ob es was bringt.

Intels "Probleme" sind halt die eigene Fertigung bzw. der eigene Fertigungsprozess. AMD hat da in den letzten Jahren vor allem von TSMCs Fertigung profitiert.
War im Grunde auch der Grund warum RDNA2 gegenüber Ampere so stark war. Samsungs Prozess war einfach nicht auf dem Niveau von TSMC. Deswegen fiel der Sprung bei Ada für NV deutlich größer aus, als bei AMD mit RDNA3, wo man versucht hatte, mit dem Multichipdesign irgendwie den "Vorsprung" zu verteidigen. Ging ja eher nicht auf.
 
Man muss klar sagen die arrow Lake Plattform ist gegenüber am5 viel moderner und bietet mehr da brauch man nicht diskutieren genauso wenn es um Anwendungen geht abseits von gaming ist arrow Lake mehr als Konkurrenz fähig weil Intel endlich nicht mehr geizt mit Kernen wie früher

Da ich aber meinen PC nur für gaming nutze spielt das aber keine Rolle deswegen war meine Aussage auch auf gaming bezogen das Intel aktuell keine Konkurrenz ist aber wer weiß was die Zukunft bringt was ich aber als großen Vorteil bei AMD sehe ist die Langlebigkeit des Sockel gegenüber Intel wo ja gefühlt alle 2 Jahre ein neuer kommt
 
Selbst bei Gaming muss man die X3D-CPUs differenziert betrachten, weil sie in vielen Spielen eben auch gar nichts oder nur sehr wenig bringen. Dafür kostet ein 9800X3D im Vergleich zu einem 9700X halt 60% mehr.
Für im Schnitt 35% mehr Leistung.
Und in diesem Schnitt kann halt alles dabei sein. Von quasi null bis zu 70%.

Jetzt dürfen wir dabei auch nicht vergessen, das CPU-Tests im absolut forcierten CPU-Limit ausgeführt werden. Heißt bei vielen Magazinen und Online-Plattformen also 720p mit der aktuell stärksten verfügbaren Grafikkarte. Umso höher die Auflösung, umso unwichtiger wird die CPU.

Nur ein Beispiel. In Cyberpunk hat es bei Computerbase für 194 FPS gereicht beim 9800X3D.
In WQHD (Full RT) hat eine 5090 schon nur noch 94 FPS geschafft bei Computerbase.
Die 5080 lag bei 61 FPS und eine 5070 Ti gar bei 53 FPS.

Eine X3D-CPU macht aus meiner Sicht eigentlich nur Sinn, wenn man genau eines dieser 70-80% Performance Gain Spiele hat. Da sind neben Anno 1800 (Anno 117 reagiert da wohl nicht so extrem, Stand heute) vor allem Simulationen wie iRacing oder auch MSFS.

Keine Frage. AMD hat aktuell die stärksten Gaming CPUs am Markt. Aber rein objektiv betrachtet müsste man fürs Zocken keine X3D-CPU kaufen und ich frage mich manchmal, warum die Leute für 440 Euro einen 9800X3D kaufen aber dann nur eine 5060 Ti oder 9060 XT, anstatt dann halt lieber für 200 Euro mehr eine 9070 XT oder 5070 Ti und stattdessen eben nur einen 9700X oder 265K oder von mir aus einen 7600X3D ggfs. noch 7800X3D.
Aus meiner Sicht total der falsche Fokus. Wird in Kaufberatungen aber gern auch empfohlen. Wenn Gaming: X3D ein muss.
Aber das Beispiel Cyberpunk ist keine Seltenheit. Diese riesigen "Reserven" bekommst du einfach nicht ausgereizt.



AMD hat btw. in der Vergangenheit trotz gleichen Sockel schon einmal versucht über die Chipsätze Einschränkungen umzusetzen. Zen 3 sollte ursprünglich nur auf Boards mit 500er Chipsatz laufen. Hat man nach entsprechenden Shitstorm dann noch einmal sein lassen. Aber ausschließen würde ich solche Spielchen für die Zukunft nicht. Die 800er Boards sind ja auch schon ein ziemlich fauler Kompromiss, ist es doch derselbe Chipsatz wie bei den 600er Boards nur halt mit leicht angepassten Spezifikationen.



Im Grunde will ich nur sagen: Die Arrow Lakes sind gute CPUs und wenn Intel demnächst wirklich auch mit CPUs mit mehr Cache um die Ecke kommt, egal ob nun 2D oder 3D, dann könnte Intel auch schnell wieder dran sein.
 
Eine X3D-CPU macht aus meiner Sicht eigentlich nur Sinn, wenn man genau eines dieser 70-80% Performance Gain Spiele hat. Da sind neben Anno 1800 (Anno 117 reagiert da wohl nicht so extrem, Stand heute) vor allem Simulationen wie iRacing oder auch MSFS.

x3d machen nur sinn, wenn spiele wie apex, valorant, csgo, cod, bf6 spielst und dann auf 240 fps aus bist und diese mit hohen 0.1%/1% halten willst.
 
Was man den X3D CPUs aber zu gute halten muss welchen Verbrauch sie haben bei ihrer Leistung wenn ich an meinen 12900k bzw 285k denke waren immer so 100-120W in Warzone und jetzt mit dem 9800X3D Schimmel ich bei 70-80W rum
 
Zuletzt bearbeitet:
Um noch mal den Vergleich zu bringen.

Mein 285K pimmelt in Diablo 4 & 4K Auflösung bei ~ 23-29 Watt rum (ich habe die fps auf 144 begrenzt).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh