Ein Core i9-12900KS als Konter zu Ryzen mit 3D V-Cache

Habe leider auch mit meinem 5900x CPU Bottleneck .... 2080ti läuift auf gerade mal 80-85% die letzten 15-20% bleiben auf der Strecke.
WQHD @ Battflefield 2042.

Bringt trotzdem seine 120FPS @ HOCH aber man sieht wieder wie krass die 2080Ti eigentlich ist. Wir brauchen aktuell mehr CPU Power und keine GPU Power.

Eine 3080Ti lohnt sich aktuell nicht da man die eh nicht 100% ausnutzen kann, bringt einfach nichts.

Inzwischen machen die ganzen Review Helden FPS Vergleich unter CPU und nicht GPU xD

Früher gabs ne neue GPU und die konnte man immer 100% auslasten und es gab immer Reviews zur Leistung von der Grafikkarte.

Heute holste dir die beste Grafikkarte aber kannst nicht alle FPS nutzen und kaufst dir CPU´s um es auszunutzen. Wir haben aktuell zu viel GPU POWER.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@swat23052
Ist halt von der Auflösung dem Spiel und den Ingame Settings abhängig!
 
Zuletzt bearbeitet:
Ich hab ja kein Plan, wie du den Prozessor auf 80 Grad und mehr bekommst....
Das schafft man in dem man nur Luftpumpe fährt.

Die Themen sind voll in allen Foren, also erzähle mir nichts.

Sind alle unfähig jaja ich weiß 🤣
 
Das schafft man in dem man nur Luftpumpe fährt.

Die Themen sind voll in allen Foren, also erzähle mir nichts.

Sind alle unfähig jaja ich weiß 🤣
Ich bin nur entsetzt, meinen 3900x hab ich nicht so weit getrieben... Da bleibt nur mieser caseflow oder unterdimensionierte Kühlung
 
Auch wenn Ryzen hier in der Überschrift auftaucht, geht es hier doch um Intel nur mal so :hust:
 
Habe leider auch mit meinem 5900x CPU Bottleneck .... 2080ti läuift auf gerade mal 80-85% die letzten 15-20% bleiben auf der Strecke.
WQHD @ Battflefield 2042.

Bringt trotzdem seine 120FPS @ HOCH aber man sieht wieder wie krass die 2080Ti eigentlich ist. Wir brauchen aktuell mehr CPU Power und keine GPU Power.

Eine 3080Ti lohnt sich aktuell nicht da man die eh nicht 100% ausnutzen kann, bringt einfach nichts.

Inzwischen machen die ganzen Review Helden FPS Vergleich unter CPU und nicht GPU xD

Früher gabs ne neue GPU und die konnte man immer 100% auslasten und es gab immer Reviews zur Leistung von der Grafikkarte.

Heute holste dir die beste Grafikkarte aber kannst nicht alle FPS nutzen und kaufst dir CPU´s um es auszunutzen. Wir haben aktuell zu viel GPU POWER.
4K und schon hat man seine 3080 oder 3090 @ 100% Auslastung. Von mir aus kann schon die 4000er Serie kommen.
 
Der wichtigste Satz im Artikel ist:
Aktuell lassen sich die Gerüchte zu einem Core i9-12900KS nicht bestätigen.
Auch würde ich vorschlagen die Überschrift solcher News immer mit dem Prefix "Gerücht:" zu versehen, damit jedem klar ist, dass es hier nur um ein Gerücht geht. Dazu noch eines, welches wenig glaubhaft ist, denn 5,2GHz Allcore bringen in Spielen auch praktisch nichts, da die allermeisten Spiele eben nur einem oder zwei wirklich auslasten, aber nicht alle. Man sieht das ja auch anhand der Leistungsaufnahme bei Spielen, die weit unter der liegt, die man mit Benchmarks wie Cinebench erreicht, die wirklich alle Kerne voll auslasten können.

So eine 5,2GHz Allcore CPU würde also vor allem bei Benchmarks wie Cinebench etwas bringen, aber eben nicht bei Spielen, während der 3D V-Cache von AMD genau auf das Gegenteil abzielt und bei Cinebench gar nichts bringen dürfte, da bei Cinebench das Ergebnis kaum von der Speicherperformance profitiert, also bremsen RAM Zugriffe bei Cinebench die eigentliche Berechnung auch praktisch nicht und damit kann ein zusätzlicher L3 Cache auch nichts bringen, denn der Effekt den er haben kann ist ja gerade, dass er die RAM Zugriffe verringert und stattdessen die Daten die im Cache stehen, schneller als das DRAM liefern kann.

Beides würde also in komplett unterschiedliche Richtungen zielen und damit könnte der 12900KS auch nicht als Konter zu AMDs 3D V-Cache funktionieren, weshalb ich wenig auf das Gerücht gebe. Für einen Konter bei Spielen müsste so ein 12900KS mehr Singlethreadtakt bekommen, aber nicht mehr Allcore Takt!
 
@Holt
Sehr gute und logische Analyse - leider wird diese KS Edition, sollte sie denn kommen, nicht von Technikern gebracht, sondern vom Marketing. Und die "bewerten" das sicherlich anders ;-)
aber es steht jedenfalls ein sicher spannender Januar an...
 
Ich bin nur entsetzt, meinen 3900x hab ich nicht so weit getrieben... Da bleibt nur mieser caseflow oder unterdimensionierte Kühlung
5900x und 6 Threads Prime 95 = knapp 90°C auch mit fetter WaKü als max auf einem CCD.
Mit DarkRock Pro 3 bin ich sogar direkt bei 90-91°C und er drosselt. Kollege mit custom WaKü bei 88°C.

Das Problem ist einfach, dass man die Hitze nicht weg bekommt bei 7nm. Keine Ahnung obs besser wäre, würden die CCDs mittig liegen.
 
Keine Ahnung obs besser wäre, würden die CCDs mittig liegen.
Nö, weil die Fläche vom silizium schlicht nicht reicht. Wenn du Prime mit 6 Threads startest, dann laufen die auf einem Chiplet umd deshalb dürfte dir die Cpu wegkochen. Wenn bei dir Prime rennt, sprengt die Cpu das PPT von 142W?
 
So eine 5,2GHz Allcore CPU würde also vor allem bei Benchmarks wie Cinebench etwas bringen, aber eben nicht bei Spielen,
Das sehe ich nicht so, denn der 12900K geht @Stock in vielen CPU-lastigen Spielen auf 4,9-5,0 GHz auf allen P-Kernen runter, den maximal möglichen Boost sieht man in der Praxis so fast nie, weil eben zu viel Last für die Automatik herrscht. Da ist ein schön hoher Allcore Multi mit festgenageltem Takt doch angenehmer :) Natürlich stellt man das einfach im BIOS ein, statt auf eine KS CPU zu warten.

Für Anwendungen würde es nur etwas bringen, wenn man gleichzeitig mehr Strom zulässt. Bei 5,2 GHz Allcore ist selbst 250W zu knapp.
 
der 12900K geht @Stock in vielen CPU-lastigen Spielen auf 4,9-5,0 GHz auf allen P-Kernen runter
...
Natürlich stellt man das einfach im BIOS ein, statt auf eine KS CPU zu warten.
Hast Du das gemacht und was hat es an fps gebracht?

Für Anwendungen würde es nur etwas bringen, wenn man gleichzeitig mehr Strom zulässt. Bei 5,2 GHz Allcore ist selbst 250W zu knapp.
Das ist klar, wobei dann das Binning ins Spiel kommen und man Dies für den 12900KS wählen würde, die besonders taktfreudig sind und dies auch bei nicht so hohen Spannungen schaffen, eben damit die Leistungsaufnahme nicht so extrem wird.
 
Statt Kerntakt lieber RAMTAKT was eh mehr bringt als 200-300 Mhz beim Kern.
 
Ja bring schnelleren RAM auf den Markt, dann mach ich das.

Aber
hqdefault.jpg


Hast Du das gemacht und was hat es an fps gebracht?
Unbenannt.png
Unbenannt (1).png


Zum Beispiel Far Cry 5. Ringbus Spannung etc. noch nicht optimiert...
 
5900x und 6 Threads Prime 95 = knapp 90°C auch mit fetter WaKü als max auf einem CCD.
Mit DarkRock Pro 3 bin ich sogar direkt bei 90-91°C und er drosselt. Kollege mit custom WaKü bei 88°C.

Das Problem ist einfach, dass man die Hitze nicht weg bekommt bei 7nm. Keine Ahnung obs besser wäre, würden die CCDs mittig liegen.

Das musst du mir mal erklären wie du das hinbekommst, bzw. womit du kühlst und wie hoch die Wassertemperatur ist. Mein 5900x wird in Games maximal 55° warm und bei CB R20 knapp über 60°. Auch mit "fetter" Wakü.
 
So ist es,

war bei meinem 5900X ähnlich bei den Temps. Nun gut der jetzige 5950X legt allerdings ein paar Grad drauf. ;)


Gruß

Heinrich
 
Da zu noch ne RTX 40000 oder RX7000 nächstes Jahr und man ist erstmal wieder up top Date.
Also bis zur RX 7´000´er Gen musst lediglich noch ca. ein Jährchen warten, aber bis zur RTX 40´000´er ca. bare 18,5 Jahre ... :coffee3:

MfG Föhn.
 
Intel und AMD können von mir aus zig neue High End CPUs bringen.
Ich bleibe bis auf Weiteres beim 3700X. Der hat genug Power um die GTX 1080 zu versorgen.
Bevor sich an den GPU Preisen nicht deutlich etwas bessert, wird da keine neue gekauft und somit auch keine neue CPU.
 
Also einen 5900x mit 3D Cache würde ich schon gerne nehmen.
 
naja, das Eine ohne das Andere macht ja auch keinen Sinn
Genau so siehts aus.
Das war ja auch der Inhalt meines Posts
Bevor ich das Eine nicht zu vernünftigen Konditionen haben kann, können Intel/AMD vergessen, dass ich das Andere kaufe.
Völlig egal wieviel Leistung sie mir präsentieren.
 
Wäre mal interessant zu wissen, wie viel Interesse AMD und Intel daran haben, dass bei AMD und Nvidia die Grafikkartenpreise endlich mal wieder sinken? Vor dem Hintergrund, dass viele User ihre CPU nicht aufrüsten, ohne auch ihre GPU aufrüsten zu können. Gibt ja nicht mal Verkaufsförderung von AMD "kaufen jetzt eine AMD-CPU und spare bei der AMD-GPU 20% (gibt dann z.B. Gutschein für die nächste GPU-Generation)" oder sowas.
 
gibt es denn irgendwelche leaks zu den neuen AMD cpus? wenn sie im januar rauskommen, dann sollten ja normaler weise leaks schon geben.
 
Ab 4.Januar kommen neue Infos...sonst gibt es nichts Zuverlässiges
 
Wäre mal interessant zu wissen, wie viel Interesse AMD und Intel daran haben, dass bei AMD und Nvidia die Grafikkartenpreise endlich mal wieder sinken? Vor dem Hintergrund, dass viele User ihre CPU nicht aufrüsten, ohne auch ihre GPU aufrüsten zu können. Gibt ja nicht mal Verkaufsförderung von AMD "kaufen jetzt eine AMD-CPU und spare bei der AMD-GPU 20% (gibt dann z.B. Gutschein für die nächste GPU-Generation)" oder sowas.
Dürfte die kaum interessieren, das Selbstschraubergeschäft ist Nische im Vergleich zu Fertig-PCs/Laptops. Und da gibt es ja aus beiden Lagern verfügbare CPUs mit iGPUs, oder Mobile Varianten.
 
Wäre mal interessant zu wissen, wie viel Interesse AMD und Intel daran haben, dass bei AMD und Nvidia die Grafikkartenpreise endlich mal wieder sinken?
Intel macht ja was, indem sie eigene GPUs entwickelt haben und auf den Markt bringen. Selbst wenn diese mehr auf CPU Computing (wie AI) zielen, so wäre jede Intel GPU die dafür verwendet wird, im Prinzip eine von AMD oder NVidia die deshalb nicht verkauft wird und damit den Markt für Gamer entlastet. AMD könnte natürlich selbst mehr tun, aber sie haben eben keine eigenen Fabs und die Kapazitäten der Foundrys sind nun einmal schon extrem ausgelastet.

Außerdem will und muss auch AMD Geld verdienen und wenn sie das nicht über die Massen können, müssen sie es über die Margen machen, werden also die knappen Resourcen vor allem Produkte verteilen an denen jeweils gut verdient wird. Das machen andere auch, die Autohersteller bauen bevorzugt die teuren Modelle mit guten Margen als die knappen Chips in Basismodelle mit knappen Margen zu stecken und Intel hat es damals als die 14nm Fertigungskapazität zu knapp war, ebenso gemacht. Das ist also ein normaler Vorgang und deswegen sollte man keinen Hersteller verteufeln.
Dürfte die kaum interessieren, das Selbstschraubergeschäft ist Nische im Vergleich zu Fertig-PCs/Laptops.
So ist es und auch bei den GPUs dürften die Gamer inzwischen nicht mehr die größte Zielgruppe sein, sondern AI und Minung.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh