[Kaufberatung] Langfristige Gaming CPU

Was 'passt' am ehesten zum 12400? 3600mhz mit CL16 oder 18, oder eher 3200mhz CL14? Oder kann man das so nicht sagen, weil da noch andere Faktoren mit reinspielen?
Tja wenn es darauf endlich mal eine vernünftige Antwort geben würde.
Fakt ist 32GB 3600 CL18 bekomm man praktisch ohne aufpreis (günstigster 3200 meist 110€ der 3600rt CL18 liegt dann bei 127€).
Schon die nächste Stufe CL16 kostet dann mal eben 40-50€ aufpreis.

Wieviel es bringt ist leider die große Frage.
Meine Meinung ist wenn man eh schon auf 3200Mhz ist (also XMP geladen) bringen die weiteern Schritte nur sehr minimal mehr Leistung.
Andere sagen halt das 10-30% Leistung möglich ist wenn man so auf 3600/4000 mit CL14 kommt nur da fehlen mir halt etwas die Beweise weil wenn da so Videos gemacht werden nehmen die oft als Basis Takt 2133Mhz oder 2666 als Basis.
Auch der 8Bauer mach dann Videos wo er seinen speicher auf 4400+Mhz hochprügelt und auch die Memory Benchmarks sich teilweise fast verdoppelt aber beim spielen war er dann auch unter 10%+.
Weil meistens limitiert ja die GPU und nicht die CPU wobei du mit deinen max FPS in den competiv Shootern hier auch eher die Ausnahme bist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Tests, in denen gezeigt wird, wie die Framerate in Anwendungen und Games mit den Timings von DDR4-RAM skaliert, gibt es schier unzählige. Einen Überblick darüber, welchen Nutzen man von gut übertaktbarem RAM hat, kann man sich also leicht verschaffen. Stellvertretend sei hier nur dieser Test angeführt https://www.igorslab.de/tuning-bedu...-gb-kit-test-mit-overclocking-und-teardown/8/ Allerdings basiert dieser auf der Rocket Lake- bzw. der Ryzen-Plattform, die insgesamt etwas schlechter mit den RAM-Timings skalieren als die neue Alder Lake-Plattform. Der verlinkte Test zeigt, daß vor allem die Frametimes profitieren und daß Module mit Samsung B-Die das mit Abstand beste Potential auf weisen.
Die von mir oben genannten GSkill 3200 CL14 https://geizhals.de/g-skill-ripjaws...0c14d-32gvk-a1382377.html?hloc=de&hloc=uk&v=e weisen, wie alle 3000MHZ+,CL14- Module Samsung B-Die-Chips auf und lassen sich, sofern nicht der IMC der CPU oder das Board limitieren, ohne Probleme mit 4000MHz CL16 betreiben. Mit ausreichender Kühlung sind sogar mehr als 4000MHz und/oder CL14 möglich. Die hier erwähnten 16GB-Module mit 3600 MHz CL16 oder CL18 dürften allesamt auf langsameren Chips von Samsung, Micron oder Hynix basieren, vgl. https://www.hardwareluxx.de/communi...b-die-liste-alle-hersteller-02-02-22.1161530/
Die lassen sich bisweilen auch bis ca. 3800MHz takten, benötigen dafür aber deutlich entspanntere Timings.
 
Wie bereits geschrieben, gibt es eine Vielzahl von Tests zur Performanceskalierung mit dem RAM-Timings. Darunter sind auch solche, in denen die Standardtimings berücksichtigt werden. Für Alder Lake sind solche Tests relativ rar, da diese Plattform noch jung ist und die Top-Mainboards bereits auf den DDR5 aufbauen. Die Erfahrungen aus einschlägigen Userforen zeigen, dass DDR4 auf Alder Lake i.d.R. deutlich besser skaliert als auf der Vorgänger- und auf der Ryzenplattform.
 
Dann nochmal dumm gefragt, bei dem 3600mhz CL16 ungetaktet, hätte ich entsprechende Werte (3600mhz CL16) und bei dem B-Die 3200mhz CL14 käme ich per Takt an den 3600mhz CL16 "dran (3600mhz CL16) und vorbei (4000mhz CL14)"? Je nach Erfolg der Übertaktung.
Ist eine Übertaktung des Arbeitsspeichers für einen RAM-Laien wie mich ein schwieriges Unterfangen, oder dürfte ich mich da mit ein bisschen Anleitung gut zurechtfinden?
Anhand meiner Fragen, kann eventuell mein ungefährer Kenntnisstand erahnt werden.

Die Videos werde ich mir heute Nachmittag nochmal zu Gemüte führen.
 
3200 Cl14 und 3600 Cl16 dürften im Vergleich zur JEDEC-konformen Einstellung mit 3200MHz Cl22 im Mittel den gleichen Performancezuwachs liefern. Im Einzelfall hängt das von der Anwendung ab. Einige Anwendungen reagieren sensibler auf Latenz (i. e. Cl) und andere auf Durchsatz (i.e. MHz). Das Übertakten von RAM, insb. mit Samsung B-Die erfordert etwas Eingewöhnung, ist aber kein Hexenwerk und gut dokumentiert. Hier im Forum gibt es bspw. den bereits zitierten Thread https://www.hardwareluxx.de/communi...b-die-liste-alle-hersteller-02-02-22.1161530/ , welcher wichtige Zusammenhänge der Skalierung beleuchtet https://www.hardwareluxx.de/community/attachments/s8b-cas-scaling-kbl-png.684261/ . Ferner gibt es einen gehaltvollen DDR4-RAM-OC-Thread https://www.hardwareluxx.de/community/threads/intel-ddr4-ram-oc-thread-guides-und-tipps.1230518/ . Im OC-Thread für Alder Lake findet man wertvolle Informationen/ Beispiele zum DDR4-RAM-OC mit dieser Plattform https://www.hardwareluxx.de/community/threads/oc-prozessoren-intel-sockel-1700-alder-lake-s.1307015/
 
Tja wenn es darauf endlich mal eine vernünftige Antwort geben würde.
Fakt ist 32GB 3600 CL18 bekomm man praktisch ohne aufpreis (günstigster 3200 meist 110€ der 3600rt CL18 liegt dann bei 127€).
Schon die nächste Stufe CL16 kostet dann mal eben 40-50€ aufpreis.

Wieviel es bringt ist leider die große Frage.
Meine Meinung ist wenn man eh schon auf 3200Mhz ist (also XMP geladen) bringen die weiteern Schritte nur sehr minimal mehr Leistung.
Andere sagen halt das 10-30% Leistung möglich ist wenn man so auf 3600/4000 mit CL14 kommt nur da fehlen mir halt etwas die Beweise weil wenn da so Videos gemacht werden nehmen die oft als Basis Takt 2133Mhz oder 2666 als Basis.
Auch der 8Bauer mach dann Videos wo er seinen speicher auf 4400+Mhz hochprügelt und auch die Memory Benchmarks sich teilweise fast verdoppelt aber beim spielen war er dann auch unter 10%+.
Weil meistens limitiert ja die GPU und nicht die CPU wobei du mit deinen max FPS in den competiv Shootern hier auch eher die Ausnahme bist.
der größte sprung kommt beim optimieren der subtimings. das macht roman glaub ich nicht. dazu wird ihm vermutlich auch einfach die zeit fehlen.

das macht auch sonst kein techtuber da das einfach zu aufwendig ist und am ende nur sehr wenige anspricht und für den youtube channel nicht passt... leider
 
Ich halte vom Ram Ocen nicht viel, es ist aufwendig das System richtig zu Testen, zwar kann man Prime, Karu, Memtest und Benchmarks x Stunden laufen lassen aber in Spiel XY kann es auf einmal Crashen, wer nicht den halben Tag Videos rändert und Zipdateien auspackt kauft lieber einfach ein gescheites Ram Kit.

Ich habe einfach ein 32Gb kit 2x16GB von Crucial gekauft 16-18-18 DualRanked = nicht das selbe wie Dual Channel, (((sind aber selten und nur noch schwer zu bekommen))) DualRanked gibt auch nochmal ein paar Prozent Leistung. Hat grad mal etwas über 100Euro gekostet das Kit.
Man sollte also nicht unnötig Geld in Ram stecken, dann lieber die 100Euro sparen und in eine bessere CPU oder Grafikkarte, das bringt dann auch überall im Game mehr Leistung.
 
Ich stehe vor einem sehr ähnlichen Thema und bin gedanklich auch beim i5-12400 gelandet, Netzteil ist bei mir ein Corsair 650W Gold Netzteil, das würde ich evtl noch ein wenig leben lassen, muss aber nicht.

Meine Frage dazu, hier prügeln sich viele Enthusiasten zwischen I5, I7 und I9 was denn nun für gaming optimal ist ... Na was denn nun nehmen? Klar, mehr Kerne, mehr Leistung, aber wieviele Spiele brauchen tatsächlich mehr als 6 Kerne? Starcitizen greift nur auf 4 zu wenn ich es recht im Kopf habe und ist schon einer der wilderen Leistungsfresser.

Mein Hauptziel BF/COD aber vor allem Starcitizen ... K Prozessoren interessieren mich so gut wie gar nicht, da ich nicht übertakten will&werde, daher Z-Boards auch nicht zwingend.

Ich habe mir einige Benches und viele Meinungen angesehen, meine Frage ist nun eher, reicht der I5 so wie es viele Artikel eigentlich bejahen um eine 2060 oder höher GPU asureichend zu befeuern? Denn so enorm ist der Zuwachs in Game Benchmarks auf I7 bzw dann weiter auf I9 nicht, dass es den 2-4fachen Preis rechtfertigt (rein subjektiv in meinen Augen)

Ich bin absolut unschlüssig welche I-Ebene die beste der Wahl ist wenn man gut spielen aber nicht zwingend horrende Summen investieren will.

Danke Euch!
 
Ich bin absolut unschlüssig welche I-Ebene die beste der Wahl ist wenn man gut spielen aber nicht zwingend horrende Summen investieren will.
Schau dir Mal den luxx Test zum i3-12100 an. Der sollte alle Fragen beantworten, da der Kleine Kampfzwerg sich wirklich gut schlägt.

Wenn du dazu noch n bisschen Reserve für discord, YouTube und Kram im Hintergrund möchtest bist Du beim i5-12400.

Wenn du weißt dass du mit der 2060 sowieso im GPU Limit hängen wirst, kannst du auch einen billigen 10400 nehmen.

Oder einen 10100
 
Ich hab den test von Pcgameshardware gesehen. Sie haben den vergleich i3 12100 vs i9 12900k in gaming getestet mit einer rtx 3070. Das erstaunlich ist durchschnittlich mit dem i9 kriegt man 2 fps mehr .Ob der aufpreis für 2 fps wert ist muss du selbst entscheiden. Ich persönlich kenne leute die ka von Hardware haben. Man stellt den zb i7 920 im vergleich zu ein i3 8350k. Die sagen der i7 ist besser. Dann fragt man warum. Die aussage dann, weil es ein i7 ist und i3 spiele untauglich ist....

 
Zuletzt bearbeitet:
so wie du schreibst könnte man meinen dass der unterschied tatsächlich so gering ist. der grund ist aber nicht die cpu sondern die gpu. natürlich liegen zwischen einem i9 und einem i3 deutlich mehr als 2 fps. die frage ist. hat man eine gpu und settings die diese unterschiede auch sichtbar machen?

der rest ist natürlich korrekt. ^^
 
so wie du schreibst könnte man meinen dass der unterschied tatsächlich so gering ist. der grund ist aber nicht die cpu sondern die gpu. natürlich liegen zwischen einem i9 und einem i3 deutlich mehr als 2 fps. die frage ist. hat man eine gpu und settings die diese unterschiede auch sichtbar machen?

der rest ist natürlich korrekt. ^^
Das wäre die interessante frage. In diesen test von pc hardware game wird ja in 1080p getestet da ist der unterschied so geringen. in Cinebench test da haut der i9 12900k easy den i3 12100 weg. Hat jemanden von euch beide cpu um gegen einanderer zu SpieleBenchen? In verschiedene einstellung?
 
Das wäre die interessante frage. In diesen test von pc hardware game wird ja in 1080p getestet da ist der unterschied so geringen. in Cinebench test da haut der i9 12900k easy den i3 12100 weg. Hat jemanden von euch beide cpu um gegen einanderer zu SpieleBenchen? In verschiedene einstellung?
Ist doch schon 1000x gemacht worden.
Einfach Benchmarks anschauen.
Man muss nur verstehen was CPU Limit und GPU Limit ist.
 
Ist doch schon 1000x gemacht worden.
Einfach Benchmarks anschauen.
Man muss nur verstehen was CPU Limit und GPU Limit ist.
Ich persönlich kenne von einen Kumpel. Der hat sich von ein shop ein pc zusammen gestellt. Bei ihn drin ist ein i9 9900k, aber eine gt 1030, weil am ende das geld nicht mehr reicht für eine andere gpu. Der glaubt durch den dicken cpu kann er alles gut spielen. Am ende ist das so, dass mein Pc mit ein i3 8350k und gtx 1060 3gb in game viel besser performt als sein pc. Und der wundert sich wieso. Ich hab meinen selbst zusammen gebaut.
 
Und der wundert sich wieso.
Was mich wundert:
wenn du die Grundprinzipien kennst, warum willst du dann noch nen 1001 Benchmark haben?
Weil du den Unterschied von stark parallelisierbaren Rendertasks wie Cinebench und Single-thread limitierten Spielen nicht erkennst? (Vgl i3-12100 Test)
:confused:

Beitrag #29 und #31

Oder auch der hier:
 
Was mich wundert:
wenn du die Grundprinzipien kennst, warum willst du dann noch nen 1001 Benchmark haben?
Weil du den Unterschied von stark parallelisierbaren Rendertasks wie Cinebench und Single-thread limitierten Spielen nicht erkennst? (Vgl i3-12100 Test)
:confused:

Ich persönlich erkenne bei cinebench nicht die Limitierung auf Spiele übertragen. Deswegen wollte ich den in eine spielebenchmark sehen. Danke noch für den link ich guck mir den an
 
Ich persönlich erkenne bei cinebench nicht die Limitierung auf Spiele übertragen. Deswegen wollte ich den in eine spielebenchmark sehen. Danke noch für den link ich guck mir den an
TLDR:
12100 und 12400 (und noch größere CPUen) sind in den allermeisten Spielen extrem nah beieinander.
Spiele skalieren bis 4 Kerne, in Ausnahmefällen bis 6 Kerne. Mehr als 6 bringen dir garnix.
Sieh zu dass du möglichst schnelle 6 Kerne bekommst, also moderne Architektur für IPC und möglichst viel Takt.

Cinebench hingegen paralelisiert gegen unendlich. Dem kannste auch nen Epyc 7763 geben, Cinebench vernascht den (dann halt nur für 10s).
 
Spiele skalieren bis 4 Kerne, in Ausnahmefällen bis 6 Kerne. Mehr als 6 bringen dir garnix.
Weiß das auch schon die Fraktion hier im Forum, die der felsenfesten Meinung ist, dass man selbst mit einen 6 Kerner nur noch Peggle in max. 1280er Auflösung ruckelfrei daddeln könnte.?
 
Mittlerweile sind 6 Kerne das absolute Minimum, ausgenommen ältere Spiele. Neue Spiele laufen auf Quadcores wenn nur ruckelnd bzw. mit Drops. Ab 6 Kernen werden auch die Min-FPS deutlich besser. Dennoch sind auch 8+ Kerne nicht zu viel, es ist das selbe Argument wie aus Zeiten von R7 1700 vs 7700K, es gibt auch noch Hintergrundprozesse und die federt eine multicorefähige CPU einfach besser ab. Das sah man früher immer sehr gut, da Intel mit weniger Kernen meist die besseren Max-FPS, doch deutlich niedrigere Min-FPS hatte. Für Officekram sind auch 4 Kerne weiter genug.
 
Ich weiß ja nicht was in deinen Augen neuere Games sind aber BF5, BF1 usw. kann ich mit meiner i3 12100 und älteren RX5600XT, sogar auch mit einer noch älteren GTX770 1080p ruckelfrei spielen.
Es daddelt halt nicht jeder nur 4k und auch wenn man es nicht glauben kann, die Games machen sogar niedrigere Auflösungenunter 4k noch mit. Sogar ohne Patch.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh