Core i9-12900K und Core i5-12600K: Hybrid-Desktop-CPUs Alder Lake im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Paddy, dass hat kein Zweck hier auf sachlicher Ebene weiter diskutieren zu wollen.
Der Frust, sitzt bei einigen halt seit gestern zu tief um einer sachlichhen Diskussion ggü. noch aufgeschlossen zu sein.

Mich freuts, Intel hat mal wieder sehr starke CPUs abgeliefert, AMD hat nachweislich das nachsehen.
Jetzt setzt man halt als letzten Strohhalm auf eine angekündigte "Notlösung" ohne überhaupt anhand nachvollziehbarer Fakten vorab sich darüber freuen zu können.
Das ist Spekulatius in Reinkultur. Aber lassen wir sie mal spielen. :)
 
Dann nimm halt ein B660 Board, das DDR4 supported, und du hast die Nachteile beim Speicher nicht mehr. Dann kannste dann auch auf nen 12900 upgraden oder doch einen 12700, wenn es dir um P/L geht. Aber sowas siehst du ja nicht durch deine rot verfärbte Brille. Bei deinem ganzen Gesabbel, das sich hier mittlerweile schon über Seiten zieht, suchst du bei Intel immer nur nach den Haaren in der Suppe, während du bei alle Nachteile ignorierst und nur die Vorteile aufzählst.
Spieluhr hat das H610 als gute Budgetlösung angepriesen und ich sehe das halt nicht so, das ist nicht für Gaming ausgelegt wie man ja an der Speicherlimitierung sehen kann.
Wir werden das dann halt sehen, wenn die ersten Vergleichstests anrollen.

Gegen das B660 spricht nichts dagegen, aber das wird wohl nicht für 50€ zu bekommen sein.
Beitrag automatisch zusammengeführt:

Solange es noch nicht die Adapter für DDR4 on DDR5 gibt ist es irgendwie zu schade ne CPU zu kaufen die DDR5 kann aber dann mit einem Board zu verschwenden was nur DDR4 kann.
Igors Test hat ja gezeigt das der Leistungssprung zum 5600x jetzt nicht Welten sind.
 
Spieluhr hat das H610 als gute Budgetlösung angepriesen und ich sehe das halt nicht so, das ist nicht für Gaming ausgelegt wie man ja an der Speicherlimitierung sehen kann.

..und auch das hast du mal wieder falsch / nicht richtig gelesen oder verstanden, sei es drum und versuchst hier wieder Tatsachen zu verdrehen:

edit: Aber sei es drum, die nächsten Tage/Wochen werden die H610 Boards in den Regalen liegen, dann können wir gerne auf "diesen Level" noch einmal gegen rechnen.
Auch wenn sich das REAL kein Intel User mit 12400 CPU ernsthaft konfigurieren würde, genau so, wie es kein AMD User mit 5600X CPU anhand deiner Konfiguration sich antun würde.

Gute Budgetlösung ist keines von beiden, STEHT AUCH DA und wo habe ich das je behauptet?

Wie lange willst du diese Spielchen noch aufrecht erhalten? :hmm:
 
Fürs Gaming schon.
In dem Budget Bereich greift man auch eher zu GPUs wie einer 6600xt, die von AMD auf PCIe Lanes beschnitten wurde. Demnach hätte man beim b450 dann nur PCIe 3.0 8x gegen PCIe 4.0 x8 (GPU unterstützt nur PCIe 4.0). Dort kann es beim Gaming ebenfalls zu Problemen bzw. Performance einbrüchen kommen.
Solange es noch nicht die Adapter für DDR4 on DDR5 gibt ist es irgendwie zu schade ne CPU zu kaufen die DDR5 kann aber dann mit einem Board zu verschwenden was nur DDR4 kann.
Igors Test hat ja gezeigt das der Leistungssprung zum 5600x jetzt nicht Welten sind.
Aber es geht doch um Budget und mit DDR4 hat man keinen wirklichen Performanceverlust.

Paddy, dass hat kein Zweck hier auf sachlicher Ebene weiter diskutieren zu wollen.
Der Frust, sitzt bei einigen halt seit gestern zu tief um einer sachlichhen Diskussion ggü. noch aufgeschlossen zu sein.

Mich freuts, Intel hat mal wieder sehr starke CPUs abgeliefert, AMD hat nachweislich das nachsehen.
Jetzt setzt man halt als letzten Strohhalm auf eine angekündigte "Notlösung" ohne überhaupt anhand nachvollziehbarer Fakten vorab sich darüber freuen zu können.
Das ist Spekulatius in Reinkultur. Aber lassen wir sie mal spielen. :)
Jap und dann erdreistet er sich auch noch andere als Fanboys zu bezeichnen. Ich frag mich ziemlich oft, ob der nicht einfach nur nen Troll ist..
 
Aber beim H610 sind der Single Channel RAM oder fehlendes RAM OC, dann auf einmal die ganz großen Probleme. :rolleyes:
Bzgl. Single Channel scheint es sich inzwischen als Irrtum erwiesen zu haben. Laut Ark.Intel hat der H610 "# of DIMMs per channel: 1" und wie man auf den Bildern der H610 Platinen in euer News "Intel H670, B660 und H610: 17 Mainboards kommen von ASRock" sieht, habe die H610 Boards eindeutig 2 RAM Slots verbaut. Es bleibt also alles wie bei den Vorgängern, der Einstiegschipsatz unterstützt zwar ebenso 2 Speicherkanäle, aber nur ein 1 statt 2 DIMM pro Channel.
 
Oh man, ich wollte euch eigentlich noch weiter spekulieren lassen aber egal.

H610 unterstützt genau so DualChannel wenn zwei Dimms gesockelt werden, wie B660 oder H670. Es steht halt nur ein Speicherkanal dafür zu Verfügung.
Wären da vier Dimm Slots vorhanden und es stände nur ein Speicherkanal zu Verfügung, dann würde H610 halt sogar Quadchannel unterstützten. Schönen Gruß an X299 Chipsatz.

Blick in ein beliebiges H510 Handbuch reicht schon:
1. For dual channel configuration, you always need to install identical (the same brand, speed, size and chip-type) DDR4 DIMM pairs.
2. It is unable to activate Dual Channel Memory Technology with only one memory module installed.
..so, ich hoffe, nun sind alle Klarheiten beseitigt.
 
Oh man, ich wollte euch eigentlich noch weiter spekulieren lassen aber egal.

H610 unterstützt genau so DualChannel wenn zwei Dimms gesockelt werden, wie B660 oder H670. Es steht halt nur ein Speicherkanal dafür zu Verfügung.
Wären da vier Dimm Slots vorhanden und es stände nur ein Speicherkanal zu Verfügung, dann würde H610 halt sogar Quadchannel unterstützten. Schönen Gruß an X299 Chipsatz.

Blick in ein beliebiges H510 Handbuch reicht schon:

..so, ich hoffe, nun sind alle Klarheiten beseitigt.

Ich hab hier mal rein geschaut, also es handelt sich um die Anzahl der Dims pro channel.. Das ist was anderes wie die Anzahl der channels.. Dann ist das in der Tabelle etwas irreführend. Dimms per channel ist halt ungleich number of channel...

Das habe is aus dem Kontext der Tabelle missverstanden.

Da ist die Rede von Number of Channel.
 
Ja, dass steht auch bei H510, H410 ... usw.. bei allen diesen LowBudget Boards bis runter Core2Duo und davor.
Das sind halt Office Boards bzw. OEM Bestücker Bretter und da sind zb. CPUs 12100 und darunter besser für gedacht.
Trotzdem besitzt auch das H610 einen sehr flotten DMI4.0 Bus, den ich auch gerne bei meinen Z590 hätte ( :d neidisch auf Don bin) und dem auch dein genannter B450 Knochen nicht hat.

..und zu den Intel Specs. Dort ist immer der Chipsatz und dessen Eigenschaften aufgeführt und ja, H610 hat einen Speicherkanal, dass ist vollkommen richtig dort deklariert.
Mit wievielen Dimm Slots nun die Boardpartner diesen Speicherkanal ansprechen / designen, dass ist denen überlassen, unterliegt aber auch einer max. adressierbaren Limitierung.
Bei H610/B660/H670 sind es halt die üblichen 2 Dimm Slot per Chipset Channel. B660/H670 hat 2 Chipsetchannel ergo 4 Dimm Slot. H610 hat 1 Chipsetchannel, ergo 2 Dimm Slot.
Selbst X299 hat laut Intel Specs zum Chipset 2 Speicherkanäle, Boards besitzen aber i.d.R. 8 Dimm Slot. Heißt, per Chipsetchannel können dort bis zu 4 Dimm Slot im QuadChannel adressiert werden.
Es bleibt ja alles so wie Intel es vorgibt: 1 Speicherkanal = 1 Dimm. Die Boardpartner haben halt nur vor Urzeiten die Möglichkeit des parallelen Zugriffs auf ein Modulpaar für sich entdeckt, bündeln quasi dessen Transferrate und schicken das dann Package über den Bus zum Chipset. Dem Chipset ist das Schnurz von wo das kommt, Datenströme sind Datenströme und auch wie die Dimm Slots nun bestückt werden, da hat der Anbieter keinen Einfluss darauf, das obliegt dem Nutzer und je nach dessen Kenntnisstand in Sachen Hardware, können diese also dann halt SC, DC flex, DC async, DC interleaved oder gar nicht laufend bestückt werden.
 
Zuletzt bearbeitet:
Das ist aber auch bescheuert beschrieben von Intel. In der uns vorliegenden Präsentation heißt es "System Memory Channels Supported", was für mich klar die Anzahl der Speicherkanäle sind. Warum steht da nicht einfach "DIMMs per Channel"?
 
Zum Chipset steht es aber eindeutig auf der Intel Seite:
Memory Specifications:
# of DIMMs per channel: 1

(# of DIMMs per channel: DIMMs per Channel indicates the quantity of dual inline memory modules supported per each processor memory channel)
..aber Intel mag ja komplexe Umschreibungen, AVX-512 steht ja auch noch bei den Prozis drin.
Aber lieber Intel nicht drauf ansprechen, sonst kann es nachher noch pasieren, dass die dir weiß machen wollen das AVX2 nun das neue AVX-512 ist und die Beschreibung ja vom Grundsatz her passt. :haha:
Die sind echt pfiffig von Intel, haben die doch mit AL einen Weg gefunden 512bit breitere Operationen in 256bit breite Operationen zu kompremieren und das sogar mit mehr Speed.

Example 1:
A1 + B1 Dimm --Datenbündelung--> # of DIMM Speicherkanal 1 (H610)

Example 2:
A1 + B1 Dimm --Datenbündelung--> # of DIMM Speicherkanal 1 (B660/H670)
A2 + B2 Dimm --Datenbündelung--> # of DIMM Speicherkanal 2 (B660/H670)

edit: Aber der Irrtum ist weiter verbreitet als man glaubt. Schaut man bei zb. AnandTech & Co. zu den H610 Boards in den Kommentaren, wird da auch oftmals falsch spekuliert:
Es war anscheinend ein Fehler auf der Folie. H610 ist Dual-Channel, aber auf ein einzelnes DIMM pro Kanal beschränkt
Neee, dann müsste das Board ja 2 Speicherkanäle haben @ SingelChannel Mode. Materialverschwendung. :d
 
Zuletzt bearbeitet:
AMD hat da einiges direkt an der CPU. Da ist der Controller relativ Wurst, die Relevanten Schnittstellen sind direkt angebunten. Grafikkarte, Datenträger, Ram und USB.
amd-b450-chipsatz-features_6038740.jpg

Das Board design ist halt klar auch schon nicht mehr aktuell und technisch etwas in die Jahre gekommen.
Dafür läuft halt ECC RAM. Ich weiß für Gaming nicht relevant, aber das ist schon ein nettes feature für Home Server.
Billig ist es trotzdem und es erfüllt noch die Anforderungen

Aber wie hier schon mal gesagt wurde, wer schon AM4 hat, hat Optionen Zeitgemäße Leistung zu bekommen durch Upgrade der CPU. Wer unbedingt neu kaufen muss, weil es keine andere Möglichkeit gibt sollte auf Intel schauen, wobei mich das echt ärgert das man zwischen ddr4 oder 5 wählen muss und DDR5 noch so extrem teuer ist.

Ram OC ist halt schon relevant, ich würde trotzdem die 30€-40€ mehr in die Hand nehmen und ein
B-Board nehmen, das ist schon besser dran mit RAM OC, damit konnte man schon immer viel Leistung/Performance abholen.
Während die CPUs heute nicht mehr viel durch OC bekommen als daily driver.

Das mit dem 1 DIMM pro Channel ist nicht unbedingt ein Nachteil, aber es limitiert bei der Beschaffung du musst dich gleich entscheiden ob 16 GB oder 32 GB weil ein Upgrade, immer komplett Austausch bedeutet.

Wie bei allen Dingen im Leben gilt, wer billig kauft zahlt an anderer Stelle mehr. Erfahrungsgemäß nutzen die Standard Nutzer aber eh nicht mal die Hälfte an Anschlüssen und Schnittstellen. :unsure:
 
Das ist aber auch bescheuert beschrieben von Intel. In der uns vorliegenden Präsentation heißt es "System Memory Channels Supported", was für mich klar die Anzahl der Speicherkanäle sind. Warum steht da nicht einfach "DIMMs per Channel"?
Ja da ist wohl jemandem ein Fehler beim Erstellen der Präsentation unterlaufen.

AMD hat da einiges direkt an der CPU. Da ist der Controller relativ Wurst, die Relevanten Schnittstellen sind direkt angebunten. Grafikkarte, Datenträger, Ram und USB.
Außer den USB Ports, ist es bei Intel doch nicht anderes, der RAM und der PCIe Host Controller stecken bei beiden schon wenig in der CPU, seit es eben keine Northbridge mehr gibt und damit werden und die Graka seither auch direkt an der CPU angebunden und seit Rocket Lake haben auch die Intel CPU 4 zusätzliche PCIe Lanes für eine SSD. Bei AMD gibt es nur die Option diese 4 PCIe Lanes zu teilen um dann 2 PCIe Lanes und 2 SATA Ports zu haben, was vor allem bei den B Boards recht verbreitet ist, oder eben um im M,2 Slot an den diese Lanes gehen auch eine M.2 SATA SSD verwenden zu können, aber M.2 SATA SSDs sind am aussterben, es ist also kein Verlust wenn der eine Slot nur M.2 NVMe SSDs unterstützt. USB Ports haben bei Intel nur die Chipsätze, aber in den AMD SoC stecken ja auch nur 5Gb/s USB Ports., während Intel inzwischen sogar 20Gb/s USB bietet.
Dafür läuft halt ECC RAM.
Wobei nicht jedes Board auch die ECC Funktion unterstützt und ECC UDIMM läuft sowieso überall, wo auch normale RAM Riegel laufen, die sind nämlich auch unbuffered, während das meist billiger zu bekommende RDIMM und LRDIMM auf AM4 nicht läuft. Aber mit DDR5 gibt es ja nun On-Die-ECC und damit hat dann jedes System ECC fürs RAM, wenn auch nur mit 8 Bit ECC auf 128 Datenbit, statt 8 Bit auf 64 Datenbits wie bei DDR4 ECC RAM, aber immerhin besser als nichts. Gegen Übertragungsfehler beim RAM gibt es ja seit DDR4 eine CRC, die fehlerhaften Übertragungen müssen dann zwar wiederholt werden, aber Übertragungsfehler sollten eigentlich nur dann öfter passieren, wenn man es mit dem RAM Takt gewaltig übertrieben hat.
 
Mal aus Neugier, es wurde ja Handbrake mit getestet. Hat hier jemand Handbrake im Einsatz und encodiert Filme mit der neue Intel Generation? Vorzugsweise in H265? Ich mache das ganze Regelmäßig, zuvor mit einen 3900X nun mit einen 12700. Aber mir kommt es so vor, als ob die P Kerne ständig auf die E Kerne warten würden.

Am Anfang ist die Auslastung auf allen Kernen gleich, dann Fallen die P Kerne ab und die E Kerne sind weiterhin alle auf 100% das hält dann einige Zeit an und dann fangen die P Kerne auch wieder an und die Auslastung geht hoch. Das gibt dann auch immer schnelle Zeitsprünge bei der Zeitangabe wie lange es noch dauert, bis er fertig ist.

Ich hoffe ich habe meine Frage verständlich rübergebracht. Es wirkt für mich so, als ob die P Kerne ständig auf die E Kerne warten würden.


EDIT: Ich habe mal noch ein Bild von der CPU-Auslastung angehängt. So sieht es in etwa 50% der Zeit aus. Je nach Material.
 

Anhänge

  • Clipboard01.jpg
    Clipboard01.jpg
    41,5 KB · Aufrufe: 67
Das langsame Pferd gibt nun mal den Takt an, und das sind die E-Kerne.
Beitrag automatisch zusammengeführt:

Für sowas hätte ich keine 12 starke Kerne hergegeben.

Eher ein Tausch auf 5900X/5950X hätte sich hier gelohnt.

Ich sehe hier Alder Lake eher in Spielen vorne.
 
Zuletzt bearbeitet:
Ich sehe hier Alder Lake eher in Spielen vorne.
Naja, allein schon das die Kiste einfach von Anfang an ohne Stress läuft, war es mir schon wert. Deswegen kam ein 59x auch gar nicht in Frage. Davon ab macht das kaum ein Unterschied zum 12 Kerner beim Encodieren. Beim Rendern ist er dagegen ein Traum. Dort zählt beim Erstellen der Scenen Singlecore Leistung. Das war mit dem 3900x teilweise ein echter Krampf Objekte zu verschieben. Das funktioniert nun um einiges besser.

Wie er sich letztendlich beim Rendern selbst schlägt, muss ich bei Gelegenheit noch testen. Da ich überall aber gelesen habe, dass die CPU nicht so wichtig ist, wenn man in IRAY Rendert, wird das schon passen. Wobei zumindest in Cinebench habe ich mit dem I7 auch um die 3000 Punkte mehr im MC. Dürfte also auch schneller gehen.

Zum Thema spielen, Farm Together kann auch nur SC und auch da ist es ein gewaltiger Unterschied zum 3900x :)

Ich bereue den Wechsel nicht. Ich muss nur mal wegen dem Encodieren schauen, ob das nicht besser geht, wenn die E-Cores deaktiviert sind. Ich hatte jetzt beim Suchen etwas vom Gaming Mode gelesen. Soll man wohl im Bios einstellen können und dann mit der Rollen Taste bei Bedarf die E-Cores deaktivieren.
 
Zum Thema spielen, Farm Together kann auch nur SC und auch da ist es ein gewaltiger Unterschied zum 3900x :)
Die SC ist ja auch deutlich schlechter als bei der aktuellen 5000er und zum Intels neuen Gen erst recht.

Ansonsten kann ich dich verstehen. Intel läuft einfach bei AMD eben nicht immer wie man es gern hätte :d
 
Hier ist die Erklärung warum dies so ist und wie man das Problem lösen kann:
Perfekt, ich danke dir :)
Nun sieht es doch gleich viel besser aus und es geht auch flotter.

Ansonsten kann ich dich verstehen.
Vor allem habe ich den 2700 boxed für 250€ bekommen. Da konnte ich nicht widerstehen. Ein bekannter hatte ihn sich gekauft und wollte nach ner Woche dann doch den 12900k haben.
 

Anhänge

  • Clipboard01.jpg
    Clipboard01.jpg
    37,6 KB · Aufrufe: 72
Ich habe jetzt mal ein MSI mit dem B760 zusammen mit einem 12900K am Laufen.

Der Idle verbrauch im Zusammenhang mit dem B760 mag schon gefallen.

YouTube, stunde Musik höheren, liegt der Verbrauch bei 3-5 Watt, Denke, dass der Höhere verbrauch beim 12900K zum 13900K eher dem Chipsatz geschuldet ist.

1.jpg
 
Denke, dass der Höhere verbrauch beim 12900K zum 13900K eher dem Chipsatz geschuldet ist.
Nein, mein 13900K auf dem ASRock Z790 Steel Legend WiFi braucht auch nicht mehr, es hängt vom Mainboard ab und da vor allem welche Energiespareinstellungen wie z.B. aber nicht nur C-States dort per Default aktiviert sind.
 
... und davon wieviel überflüssiger Schnickschnack auf dem Board Energie verbrät (RGB, zus. Controller...)
 
Nein, was Blödsinn wie RGB verbrät, geht ja nicht auf die CPU Package Power, sondern "nur" auf die Idle Leistungsaufnahme des Gesamtsystems. RGB und nicht genutzte Controller auf dem Mainboard kann man aber zum Glück meistens deaktivieren.
 
Nein, mein 13900K auf dem ASRock Z790 Steel Legend WiFi braucht auch nicht mehr, es hängt vom Mainboard ab und da vor allem welche Energiespareinstellungen wie z.B. aber nicht nur C-States dort per Default aktiviert sind.
Doch doch :-) meinst du, wenn du mal ein Board in der Gen13 dein eigenen nennst, kannst du da Rückschlüsse ziehen und die Aussage treffen, dass meine Aussage falsch ist?

Ich hatte in der Zeit, das ASUS ROG Strix B660-I / MSI MPG Z790I Edge WIFI / ASUS ROG Strix Z690-I Gaming WIFI / ASUS ROG Strix Z790-I Gaming WIFI / und jetzt das MSI MPG B760I Edge WIFI DDR4.

So viel Hardware hattest du in deinem ganzen Hardwareleben noch nicht getestet.

Und bei keinem der Boards wurden da ab Werk unterschiedliche Energiespareinstellungen gesetzt, dass die Boards unterschiedliche Powerlimits setzten, das ist bekannt, aber unterschiedliche Energiespareinstellungen:unsure:

Hier wurden im Test mit dem 12900K 9,2W gemessen. Getestet mit zwei Systemen ASUS ROG Maximus Z690 Hero / ASUS TUF Z690-Plus WIFI D4.

Ich hatte mit dem ASUS ROG Strix B660-I / ASUS ROG Strix Z690-I Gaming WIFI / auch immer um die 10W

Es gab mal die Aussage, dass bei Asus die P Kerne nicht richtig schlafen gehen, das könnte noch ein Grund sein, dann wäre aber, wenn es nicht dem Chipsatz geschuldet ist, der 12900K schon immer genauso sparsam wie ein 13900K im Idle.

Der 13900K braucht im Test im Idle ca. 4,2W, das ist auch, was ich schon bei vielen anderen gesehen habe.

Holt du hast dich schon gebessert, du zitierst jetzt nicht wie früher 20 texte gleichzeitig, kann natürlich auch daran liegen, dass du zu viele auf deine ignoriere, liste hast, kann aber auch nicht sein, weil ich stehe ja auch auf deine Liste.

So macht die Ignorierliste keinen Sinn, ich habe es mir bisher immer verkniffen dich zu zitieren, das kann ich aber gerne ändern.

Ich hatte geschrieben "Denke, dass der höhere verbrauch, beim 12900K zum 13900K eher dem Chipsatz geschuldet ist" beweise das Gegenteil, dann kannst du mich wieder zitieren und nicht einfach, wie meistens oder immer schreiben ""hängt vom Mainboard ab""

Die Aussage von dir "hängt vom Mainboard ab" kann ich nicht mehr hören.

Und zum Abschluss des ganzen, ja dein 13900K braucht auch nicht mehr, ja warum ist das denn so, weil du eventuell einen 13900K zusammen mit einem Z790 hast.:ROFLMAO:
 
Zuletzt bearbeitet:
Wer weiß was die da getestet haben.

Die Klatschzeitung nehme ich schon lange nicht mehr wahr.
 
Man müsste halt mindestens 3 Boards mit dem B Chipsatz testen und 3 mit Z Chipsatz, im Idealfall unterschiedliche Hersteller .. dann kann man von einem tendenziellen Ergebnis sprechen.
Es kann schon das Asus als Hersteller hier einen Unterschied machen wird zwischen B und Z. Aber wäre ja nicht das erste mal das so etwas seien kann, sei es um auch nur bei Stockwerten mit einem Z "schneller zu sein" im Benchmark.
 
ASUS scheint bei den Z Mainboards, gerade denen die sich eher an "Extrem" Übertakter richten, wenig Rücksicht auf die Idle Leistungsaufnahme zu nehmen, wobei dies dann ggf. auch noch durch Einstellungen wie die verwendete Kühlung, beeinflusst sein kann. Dies dürfte den Wünschen der meisten Kunden solche Mainboards sicher entgegen kommen, aber manche ziehen sich dann eben wieder daran hoch und verallgemeinern die Ergebnisse. Wer zweifelt das die Idle Leistungsaufnahme an den BIOS Einstellungen liegt, wobei hier die Defaultwerte von Mainboard zu Mainboard und eben sogar bei unterschiedlichen BIOS Versionen und eben globalen Einstellungen wie z.B. die des CPU Kühlers, unterschiedlich ausfallen können, der schau sich noch mal an was HL selbst für den 13900KS ermittelt hat:


4,2W bei Default
4,3W mit DDR5@6400
29,8W @6,2GHz

Hier wurde beschrieben was gemacht wurde, zwar habe ich da nichts gesehen oder gelesen was explizit Energiespareinstellungen wie C-States deaktiviert, aber die Einstellungen haben die Idle Leistungsaufnahme eben massiv ansteigen lassen. Was die Leistungsaufnahme angeht, ist die CPU ein Sklave der BIOS Einstelllungen und zwar sowohl unter Volllast wie auch im Idle, bei letzterem gibt es eben halt nur einen Mindestwert unter den man auch bei allen Optimierungen nicht kommt. Jeder der wirklich Wert auf eine geringe Idle Leistungsaufnahme legt, sollte eben nur Werte vergleichen bei denen alle Optimierung zugunsten einer geringen Idle Leistungsaufnahme vorgenommen wurden um nicht Äpfel mit Birnen zu vergleichen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh