Nova Lake-S: Power-Limit von mehr als 700 W

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
52 P-Cores überbieten diese kolportierten 700 Watt mit links. 😁
 
Da braucht es bald 2x 1600 Watt Netzteile :banana:
 
 
Für Arrow Lake (Core-Ultra-200S-Serie) liegt das PL4 bei 490 W. Für die Raptor-Lake-Prozessoren legte Intel dies bei 314 W fest. Das PL4 wird aber so gut wie nie erreicht und ist allenfalls ein kurzzeitiger Maximalfall.

Nanana!

Für Arrow Lake mag das stimmen, aber was war denn bei Raptor? Diese letzte Ausbaustufe von Alderlake zog derart viel Strom, daß vielfach die Kerne in Games throttelten, weil es ihnen zu heiß wurde! Das PL lag da meines Wissens bei vielen Boards bei über 350 Watt! Der 14900KS Limited genehmigte sich sogar 400 Watt!


Bleibt zu hoffen, daß das mit den 700 Watt für den neuen Sockel nur ne Art Reserve ist, um tatsächlich deutlich niedrigere Ströme besser bewältigen zu können.
 
Zuletzt bearbeitet:
Diese letzte Ausbaustufe von Alderlake zog derart viel Strom, daß vielfach die Kerne in Games throttelten

Deswegen gibt Intel das Power Limit vor, woran die Mainboard-Hersteller sich werkseitig nicht halten, es auch unter Comet-und Rocket Lake nicht getan haben, sodass diese Prozessoren, wie der Igor sagt, laufen gelassen werden (saufen), und der unbedarfte Nutzer, der davon keinen Schimmer hat, holt sich ein ineffektives, kaum bzw. gar nicht zu bändigendes System ins Haus.

Zieht man zum Beispiel meinen Prozessor zurate, so gibt Intel für das Base Profile eine maximale Leistungsaufnahme von 188 Watt an. Das entspricht schon von seitens Intel exakt dem, was ein YouTube Content Creator (KreativEcke) für exakt dieses Modell ermittelt hat - eine bestmögliche Effizienz um die 180 Watt für die maximale Performance. In darüberhinaus schwinden die Vorteile, die Nachteile überwiegen. Von dem Performance Profile, dieses Intel in ebenso angibt, rate ich ab, zumindest für die i7-und i9-Modelle, weil das in der Regel in kaum mehr zu bändigen ist; Luftkühler steigen vollständig aus und auch die besten AiO-Wasserkühlungen geraten an ihr Limit. Für den Gamer empfehle ich daher, das Power Limit von 125 für den Langzeitbetrieb auch für den Kurzzeitbetrieb zu setzen.
 
Zuletzt bearbeitet:
Deswegen gibt Intel das Power Limit vor, woran die Mainboard-Hersteller sich werkseitig nicht halten, ...
Das wurde damals ja ausgiebig diskutiert. Und Intel hat hier offenbar bewußt nichts unternommen (oder hinter den Kulissen die Hersteller sogar ermutigt), da man ja damit in Test eine bessere Performance erreichte. Den Schwarzen Peter dann den Mainboard-Herstellern zuzuschieben, war ein durchschaubares Manöver von Intel. Aber ja, man hat dann diverse Bios-Updates nachschieben müssen, weil man übers Ziel hinausgeschossen war. Aber auch damit kam man nicht unter die 314 Watt aus dem Artikel.

Und die "Base"-Profile kannst du in den Skat drücken, Die sind so aussagekräftig wie die TDP, die Intel aus gutem Grund schon lange nicht mehr angibt. Da hatte man nämlich dasselbe Spiel gemacht, und mehr oder weniger einen Leerlauf-Verbrauch damit benannt. Extremstes Beispiel war ein "T"-Prozessor mit 35W TDP, der default ein Delta von 80 Watt zwischen Idle und Vollast hatte.
 
Zuletzt bearbeitet:
1770729107336.png
 
Und Intel hat hier offenbar bewußt nichts unternommen (oder hinter den Kulissen die Hersteller sogar ermutigt), da man ja damit in Test eine bessere Performance erreichte.

Ja, diese Debatte kennen wir bereits von dem Intel Core i9-10900, der sich für die kurze Zeit von 56 Sekunden mit einem übertriebenen Power Load in den Benchmarks eine Mehrleistung erschummelt, diese weit weg von dem liegt, was den Nutzer in der Praxis geboten wird.
 
Deswegen gibt Intel das Power Limit vor, woran die Mainboard-Hersteller sich werkseitig nicht halten, es auch unter Comet-und Rocket Lake nicht getan haben, sodass diese Prozessoren, wie der Igor sagt, laufen gelassen werden (saufen), und der unbdarfte Nutzer, der davon keinen Schimmer hat, holt sich ein ineffektives, kaum bzw. gar nicht zu bändigendes System ins Haus.

Zieht man zum Beispiel meinen Prozessor zurate, so gibt Intel für das Base Profile eine maximale Leistungsaufnahme von 188 Watt an. Das entspricht schon von seitens Intel exakt dem, was ein YouTube Content Creator (KreativEcke) ermittelt für exakt dieses Modell hat - eine bestmögliche Effizienz um die 180 Watt für die maximale Performance. In darüberhinaus schwinden die Vorteile, die Nachteile überwiegen. Von dem Performance Profile, dieses Intel in ebenso angibt, rate ich ab, zumindest für die i7-und i9-Modelle, weil das in der Regel in kaum mehr zu bändigen ist; Luftkühler steigen vollständig aus und auch die besten AiO-Wasserkühlungen geraten an ihr Limit. Für den Gamer empfehle ich daher, das Power Limit von 125 für den Langzeitbetrieb auch für den Kurzzeitbetrieb zu setzen.
Die 188 Watt standen schon in den White Papers von den Intel Entwicklern.
Nur die Bereitsteller (Mainboard Hersteller) hatten sich nicht alle daran gehalten. Bei vielen war default Profil das default von MSI, ASUS, Gigabyte etc. und die hatten ein Performance/performanteres Profil drin.

Bei MSI wurdest du gefragt was du für einen Kühllösung hast und dementsprechend wurde ein Profil gesetzt.

Standardkühlung waren nah an den 188W dran, Performance Luft Kühlung waren schon 253W und Wasserkühlung waren 4096W (!)

@Holt kann dir bestimmt dazu was verlinken ;)

Das Hauptproblem war allerdings das je nach Profil die Spannung Spikes zu hoch waren.
Ich hab das erstmal als gehört sich so wahrgenommen ohne mir Gedanken zu machen.

Also ich hatte von 0,6V auf 2,3V Sprünge drin. Ganz so Tief kenne mich auch nicht mit allen Settings aus etc... aber dieses Flipping kann nicht gut sein.
Im Prinzip hat hier Intel den Korridor kleiner gemacht und die max Spannung hier auch runter gesetzt.
 
Zuletzt bearbeitet:
Nur daß die CPUs mit 188Watt nie die versprochenen Leistungen erreicht hätten.
Man hat damals einfach so getan, als seien die Turbo-Modi nicht Teil der "Spezifikation". ;)


Das ganz sicher! :d
Also ich muss dir sagen so viel Verlust habe nicht mit dem Standard Profil.
Ganz sicher wird halt der Boost Clock nicht so lange gehalten. Ich meine beim Cinebench R23 waren es ~150 Punkte allcore oder so.
Ich kann damit ganz gut leben.
 
Aber ich schätze mal, im Boost zieht er auch nicht nur 188 Wattt?

Ich schalte ja den Boost generell aus. Da bei mir Multicore wichtig ist, und der all-core eh nur wenige 100MHz mehr bringt, dafür aber 250 Watt zieht (statt 130)...
 
Mein Intel Core i7-14700K läuft durchweg auf sein Baseline-Profil:
Intel veröffentlicht umfassende Baseline-, Performance- und Extreme-Profile für Raptor Lake | www.3dcenter.org

Es kommt noch härter: Sämtliche Turbo-Funktionen (Intel Turbo Boost Max Technology 3.0 usw.,, ASUS Multi Core Enhacement) sind deaktiviert und im Windows-Betrieb ist der Energiesparmodus mein Standardprofil, weil die Intel Speed Shift Technology mit dem ausbalancierten Energiesparplan nicht mehr funktioniert (das funktionierte noch unter den 14FF-Architekturen). Leider ist es auch so, dass die Power Control Unit von den hybriden Prozessor-Gens die Taktung über die Intel Speed Shift Technology in nicht mehr fast-stufenlos unterstützt; es wird nur noch eine Stufe geboten, diese bei allen Prozessoren 2,5 GHz beträgt. Da diese 2,5 GHz sogleich den Grundtaktfrequenz für die E-Cores des Intel Core i7-14700K entspricht, ein Glücksfall, takten sämtliche Cores (P-Cores und E-Cores) auf identischen 2,5 GHz. Falls es erforderlich ist, bspw. für anspruchsvolle Games oder fürs Rendering von BDMVs per Handbrake, genügt ein Umschalten auf den ausbalancierten Energiesparplan und schon liefern die P-Cores mit ihren 3,4 GHz eine ausreichende Mehrleistung.

Weshalb die Nutzer nach immer höheren Taktungen schreien, das ist mir suspekt. Solange eine Anwendung es versteht, viele physische Cluster parallel anzusprechen, bedürfe es keiner Brechstangen-Settings.
Beitrag automatisch zusammengeführt:

Aber ich schätze mal, im Boost zieht er auch nicht nur 188 Wattt?

Das sind extreme Szenarien, in denen diese Intel-CPUs zu saufen begonnen haben. Für die Alltagssitation wirst Du selten Leistungsaufnahme von oberhalb der 150 Watt sehen können. Im Gaming sind es im Durchshcnitt unter 100 Watt und im Härtefall so um die 135 Watt.

Diese exorbitanten 253 Watt benötigt kein normaler Nutzer.
 
Aber ich schätze mal, im Boost zieht er auch nicht nur 188 Wattt?

Ich schalte ja den Boost generell aus. Da bei mir Multicore wichtig ist, und der all-core eh nur wenige 100MHz mehr bringt, dafür aber 250 Watt zieht (statt 130)...
Ich müsste nachschauen, aber ich bin der Meinung der zieht nicht über 188W Gesamtleistung. Ich komme selten in einem Game auf eine so hohe Auslastung außer in Benchmarks.
Beitrag automatisch zusammengeführt:

eshalb die Nutzer nach immer höheren Taktungen schreien, das ist mir suspekt. Solange eine Anwendung es versteht, viele physische Cluster parallel anzusprechen, bedürfe es keiner Brechstangen-Settings.
Weil es noch Bananensoftware gibt die nicht mit der Zeit gegangen ist.
Tatsächlich gibt es aber auch Software die nicht so leicht in die Breite skalieren kann. Du kannst nicht alle Abläufe parallelisieren.
 
Das sind extreme Szenarien, in denen diese Intel-CPUs zu saufen begonnen haben. Für die Alltagssitation wirst Du selten Leistungsaufnahme von oberhalb der 150 Watt sehen können.
Dann spiele mal BF6 mit allen Boost-Funktionen. Du wirst dann so gucken :hmm: Da geht die im Multiplayer durchaus bis 200 Watt hoch :sick:
 
Dann sage ich... Weg mit den On-the-Fly-FPS: Für den Single-Player genügen die 60 FPS und im Multiplayer holt man selbst mit dem viel reaktionssschnelleren Battlefield 3 in oberhalb der 180 FPS keinen Deut an zusätzlicher Latenzverringeurng heraus; average genügen sogar um die 120 FPS. Und dafür reicht mit der heutigen Hardware sogar ein solches 2,5-GHz-Setting, wie ich es durchweg fahre. Battlefield 6... Schenken wir uns. Dieses Game ist so eine Art "PUPG", welches keinesfalls eine Alltagssituation widerspiegelt.
 
Das würde ich nicht sagen. BF6 ist einfach ein Game was die E-Cores gut versteht. Genau so wie es mein beliebtes Test-Spiel ''Watch Dogs 2'' ist, auch da kommen solche hohen Watts raus.
 
Dann spiele mal BF6 mit allen Boost-Funktionen. Du wirst dann so gucken :hmm: Da geht die im Multiplayer durchaus bis 200 Watt hoch :sick:
Vielleicht kann BF6 aber auch alle Ressourcen ausnutzen. Du musst mal drauf achten, der Nvidia Treiber hatte mal in einem Test vor 2-3 Jahren von HWUnboxxed gezeigt das der overhead hat.
Also bei Systemen mit zu wenig Kernen/CPU Leistung waren die Nvidia Karten langsamer als die AMD Karten damals :d...
Dann sage ich... Weg mit den On-the-Fly-FPS: Für den Single-Player genügen die 60 FPS und im Multiplayer holt man selbst mit dem viel reaktionssschnelleren Battlefield 3 in oberhalb der 180 FPS keinen Deut an zusätzlicher Latenzverringeurng heraus; average genügen sogar um die 120 FPS. Und dafür reicht mit der heutigen Hardware sogar ein solches 2,5-GHz-Setting, wie ich es durchweg fahre. Battlefield 6... Schenken wir uns. Dieses Game ist so eine Art "PUPG", welches keinesfalls eine Alltagssituation widerspiegelt.
Oh dann darfst du nicht mit CS2 Jüngern diskutieren alles unterhalb von 400FPS ist kriminell. :d
Tatsächlich ist die Engine in CS2 ziemlich kurios und du brauchst viele FPS.
 
Vielleicht kann BF6 aber auch alle Ressourcen ausnutzen.
Genau das hab ich nachträglich mit aussagen wollen.
Beitrag automatisch zusammengeführt:

Ich spiel selbst das Rocket League mit nur 60 FPS da ich dafür kein sinnlosen Verbrauch opfern möchte 😂

Seit der RTX5070ti erst recht, da die nur mit unter 100 FPS sparsam arbeitet.
 
Zuletzt bearbeitet:
Oh dann darfst du nicht mit CS2 Jüngern diskutieren alles unterhalb von 400FPS ist kriminell. :d
Tatsächlich ist die Engine in CS2 ziemlich kurios und du brauchst viele FPS.

Ja, bei diesem Game ist das normal. Da liegt kein Thin-Client dazwischen, dieser für die Beurteilung letztendlich den reellen Takt vorgibt. Die Spieler korrelieren sozusagen direkt zwischen ihren Systemen. Das gab 's früher auch bei Battlefield 2 usw.,, als der eigene Rechner sozusagen der Host war.
Aus der heutigen Sicht bringen diese hohen FPS in den meisten Shooter-Games nichts mehr. Abhängig von dem jeweiligen Dedicated-Server weicht das eigene Spielerlebnis immer ab von dem, was am anderen Ende herausgeht. "Hey, ich war schneller - das habe ich endeutig gesehen!" "Ja, aus Sicht von Deiner Hardware: Doch was sah der andere User auf der seinigen Hardware und was verzeichnete unser Thin-CLient zwischen euch beiden?" Es gibt einen Fachbegriff für dieses System, welches "angeblich" Neutralität schaffen solle, den ich vergessen habe.
 
Zuletzt bearbeitet:
Als extreme, optionale Overclocker PL-Profile für die Asus ROG, Gigabyte Aorus Xtreme und MSI MEG GODLIKE Boards sei es der Szene gegönnt.

Aber bei den normalen Boards sollte man diesen Unsinn lassen, denn da will man schon vorallem einen fairen Preis, und keine zwangsläufig völlig überdimensionierte und möglicherweise sogar aktiv gekühlten Spannungswandler mitzahlen müssen.
 
Als extreme, optionale Overclocker PL-Profile für die Asus ROG, Gigabyte Aorus Xtreme und MSI MEG GODLIKE Boards sei es der Szene gegönnt.

Aber bei den normalen Boards sollte man diesen Unsinn lassen, denn da will man schon vorallem einen fairen Preis, und keine zwangsläufig völlig überdimensionierte und möglicherweise sogar aktiv gekühlten Spannungswandler mitzahlen müssen.
Naja die Hersteller wollten OC für Daus realisieren. Jemand der sich mit OC aktiv beschäftigt kennt sich mit den wichtigen Dingen schon aus.
Für alles andere braucht man so etwas nicht. Ein bisschen Tweak Optionen schön und gut, aber vielen reicht es schon aus die CPU auf ein besonderes Sparsystem runter zu drehen um Leistung und Kühlung zu optimieren. Ich finde da würden gute vordefinierte Profile auch helfen. Vieles kann man aber scheinbar nicht sonderlich automatisieren.
 
keine zwangsläufig völlig überdimensionierte und möglicherweise sogar aktiv gekühlten Spannungswandler mitzahlen müssen

Für die preisgünstigen Mainboards sind die CPU-Topmodelle nicht vorgesehen: Nur, weil es möglich ist, heißt das nicht, dass es dafür konzipiert wurde. Und wer kauft ein Non-Z-Mainboard, um darauf eine i7-oder gar i9-CPU zu spannen? Das macht man nicht. Und man kaufe auch keine dieser CPUs, um damit die qualitativ abgespeckten SMDs und in ihre gegatete Matrix zu quälen?

Ich kann mich noch sehr gut erinnern, als für die AM3+-Plattform sich zahlreiche Mainboards um die 75-Euro-Preisklasse tummelten und in ihren Tabellen damit protzten; "Jaaa, der Centurion wird von unserem Mainboard unterstützt.". *facepalm*

Diese VRMs drosselen bereits bei einer Leistungsaufnahme von 105-125 Watt oder verreckten sogar. Zwar fehlt diesen Mainboards, welche ein Resample Legacy) aus der vorherigen AMD-Gen waren (AM3) die AMD Turbo Core Technology 2.0, sodass mit der Version 1.0 nur die erste Power Boost State-Stufe unterstützen, aber das reichte schon, um einen AMD FX-6300 zu limitieren und einen AMD FX-8350 das VRM ins Nirvana schicken zu lassen. Dafür waren diese preisgünstigen Richtek-VRMs mit ihren preisgünstigen FETs nichts ausgelegt. Es musste etwas vom Marktführer Infineon Technologies herhalten, ergo von International Rectifier gelabelte PWM-Controller aus dem Hause CHill Semiconductor sowie FETs wie von OnSemi.

Die Eight-Core-Vishera liefen damit nur limitiert. Das ASRock FX990 Extreme3 sowie die baugleiche 970-Variante sowie einige M79 sowie M99-Modelle von ASUS für um die 100€ waren nicht umsonst die Preis-/ Leisutngskönige, wiel sie tatsächlich das an Verträglichkeit geboten haben, inklusive der AMD Turbo Core Technology 2.0 für die zweite Turbo-Stufe,, was es dafür benötige, weil die SMDs von Intersil und Renesas in puncto Effizienz und Drain nochmals eine deutliche Spur in darüber werkelten. Aber fürs OC waren sie für die Alltagssituation nciht beschaffen. Da kamen die Mainboards wie das UD3 von GIGABYTE ins Spiel, diese für um die 125 Euro schon mächtig viel Dampf auf ihrer VRM-Seite mit sich brachten.

Bitte guckt bei der Auswahl eures Mainboards stets darauf, was ihr wirklich braucht: Eine überdimensionierte CPU auf ein B-Board zu spannen ist ebenso sinnfrei wie ein Z-Board für eine Mittelklasse-CPU.
 
Zuletzt bearbeitet:
Ich hab max. Mittelklasse und Z-Boards weil ich die Ausstattung mag.

Das ein 80€-Board mit H-Chipsatz nicht für High-End-CPUs gedacht ist sollte man anhand der Kompatibilitätsliste sehen.

btw, es gibt auch B-Boards mit guter Spannungsversorgung.


@Topic 700W für wie viel ms?
 
Naja eine Große CPU auf eine B Board sollte eigentlich möglich sein. Nicht jeder will OC. ein 14700/14900 non K sollte kein Z Board brauchen.

Ich teile die Ansicht das eine kleine CPU nicht auf ein dickes Board soll. Aber die besseren Chipsätze für Erweiterungen und mehr Anschluss Optionen haben nun mal auch die Z Boards.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh