Neue Details zum Core i9-12900KS: 150 W TDP für 5,5 GHz

Thread Starter
Mitglied seit
06.03.2017
Beiträge
112.375
alder-lake-review.jpg
xTwitterer @momomo_us scheint auf Einträge eines E-Tailers oder einer sonstigen Position im Vertriebskanal gestoßen zu sein. Dort wird für den Core i9-12900KS der angekündigte Turbo-Takt von 5,5 GHz genannt. Ohne eine Anhebung der TDP scheint Intel dafür aber nicht auszukommen. Die Processor Base Power (PBP) soll bei 150 W liegen – 25 W mehr als beim Core i9-12900K und den weiteren K-Modellen. Wo Intel das PL2 ansetzt, ist bisher nicht bekannt. Ein Core i9-12900K kommt hier auf 241 W.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke, dass ihr erwähnt, dass Intel die TDP-Definition nicht mehr nutzt. In anderen Medien wird nämlich, wie Intel es vermutlich geplant hat, immer von TDP gesprochen, aber nur die Processor Base Power angegeben, ohne auf den richtigen Verbrauch einzugehen. Bitte werdet nicht müde, dass immer zu erwähnen. Das Teil wird irre viel Strom verbrauchen. Gerade heutzutage ist das die absolut falsche Richtung.
 
Wie viel das Teil verbraucht hängt natürlich auch von der Last ab. Wenn man produktiv arbeitet, dann können da schon mal die 240W anliegen. Spielt man dagegen (wie viele hier im Forum), dann wird der 12900KS sich eher bei deutlich unter 150W bewegen. Der 12900K liegt beim zocken teilweise sogar unter 100W und ist effizienter als Zen3. Dennoch ist der Hinweis auf TDP und die PL Limits gut und richtig.
 
Same wie mitm 10850K, Cinebench 235W, Spielen meist unter 100, eher 70-80. (Lost Ark 160 FPS, Valorant unlocked) /edit. Dying Light 2 ~100W, mit RT ~85W
 
Das Teil wird irre viel Strom verbrauchen. Gerade heutzutage ist das die absolut falsche Richtung.

Was aber nur diese "Hol das Krönchen" bzw. "Behalt das Krönchen" auf Leistung gepimpte (unnutze) CPU betrifft.
Denn schaut man sich mal an was die kleinen bis mittleren CPUs der Alder Lake Serie verbrauchen und stellt das dann der teils enorm gestiegenen Leistung per Watt ggü. dann sind das richtige Stromsparer.
 
Also ich werde jetzt noch nicht aufrüsten, aber wenn ich mich nicht irre ist der all core boost somit 300mhz höher.
Das werden sie sich aber wieder fürstlich bezahlen lassen.
Bin mal auf unabhängige Tests gespannt, was das Teil verbraucht / dan auch leistet.
 
Da die CPUs dauerhaft 241W schlucken dürfen, muss meine Kühlung auch darauf ausgelegt werden und damit ist die TDP=PL1=PL2=241W!

Und für das doppel-brechstangen Modell erwarte ich sogar eine TDP Richtung 280W

Die Base-Power oder wie Intel das nennt kann man gerne nennen, aber wenn man schon etwas als TDP bezeichnet, dann das was die CPU im worst case über längeren Zeitraum an Wärme verbläst: 240W
 
Danke, dass ihr erwähnt, dass Intel die TDP-Definition nicht mehr nutzt. In anderen Medien wird nämlich, wie Intel es vermutlich geplant hat, immer von TDP gesprochen, aber nur die Processor Base Power angegeben, ohne auf den richtigen Verbrauch einzugehen. Bitte werdet nicht müde, dass immer zu erwähnen. Das Teil wird irre viel Strom verbrauchen. Gerade heutzutage ist das die absolut falsche Richtung.

In normaler Alltagsnutzung ist Alder Lake sehr effizient und oft effizienter als Zen 3.

Wer gerne Cinebench im Loop spielt, kann sich ja einen Thread Ripper kaufen.
 
Jetzt wäre ein Lebenszeichen vom zu konternden AMD Produkt nicht schlecht, oder?
*wart*
Hier haut intel richtig auf die Kacke und nach dem wenigen was man vom 5800x 3D bisher weiß, taktet der niedriger, verbraucht genauso viel wie der 5800er ohne 3D und soll trotzdem schneller als sein Vorgänger sein.
Aber ob es für die intels reicht?

Ich brauche Benchmarks aus beiden Lagern!
Möglichst gestern, möchte endlich upgraden^^.
 
TDP gibt es so seit Alder Lake nicht mehr und wenn, dann ist das jetzt PBP und da wären es dann 150W. -> Punkt!
PBP (alt TDP) gibt auch nur an, was die CPU maximal verbrauchen darf innerhalb des Basistaktes, also bei 12900K dann 3200MHz.
Verbraucht die CPU innerhalb PBP dort mehr, kann man die wieder eintüten und nach Intel schicken, ist dann ein Garantiefall.
TBP bzw. Power Limits geben an, was die CPU maximal im Turbo Boost, bei 12900K 241W., verbrauchen darf.

..nur wann erreicht man die denn ernsthaft außer beim extrem Benchen?
Bencht ihr die CPU den ganzen Tag bzw. habt ihr Prime95 Dauerloop im Autostart, dass automatisch anspringt wenn ihr den Rechner einschaltet? ;)

Hier wird wieder viel Panik um nichts gemacht. Realistischer ist doch eher, dass bei den meisten diese CPU zu 95% im Idle mit ein paar Watt herum dümpelt bzw. zum Gamen innerhalb der PBP Werte, vieleicht auch mal ein paar Watt darüber, genutzt wird.
 
Hat es doch, du meinst, dass das Teil irre viel strom verbrauchen wird, aber auch nur bei sowas wie Cinebench oder ähnlichem. Im Alltag verbraucht der auch nicht mehr oder weniger als andere Cpus.
 
Hat es doch, du meinst, dass das Teil irre viel strom verbrauchen wird, aber auch nur bei sowas wie Cinebench oder ähnlichem. Im Alltag verbraucht der auch nicht mehr oder weniger als andere Cpus.
Auch wenn der Prozessor bei normalem Gebrauch sparsam ist muss man doch die Kühlung und die Stromversorgung entsprechend großzügig auslegen, damit die Spitzen abgefangen werden können.
Das kostet zusätzlich Geld für ein deutlich stärkeres Netzteil und eine aufwendige Kühlung.
Dazu kommt, dass PL2 bei vielen Boards der Default ist. Bei AMD ist PBO ein opt-in und bei Intel ist PL2 ein opt-out Feature.
Und das alles für ein paar Prozent mehr Leistung, die man ausser in Benchmarks vermutlich nicht wirklich merkt.

Cunhell
 
laaaaangweilig.
Ich möchte mehr Infos zu AMD 7000 :d

Scherz beiseite, soll ja wohl doch viel früher kommen, als geplant.
Dann wirds endlich spannend.
Finde es Quark den 12900k(s) mit dem 5950x zu vergleichen.
Alt vs. Neu.. Na was ist wohl besser?

AMD muss nun in die puschen kommen, dann kann man endlich vergleichen und aufrüsten, was unterm Strich besser ist.

An und für sich ist der (bisher vermutete) Aufpreis zum -K.... okey finde ich.
Immerhin spart man sich das Kaufen von 10 CPU's bis einer dabei ist, der ein KS unter den K's ist ;)
 
Wie viel das Teil verbraucht hängt natürlich auch von der Last ab. Wenn man produktiv arbeitet, dann können da schon mal die 240W anliegen. Spielt man dagegen (wie viele hier im Forum), dann wird der 12900KS sich eher bei deutlich unter 150W bewegen. Der 12900K liegt beim zocken teilweise sogar unter 100W und ist effizienter als Zen3. Dennoch ist der Hinweis auf TDP und die PL Limits gut und richtig.
Was HWL leider nicht auch dazu sagt, ist was das Ding dann real braucht.
Hier werden Maximalwerte im Cinebench Loop angegeben.

Nicht mal beim KI Trainieren liegen die bei mir an,... in der realen Nutzung liegt der Verbrauch MIT LAST unter dem was meine andere Maschine mit nem Zen 3 im Idle frisst.
AMD gönnt sich echt verdammt viel in idle. Steigt dann halt nicht besonders weit. Intel hat es verdammt gut drauf nur genau so viel zu nehmen, wie auch echt muss. Im Idle ist der Unterschied bei sonst identischen Systemen gerne mal 50 Watt. Und sie können nach oben hin auch extrem viel vertragen. Das ist nur für die meisten irrelevant. ;-)

Lösungsvorschlag:
Maximalwerte angeben (klar), aber auch mit den Minimal und "normalen" Werten ergänzen.
Wenn die Maximalwerte nicht mal beim Machinelearning auftreten, dann wird es wohl wenig Use-Cases geben, für die diese Werte relevant sind.
 
@Tech Enthusiast
CapframeX kann da helfen. Die haben den 12900K gegen den 5900x in Spielen getestet und die Package Power mit angegeben. Wichtig, das ist in 720p, also im absoluten Cpu Limit. Beim normalen Spielen wird die Cpu also sehr wahrscheinlich noch niedriger liegen...


1644935221500.png
 
TDP gibt es so seit Alder Lake nicht mehr und wenn, dann ist das jetzt PBP und da wären es dann 150W. -> Punkt!
nein, einfach nein:
Intel schrieb:
TDP stands for Thermal Design Power, in watts, and refers to the power consumption under the maximum theoretical load. Power consumption is less than TDP under lower loads. The TDP is the maximum power that one should be designing the system for. This ensures operation to published specs under the maximum theoretical workload.
und wenn, dann ist das jetzt TBP und da wären es dann 241W. -> Punkt!
 
Den 5800 3D würde ich nach den Gerüchten um Zen4 über haupt nicht mehr erwarten. Den Cache versilbert sich AMD im Serverbereich. Für Intel erfüllt die CPU ihren Zweck. Angesichts von 600W+ Grafikkarten ist die Diskussion eh noch Ziel führend.
 
Und wieder unnötige Diskussionen über den verbrauch, klar wird er voll ausgefahren mehr verbrauchen als ein 12900K dafür bringt er aber auch mehr Leistung, im Gegenzug könnte man dann einen 12900K @5200Mhz all core setzten und den verbrauch vergleichen.

Muss letztlich jeder selber wissen, ob der Preis für den Mehrwert gerechtfertigt ist, ich könnte mir so ein lecker Teilchen, mit gesenkter Spannung und einem Noctua NH-L9i-17xx in einem schönen kleinen Mini ITX Gehäuse vorstellen@12900K:bigok:
 
Dort wird für den Core i9-12900KS der angekündigte Turbo-Takt von 5,5 GHz genannt. Ohne eine Anhebung der TDP scheint Intel dafür aber nicht auszukommen. Die Processor Base Power (PBP) soll bei 150 W liegen
Um einen Kern auf 5,.5GHz zu bringen, wird die CPU ganz sicher keine 150W und damit keinen Anhebung der Base Power brauchen, sondern dafür:
Ein Boost-Takt von 5,2 GHz auf allen Kernen
 
und wenn, dann ist das jetzt TBP und da wären es dann 241W. -> Punkt!
Habe ich doch schon in Post #10 geschrieben, oder? :unsure:

TBP bzw. Power Limits geben an, was die CPU maximal im Turbo Boost, bei 12900K 241W., verbrauchen darf.

..und es bleibt dabei, TDP gibt es seit Alder Lake nicht mehr. Wenn dann PBP:

Das war hier und überall gerne als Thermal Design Power 241W. falsch behauptet wird entspricht nicht der Basistakt Verlustleistung welche TDP angibt, sondern der variabel über Power Limits einstellbaren Turbo Boost Power Verlustleistung.
 
Zuletzt bearbeitet:
@Tech Enthusiast
CapframeX kann da helfen. Die haben den 12900K gegen den 5900x in Spielen getestet und die Package Power mit angegeben. Wichtig, das ist in 720p, also im absoluten Cpu Limit. Beim normalen Spielen wird die Cpu also sehr wahrscheinlich noch niedriger liegen...


Anhang anzeigen 728739
Besten Dank!
Die Seite hatte ich noch nie besucht. Ist aber auf jeden Fall aufschlussreich und passend zum Thema.
Wie erwartet ist der eigentliche Verbrauch um Welten geringer und zwischen den beiden Herstellern auch eher ausgeglichen. Die paar Watt hin oder her machen den Kohl jetzt nicht fett, zumal es je nach Game anscheinend auch mal so und mal so ausschlägt.

Wirklich spannend wäre aber in der Tat der Verbrauch ohne CPU limit.
Würde behaupten, dass nur echte CS:GO Freaks in 720p und / oder im CPU Limit zocken. (Gut und Strategiespiele natürlich)
 
Zuletzt bearbeitet:
Es sind doch immer die gleichen Geschichten. Natürlich wird beim Zocken nicht die maximal mögliche Leistung aus der zentralen Recheneinheit gezogen, wie bei Anwendungen, die jeden Thread maximal belasten. Somit hat jeder die Möglichkeit seine Argumentation zu rechtfertigen. Die Intel Anwälte heben das Zocken hervor und die Staatsanwälte beschreiben ein maximales Szenario für ihre Argumente.
Am Ende ist ein KS nur wichtig für Intel, um bei den Benches oben stehen zu können. Ganz normale Werbung, wie es eben für unsere Lebensweise wichtig ist. Bedeutungsvoll ist es ganz klar nicht.
Für mich nüchtern betrachtet ist diese Lebensweise nicht mehr zeitgemäß, aber wir leben eben weiterhin in einem ständigen Konkurrenzkampf. So ein KS ist genauso sinnbefreit für mich, wie 3 Tonnen SUV mit E-Antrieb.
Deswegen leben wir mittlerweile auf einem Planeten, auf dem 90% aller darauf lebenden Säugetiere zur Schlachtbank geführt werden. Es gibt praktisch kaum noch wild lebende Säugetiere. 4% in freier Wildbahn lebende Säugetiere, 60% Nutztiere und 36% das Säugetier Mensch.
Wir Menschen leben in Saus und Braus und im PC Bereich wird dies eben in Hardware vorgeführt, die nur dazu dient, einen harten Konkurrenzkampf zu führen auf Kosten anderer für wenige Prozente mehr an Leistung. Deswegen warten schon wieder genügend auf eine 3090 Ti für 4% mehr Frames. Hauptsache viele Prozente mehr Kapital für wenige und ordentliche Ressourcenverschwendung.

Ich weiß, solche Worte wollen die wenigsten hier lesen. Stört mich aber nicht :-)
 
Zen 3 ist ca. seit 1,5 Jahren auf dem Markt und Intel hat zwei Genrationen benötigt, um an AMD ran zu kommen bzw. jetzt leicht vorbei zu ziehen.
Ich lehne mich mal aus dem Fenster und sage das sich die Geschichte bei Zen 4 wiederholen wird.
 
Warum hören wollen? Drei Klicks und die Hardware bewegt sich im Effizienzoptimum. Die Architekturen selber sind alle höchst optimiert. Jeder hat die Möglichkeit beim Kauf zu entscheiden. Hier werden Probleme gesucht die nicht existieren.

PS: Ohne die Probleme in der Fertigung wäre die Situation für Intel nie eingetreten. Einige " Generationen " existieren nur deswegen. Mit einer Übertragung wäre ich deshalb sehr vorsichtig. Ironischerweise verhindert die Fertigung auch bei AMD so einiges aber eben aus anderen Gründen.
 
Zuletzt bearbeitet:
Zen 3 ist ca. seit 1,5 Jahren auf dem Markt und Intel hat zwei Genrationen benötigt, um an AMD ran zu kommen bzw. jetzt leicht vorbei zu ziehen.
Ich lehne mich mal aus dem Fenster und sage das sich die Geschichte bei Zen 4 wiederholen wird.
Und wie lange hat AMD sich an der Skylake Architektur die Zähne ausgebissen ? Der derzeitige Zustand ist doch gerade wünschenswert ! Soll AMD gerne wieder 15 % schneller sein, dann muss Intel mit Mehrleistung kontern usw.
 
Wenigstens muss ich nicht, wenn ich von meiner 100€ Alder Lake 12100, die jetzt schon von der P/L her jede teurere 4-Kerner AM4 Konfig. mit Abstand nass macht, noch hunderte von Euros in ein neues Board investieren um dann auf eine spätere Raptor Lake 13700 wechseln zu können.

..wie wird das wohl bei Ryzen7000 Raphael und LGA1718 AM5 ausschauen? :unsure: *hmm.. ..teuer, teuer, teuer..*
 
Der derzeitige Zustand ist doch gerade wünschenswert ! Soll AMD gerne wieder 15 % schneller sein, dann muss Intel mit Mehrleistung kontern usw.
den ersten satz klammere ich direkt aus, der schlägt ja doch wieder in die gleiche kerbe "aber aber aber der andere"
(nicht persönlich nehmen, passte nur gerade in den kontext, trifft auf zu viele andere posts auch zu)

dem rest stimme ich aber uneingeschränkt zu.
den zustand wie jetzt braucht es doch damit es schneller voran geht als in den letzten jahren.
einer legt eine ordentliche steigerung vor und zwingt den anderen zum nachziehen.
optimal würde ich sagen.
 
Optimal nur dann, wenn es technisch auch möglich ist.
Ansonsten bekommen wir Mogelpackungen, die nur so aussehen, als wären sie schneller,... dann auf Kosten anderer Merkmale. Siehe GPUs, wo ja offen über 400, 500, 600 Watt nachgedacht wird.
Sicher sind die dann schneller, aber eben ne Mogelpackung für die man die Nachteile ausbaden muss.

Bei CPUs sind die "Sprünge" ja im Vergleich eher "Hüpfer", von dem her sehe ich da noch weniger Probleme es technisch auf halbwegs normalem Wege zu schaffen. Aber ob, bzw. wie lange, dass so bleiben wird, wage ich nicht abzuschätzen.
 
Ohne die Probleme in der Fertigung wäre die Situation für Intel nie eingetreten. Einige " Generationen " existieren nur deswegen.
Eben, denn um eine bessere Architektur mit mehr IPC zu bekommen, braucht man mehr Transistoren, die mehr Platz brauchen und mehr Leistungsaufnahme erzeugen, beide erzwingt damit eigentlich ein neues Fertigungsverfahren um große Sprünge machen zu können. Deshalb hat AMD bei Zen und Zen2 auch jeweils so einen großen Sprünge machen können, da sind sie jeweils von 28nm auf 14nm und dann bei Zen2 auf 7nm gewechselt und hatten die Möglichkeit entsprechend mehr Transistoren einzusetzen.

Bei Intel hätte eigentlich auf Kaby Lake dann Cannonlake in 10nm und auch schon mit 6 Kernen im Desktop folgen sollen und dann Ice Lake. Aber die Probleme mit der 10nm Fertigung haben dies verhindert, es gab gerade mal eine Cannonlake CPU und bei der Ice Lake Probleme hohe Taktraten zu erreichen. Dies wurde erst mit dem 10nm EF Prozess, der bei Tiger Lake zum Einsatz kommt behoben und die S-Reihe für den Desktop hat mit Cypress Cove den Backport der Sunny Cove Architektur von Ice Lake bekommen und nur noch maximal 8 statt vorher 10 Kerne, weil die Kerne eben größer sind. Erst jetzt mit Alder Lake ist Intel wieder in der Spur und mit Meteor Lake wird es dann nächstes Jahr wieder einen größeren Sprung gebe, denn der wird in Intel 4 gefertigt werden und damit einem Prozess der mit TSMCs 5nm bzgl. der Strukturgrößen vergleichbar sein sollte.
Ironischerweise verhindert die Fertigung auch bei AMD so einiges aber eben aus anderen Gründen.
Die werden jetzt von der Chiokrise getroffen und könnten mehr verkaufen als sie fertigen lassen können, aber das ist eben der Preis dafür, dass sie keine eigenen Fabs mehr haben und sich damit die Foundry aussuchen können, die den besten Prozess bieten kann. Erst sind sie zu GF und nun bei TSMC und wer weiß ob sie nicht irgendwann auch bei Samsung fertigen lassen, wenn deren Prozess dem von TSMC überlegen ist. Dafür müssen sie aber mit allen anderen Kunden der Foundry um deren Kapazitäten konkurrieren, während Intel über seine Fertigungskapazitäten selbst bestimmen kann.
Soll AMD gerne wieder 15 % schneller sein, dann muss Intel mit Mehrleistung kontern usw.
Intel muss sowieso ständig die Leistung steigern, denn neben AMD haben sie sich auch gegen ARM zu behaupten. Bisher haben dies viele abgetan, da Intel in Smartphones sowieso keinen Fuß in die Tür bekommen hat und ARM ist ebenso schwertut im Servermarkt Fuß zu fassen, aber seit Apple angefangen hat auch bei Notebooks auf ARM zu wechseln, sollte dies eigentlich jedem klar geworden sein.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh