Core i9-13900K unlimitiert bis 5,8 GHz: 40.000 Punkte bei 345 Watt in Cinebench R23 geknackt

Weiterer Leak der 13900K vs. 12900K mit Video:


Im AIDA64-Test bei gesperrter 4,9-GHz-Frequenz für die Performance-Kerne ist der i9-13900K viel kühler als der i9-12900K.
Mit einer TDP von 280 W und einer Temperatur von durchschnittlich 86 °C benötigt Alder Lake 100 W mehr Leistung und läuft bei einer viel höheren Temperatur als Raptor Lake mit 61 °C.

i9 12900K @ 4,9GHz: 279,9W. / 86°C
i9 13900K @ 4,9GHz: 177,3W. / 61°C

..wenn das so stimmt wäre das schon krass. :eek:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
One should note that their i9-12900K sample appears to be a one with AVX512 introduction still enabled, which may explain why AIDA64 is taking advantage of those functions.
However, once both samples are overclocked to 5.2 GHz, Alder Lake CPU is still requiring more power, but the difference is not as significant as before (~269W vs ~259W) while the temperature of the Raptor Lake is 10°C lower (86 vs 76°C).

Die vergößerte Oberfläche des Die dürfte nicht unwesentlich dazu beitragen dass RPL vor allem mit deaktivierten E-Cores etwas kühler bleibt.

Die VIDs der gleichen Prozessor-Variante können sich um bis zu ~100mV auf vereinzelten Cores voneinander unterscheiden, das alleine kann auch schon einige Grad Differenz ausmachen.
 
Zuletzt bearbeitet:
Du siehst aber auch auf den beiden AIDA64 FPU Bench Screens, dass das Board zwar AVX512 unterstützt bzw. im UEFI noch aktiv gesetzt werden kann, im dahinter stehenden CPU-Z Screen aber nicht als aktiv aufgelistet wird. Das Phänomen kenne ich schon von meinen Asus B660 Board wo man im UEFI auch AVX512 aktiv setzen konnte, unter Windows @ AIDA64 die AVX512 Flags aber alle disabled standen und auch bei CPU-Z kein AVX512 aufgeführt wurde. Ist so ein Asus only Fake Setting und lässt sich nur mit einen Bios Mod des Z690 Maximus umgehen was ich mir mal in die Bios Version des B660 rein gefummelt hatte. Danach wurde AVX512 dann wirklich aktiv unterstützt (no Risk, no Fun halt). Nur bei meinen MSI Z690 war das mal eine Bios Version lang @ AVX512 Trial dann auch wirklich aktiv und bei meinen jetzigen NZXT Z690 konnte man bis Bios 7.02 im UEFI auch AVX512 aktiv setzen, war aber auch ein Fake Setting und unter Windows (AIDA64, CPU-Z) inaktiv.

Von daher fällt eine eventuelle "Mehrlast" bzgl. AVX512 schon einmal vom Tisch.

Was die VID Toleranzen betrifft, ok, da gebe ich dir recht. Aber wer sagt denn, dass es nicht auch ein schlechtes RpL Sample und ein gutes AdL Sample sein könnte?
Dann wären die Differenzen sogar noch was höher zu werten. :)

edit: Noch besser könnte man das vergleichen, wenn die mal via Intel XTU mit angezeigten Settings und Verbrauchsgraphen 12900K vs. 13900K benchen würden.
Da hätte man alles übersichtlich an einen Fleck und soweit ich weiß, hat Intel XTU schon RpL ready gefixt.
 
Zuletzt bearbeitet:
Die VID in dem Screen @ 4.9 GHz spricht halt nicht wirklich für ein gutes ADL Sample. :oops:

An ~100W Differenz bei gleicher Core-Anzahl/Takt glaubst du doch selbst nicht, die Fertigung wurde doch nur marginal verbessert, die Strukturgröße ist die selbe. :LOL:
 
Daher ja:
..wenn das so stimmt wäre das schon krass. :eek:
;)

Warten wir es mal ab. Bevor AdL kam hat man AdL auch nicht viel von dem zugetraut was sich dann nach Release doch genau so wie zuvor geleakt auch bewahrheitet hat (siehe zb. Igors anfänglicher "Brechstangen" Artikel).

Hier noch einmal das AVX512 gar nicht aktiv war:

Unbenannt.png


edit: Vieleicht bietet ja Chipset 7xx / RpL doch das neue DLVR Feature was nachher nur noch für mobile CPU geplant war? Das würde dann zumindest einiges erklären auch wenn es hier nur ein Z690 Mobo ist. Weiß man es?
 
Zuletzt bearbeitet:
Gibt ja nur 4 Möglichkeiten:

AdL Sample schlecht vs. RpL Sample schlecht -> PAT
AdL Sample gut vs. RpL Sample gut -> PAT
AdL Sample gut vs. RpL Sample schlecht -> Vorteil AdL
AdL Sample schlecht vs. RpL Sample gut -> Vorteil RpL

..zieht man nun die beiden Pats ab (50%) die keinen signifikanten Messunterschied ergeben da beide Samples gut oder halt schlecht, ist die Chance 50:50 das der Leak stimmt oder halt nicht.

Wird jedenfalls ein interessanter Herbst und nach diesen Leak "wäre" RpL momentan nicht nur performer, sonder auch effizienter als Ryzen 7000. :fresse:
 
VC beim 13900K @ 4.9 GHz 1.097V, beim 12900K @ 4.9 GHz 1.265V.

Ich würde ja eher keine voreiligen Schlüsse ziehen, an Wunder glaube ich auch nicht mehr, aber Träumen ist natürlich erlaubt. o_O
 
Hab langsam so den Eindruck, dass sich Zen4 und RPL am Ende nicht viel geben werden aber mal sehen ...
 
Es ist vor allem auch ein Indiz dafür dass der 12900K halt eher eine Krücke ist.

Vielleicht hast du ja auch schon mal daran gedacht, dass die Werte für den Verbrauch bei einem ES auch einfach nicht stimmen könnten. :sneaky:

Ich wäre ja der letzte der was dagegen hat, dass Intel einen Überflieger von der Leine lässt.

Alleine an der Fantasie bzw. dem Glauben daran mangelt es.
 
Vielleicht hast du ja auch schon mal daran gedacht, dass die Werte für den Verbrauch bei einem ES auch einfach nicht stimmen könnten. :sneaky:
Sicher, möglich ist alles. Aber woher willst du mit Gewissheit sagen, dass die nicht doch stimmen könnten?
Zudem kann es -laut Leak- ein ES1, ES2 oder QS sein. Kann niemand mit Bestimmtheit sagen. Von daher, alles ist möglich.
Und wie bei Leaks üblich, bei den Ryzen7000 Leaks wird ja nicht weniger spekuliert, sind diese halt immer die aktuelle Momentaufnahme und nimmt man so als gegeben hin.

Ich wüßte jetzt auch ehrlich gesagt nicht,, warum man Ryzen7000 Leaks mehr Glauben schenken sollte als den Raptor Leaks. Gibts da irgendwie AMD Boni oder so etwas?

edit: Zudem kann ja bei diesen RpL Sample genau das gleiche Phänomen vorhanden sein wie bei der getesteten 7950X. Lässt man diese auf default vC, verbrutzelt die viel mehr als für den Takt benötigt und erst nach manuel vC Setting läuft die dann bei gleichen Takt wesentlich kühler und mit weniger Verlustleistung.
 
Zuletzt bearbeitet:
Die eigentlichen Gewinner dieser Schlamschlacht sind Konsumenten wie ich, während sich die selbsterannte Masterrace sich gegenseitig den Schädel einschlägt wer jetzt doller ist der AMD um 1000€ oder der Intel um 1000€,
so gehts unten rum gemächlicher zu.

Wobei auch nicht wo bleibt die Konkurrenz von AMD zu einem 12100F, haben sie schlicht nicht eher geben sie einen Renoir mit PCIe 3.0 raus wo am Ende eine RX 6400 mit I3 12100F schneller ist als ein Renoir Verschnitt wie der Ryzen 5500 mit PCIe 3.0 und einer RX 6500.
 
Nein, ich sehe nur
Die Power Limits kann man doch im BIOS einstellen, dann zieht sie auch nicht so viel und wenn man auf die letzten 10% Performance Performance verzichtet, spart man sicher über 100W von den 345W in diesem Test mit recht hoher Übertaktung ein. Die letzten paar Prozent an Performance kosten eben immer am Meisten, auch an der Steckdose!
Du kaufst dir also eine CPU um diese von morgens bis nachts an einer LN2 up to 100% CB23, Blender & Co. benchen zu wollen? :unsure:
..denn ein anderes Szenario fällt mir gerade nicht auf die schnelle ein, wo eine CPU die von dir vermuteten Verbräuche generieren könnte.

ps: Ach du willst nur damit gamen, surfen und bissel Office machen? Wie kommst du dann darauf die würde dort soviel verbraten wie du denkst?

Da ich keine CPU möchte, die deutlich über 120W zieht (eigentlich sogar lieber um 80W), sind die aktuell die Modelle und die Benchmarks so wie sie herausgebracht werden leider absolut nichtssagend. Das ist als ob nur getunte Autos getestet werden, es aber kaum Infos über das Serienmodell gibt.

Ich möchte die Sweetspot zwischen Verbrauch und Leistung.

Ich brauche durchaus eine Workstation, aber ich habe keine Lust mehr auf extrem schwere CPU Kühler die jeden Transport spannend machen und auch keine Lust auf großen Aufwand um die große Aufwand leise aus dem Gehäuse zu bekommen.
 
Da ich keine CPU möchte, die deutlich über 120W zieht (eigentlich sogar lieber um 80W), sind die aktuell die Modelle und die Benchmarks so wie sie herausgebracht werden leider absolut nichtssagend.
Das stimmt, aber die meisten wollen eben die Höchstleistung wissen und pfeifen darauf wie viel die CPU dabei verbraucht. Ist halt so und entsprechend bedienen die Benchmarks diese Nachfrage.

Ich möchte die Sweetspot zwischen Verbrauch und Leistung.
Dann hoffe darauf das jemand so ein Diagramm macht wie dieses für den alten 3700X:

Zen2_Watt_Performance.png


Oder nach besser: Kaufe Dir einen 13900, 13900K oder 7950X und erstelle selbst so eines für die wichtigsten Anwendungen, dann kannst Du danach im BIOS den passenden Betriebspunkt selbst einstellen. Das ich hier so ein Diagramm für einen alte Zen2 einstelle liegt einfach daran, dass ich kein Beispiel für eine neuere CPU habe, was zeigt wie einsam Du bist, denn den allermeisten geht dies halt weit hinten vorbei, die wollen lieber die CPU die mit starker Übertaktung die höchsten Wert in einem bestimmten Benchmark stemmen kann.
 
Da ich keine CPU möchte, die deutlich über 120W zieht (eigentlich sogar lieber um 80W), sind die aktuell die Modelle und die Benchmarks so wie sie herausgebracht werden leider absolut nichtssagend. Das ist als ob nur getunte Autos getestet werden, es aber kaum Infos über das Serienmodell gibt.
Ich denke mal, gerade dann wäre eine 13400 die optimale CPU aus Verbrauch und Leistung für dich.
Zumindest meine 11400 war schon sehr sparsam für eine 6 Kerner, die 12400 noch eine Spur sparsamer und die 13400 kommt zwar mit 10 statt 6 Kerne aber die zusätzlichen 4 Kerne sind halt sparsame E-Cores.
Klasse darunter wäre dann die 4 Kerner 13100, die wird aber dann wohl die einzige Raptor Lake CPU die only DDR5 supported während alle anderen Raptoren DDR4 und DDR5 supporten.
 
Warum geben die Hersteller so etwas nicht raus?
Offenbar weil es kaum jemanden interessiert und die Reviewer machen es leider auch nicht.
Das bedeutet extremem Aufwand das selbst zu machen, zeitlich und finanziell.
Finanziell wäre es für die eigene CPUs ja keine Belastung, zeitlich allerdings schon und dies gilt so auch für die Reviewer, die könnten die CPUs in ihren Reviews natürlich auch so testen, machen es aber eben leider auch nicht. Zumal sowas im Prinzip für jedes Programm / jeden Benchmark wieder etwas anderes aussehen könnte. Aber wenn man einen wie eben Cinebench nimmt, dann bekommt man ja schon mal eine gute Idee in welcher Taktregion die optimale Effizienz ungefähr liegt und es ist ganz sicher nicht bei dem maximalen Takt den man mit der Brechstange erzwingen muss.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh