Genau, die kamen immer im Viererpaket. Aber wie kommst du auf 18?
Komische Frage, denn Du bist auf 18 gekommen, nicht ich!
HT soll auch wieder kommen aber ob es das schon ins Nova Lake schafft, weiß ich nicht.
Bei Nova Lake wohl nicht, sondern erst bei späteren Entwicklungen. Nova Lake dürfte schon fast fertig entwickelt sein und daher wird sich da nichts mehr ändern was nicht zwingend nötig ist.
die IF von AMD ist wie gesagt ein richtiger Fail.
Sie erzeugt im Idle eine hohe Leistungsaufnahme, Bandbreite und Latenz sind nicht optimal, aber AMD verwendet nur eine sehr einfache und billige Verbindungstechnologie für die Dies, im Prinzip nur wie bei BGA Chips auf eine Platine zu löten. Dies ist einfach und billig, beschränkt aber gegenüber den teuren Halbleiter Interposern wie Intel sie z.B. auch bei Arrow Lake verwendet, die Anzahl der möglichen Verbindungen gewaltig. Da muss AMD halt das beste aus dem machen was geht. Man könnte das meiste auch besser machen, aber zu welchem Preis? Irgendwo muss man eben immer Kompromisse machen und die kann man gut finden oder nicht.
Nur wenn es gut läuft wirds wieder ~900 EUR kosten
Möglich, aber kein Hersteller hat was zu verschenken und wenn die CPUs sich zu dem Preis verkaufen, dann wird er auch verlangt werden. Außerdem kosten HEDT CPUs noch mehr und die letzten Prozent Performance immer am meisten!
Ich schätze das der aktuelle AVX-512 Boykott von Intel eben den Einsatz von AVX-512 generell etwas ausbremst
Die Xeons mit P-Kernen unterstützen doch AVX-512 und die meisten Frameworks (Java, .Net) und Compiler unterstützen es als alternativen Codepfad schon lange, sofern die CPU es also kann, wird es auch genutzt. Aber das eigentliche Problem ist, dass man besser von Hand optimieren sollte und die meisten Anwendungen die von der massiven Parallelität von AVX-512 profitieren, dann sowieso schon auf GPU Computing optimiert worden sind, allen voran die KI Anwendungen. AVX und vor allem AVX-512 sitzt da zwischen den Stühlen, wenn viele Berechnungen auf den Daten erfolgen, dann lohnt es sich diese auf einer GPU auszuführen, wenn es nur wenige sind, spart man mit der Ausführung auf der CPU die Datenübertragung zu GPU, aber bringt eben auch nicht so einen gewaltigen Vorteil. Dazu limitiert bei vielen Kernen mit AVX-512 und wenigen Bearbeitungsschritten auf vielen Kernen halt das RAM Interface sehr schnell.
Gibt es irgendeine Messung was die ekerne an Energieeinsparung bringen?
Bei Alder Lake gab es damals einiges in der Art, die Kurzfassung war damals, dass ein Cluster aus 4 e-Kernen auf dem gleichen Platz etwa die doppelte Leistung einer P-Kerns bei gleiche Leistungsaufnahme hatte. Bei Arrow Lake hat die IPC der e-Kerne deutlich mehr zugelegt als die der P-Kerne und damit dürfte ein Cluster aus 4 e-Kernen, der immer noch so groß wie ein P-Kern ist und schon wegen der Kühlung eine vergleichbare Leistungsaufnahme haben dürfte, mehr als die Leistung von 2 P-Kernen haben. Für die Multithreadperformance sind die e-Kerne auf jeden Fall ein gewaltiger Vorteil.