Aber dies ist nur ein einfaches Beispiel, denn natürlich verhält sich die Leistungsaufnahme nicht linear zum Takt, wie man an diesem alten Test eines 3700X schön sehen kann:
Das ist falsch. Die Leistungsaufnahme verhält sich sehr wohl linear zum Takt. Und nicht nur das, der Takt geht sogar relativ klar 1:1 in den Verbrauch ein.
Vergleiche mal lieber nicht Endprodukt-Skalierungsbalken in einer theoretische Betrachtung

Was du wohl viel eher meinst ist der Umstand, dass A) Spannung notwendig ist und dazu unten ein Punkt kommt, wo man nicht mit weniger Spannung runter skalieren kann und oben ein Punkt kommt, wo man auch mit immer mehr Spannung nicht mehr sonderlich viel Taktzuwachs erzielt. Und B) dass eben diese Spannung im Quadrat in den Verbrauch eingeht. Je nachdem wo man sich zwischen beiden Punkten bewegt.
Man sieht an deinem Bild sehr schön den immer spitzer werdenden Anstieg im Verbrauch bei immer weniger Taktzuwachs. -> das liegt an der Spannung die oben immer weniger Takt zulässt. Und unten flacht die Kurve immer weiter ab, was ebenso an der Spannung liegt.
In einer idealen Welt hätte TSMC die Fertigung der zugrunde liegenden Dies so weit verbessert, das Binning wäre so viel besser geworden, das "so krasse" Einschnitte im Takt wie beim 5800x zu 5800x 3D nicht nötig sein müssten.
Natürlich taktet der höher als die Epycs, weswegen im Endeffekt nur abwarten übrig bleibt.
Naja, eigentlich nicht. Es findet doch hier gar keine Fertigungsprozessanpassung statt.
AMD nimmt 1:1 die gleichen Dies aus der Fertigung und packt in zusätzlichen Schritten da oben einen Cache quasi Huckepack drauf. Das ist nichts anderes wie bisher in der Basis - nur dass eben die Zusatzschritte oben drauf kommen. Logisch, dass man da über andere Mittel und Wege die Energieaufnahme irgendwie im Rahmen halten muss...
Btw. finde ich die Einschnitte gar nicht so krass. Keine Ahnung ob man dem bewusst so bisschen aus dem Weg geht oder ob es keine guten Vergleichspaarungen gibt - aber bestenfalls taugt ja noch der Vergleich der großen 64C. Beide 280W, beide 64C. Und da ist der Taktverlust mit grob 10% im Base und gleich bei Max. Boost jetzt eigentlich überschaubar gering.
Bei den anderen passt das irgendwie alles nicht im Vergleich, da nicht klar ist, ob AMD die hohe TDP wirklich braucht oder nur aufgrund der wenigen Modelle im Angebot drauf schreibt. Es gibt auch nen Epyc 75F3 mit 280W bei 32C. Der nur unwesentlich höher taktet und das bei weit mehr als 225W eben auch nicht im Verhältnis steht.
Auch passt der Vergleich zu den vier aktiven CCD 128MB L3 Cache "alt" Modellen nicht. Denn die nutzen ja gerade den Vorteil des kleineren Ausbaus. Der 768MB L3 Cache Epyc muss hier alle acht CCDs aktiv haben.
EPYC 7443 udn EPYC 7343 sind also kein sinnvoller Vergleich. Den 16C mit 256MB gibts bspw. nur als Epyc 73F3 für 3500$ Liste, was auch mal schlapp doppelt so teuer als in der Tabelle ist.
Das ist ja auch das erste mal, dass sowas gemacht wird. Die beiden Desktop Broadwell CPUs hatten zwar auch ein eDRAM, welches auch als L4 Cache für die CPU dient, aber da gab es halt keinen Vergleich zu Modellen ohne und es war DRAM und kein SRAM.
Auch das ist falsch. Mensch Holt, was denn los heute?
Broadwell gabs sehr wohl auch ohne L4 Cache... Die wurden reihenweise in Notebooks verbaut - und kannste natürlich klar auch vergleichen.
Ich halte den Broadwell aber generell für einen ungünstigen Vergleichspartner - denn der L4 Cache beim Broadwell war weniger echter L4 Cache als weiterer zusätzlicher zwischen Speicher, den man idealerweise zusätzlich ansprechen MUSS, damit das auch nennenswert Punkte bringt. Denn jedes Datenpaket was aus dem L4 Cache irgendwo hin ging, musste IMMER in den L3 Cache geschrieben werden. Auch wenn von L4 in RAM ausgelagert wurde!
Das ist ein völlig anderes Prinzip als AMD hier angeht und skaliert auch völlig anders. AMD platziert hier sehr viel Cache zwischen Core(s) und RAM, weil die IF ultra lahm ist. Viel Cache = weniger Zugriffe über die IF, weil mehr Cache Hits. Beim Broadwell war der L4 Cache keine zusätzliche Stufe zwischen RAM und L3 Cache, sondern parallel zum RAM angebunden. Der GPU brachte das somit einer Bandbreite addiert von RAM und L4 Cache in Richtung Einsteiger dGPU Niveau. Und die IGP war damals auch bei Intel drastisch Bandbreiten limitiert. Manche Tools profitierten davon auch zusätzlich. Aber hier mit dem Epyc/Ryzen bzw. bei Intel auch ab Skylake mit L4 Cache ist das eine weitere echte Cachestufe zwischen RAM und L3. Bei der XBox damals hat Intel das sogar noch etwas mehr auf die Spitze getrieben, weil die Entwickler quasi den Cache einbinden mussten, damit der Spaß überhaupt skaliert. Beim PC/Notebook ging das natürlich genau so - nur hat sich keiner für Marktnischen den Aufwand gemacht. Übrig bliebt idR nur die Funktionen der GPU Treiber für die bessere GPU Skalierung.