@HerrLange @Holt ich glaub ihr habt da beide nicht ganz unrecht, aber es kommt eher auf den Zweck drauf an.
Ich würde nicht Pauschal beides ausschließen. Bei Intel gibt es ja nicht umsonst Platinum, Gold, Silber Klassifizierung. Klar hat vieles mit Takt zu tun. Aber die Silber CPUs laufen mit echt moderaten Taktraten, so das dort die Spannung entsprechend gesenkt werden kann und das düften auch schlechtere Binning's schaffen..
Es muss nicht heißen das eine CPU, weil sie bei 1,45 V 5 GHZ erreicht, bei 3,3 GHZ nicht immer bei als Beispiel stabil mit 1,25V läuft. Ich glaub es gibt da ein paar Sweetspots wo es ein schlechtes Binning bei entsprechender Taktrate immer noch läuft. Aber ich denke das ist ähnlich wie bei Desktops.
Im Endeffekt müssen diese ja nur langlebig und stabil innerhalb ihrer Parameter laufen.
Bei AMD sind es ja unter anderen C Cores for EPYC.
Auch mal bedenken, daß die wirklich guten nicht nur höher Takten können , sondern ihren niedrigeren Takt mit weniger Saft halten können. Stichwort VID. Das ist auch für Epycs relevant
Da muss aber kein Zusammenhang bestehen, eine CPU die mit 1,45V 5 Ghz Schafft muss nicht zwangsläufig bei 3Ghz So viel effizienter sein wie die andere die 1,5V bei 5Ghz brauch.
Als konkretes Gegenbeispiel die DRAMs mit JDEC Spezifikationen. Die laufen in XMP Zwar bei 1,5V mit Doppelter Taktrate, aber alle die JEDEC 4800 erfüllen laufen mit 1,1V oder 0,9V (die Zahlen sind geschätzt erfunden).
Aber in der Regel ist es so. Das heißt das schlechteste RAM-KIT erfüllt die minimum Anforderungen genauso wie das Teuerste.
Nachtrag: Genauso wird es beim Binning sein - da gibt es wohl Toleranzfenster und fertig.
Ich glaube auch nicht das AMD/Intel ihre Chips immer mit IGPU produzieren und für die Server extra abtöten. Da sind mit Sicherheit Serien dabei die nicht für Desktops gebinnt werden können.
Da geht mit Sicherheit ein Teil in IoT/Industrie Geräten. Dort ist die Taktfrequenz nicht wichtig nur effizient, dann müssten dort ja die besten Chips reinkommen..... das glaube ich aber nicht.