Gerüchteküche legt sich fest: Raphael mit Zen 4 mit 16 Kernen und 170 W

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und in ein zwei Jahren heißt es dann, was du kühlst noch mit Lüfterkühlung :d
 
Letztendlich ist die Fertigungsgröße Hupe
Nö ist sie nicht, weil eine kleinere Fertigungsgröße mit besserer Effizienz einhergeht und man für die gleiche Rechenleistung weniger Strom braucht. Je nach Anwendungsfall und Auslastung muss der Chip nicht zwingend heißer laufen oder wie du es sagen würdest, eine höhere/ größere Abwärme erzeugen. Am Ende spielen dann aber andere (negative) Faktoren wie DIE-Größe, Hotspot nicht in der Mitte, Heatdensity, IHS-Dicke usw. mit rein, die diesen Vorteil praktisch wieder zunichtemachen.

es geht hauptsächlich um die Fläche des Chiplets
Dass ein großer DIE kühlungstechnische Vorteile mit sich bringt, ist vollkommen logisch, aber möglicherweise sieht das AMD anders. Aus Kostensicht macht ein kleineres Chiplet jedoch deutlich mehr Sinn. TSMC's Fertigungskapazitäten sind bis Jahre im Voraus ausgebucht und auch die Ausbeute pro Wafer möchte man gerne weiter erhöhen. Daher gehe ich von aus, dass es auf einen Kompromiss hinausläuft. Möglicherweise wird das Chiplet etwas kleiner, vielleicht aber auch gleich groß. Wer weiß, wir werden sehen. Letztendlich kann man hier alle möglichen Gründe nennen, dennoch bleibt es alles reine Spekulation.
 
Falls die Leistung dadurch auch entsprechend steigt gerne, hab da im Desktop kein Problem damit. Immer her damit.
 
Ich würde mich endlich mal über Releasedaten von Zen3 mit 3D stacked L3 freuen, auch was das Preisniveau betrifft. Da ist es aktuell leider wieder recht still geworden.
 
Die Preise kennen nur eine Richtung
 
Egal, wenn die Leistung und vor allem auch der Takt hoch ist, sind auch 170 Watt TDP zu akzeptieren.

Oha. Was ist los? Umdenken vom umdenken oder kneift die rote Brille auf den Nasenruecken?

Wir alle haben aber gesehen, damals beim launch von Ampere wie rücksichtslos Nvidia die Watt Monster raus gehauen hat, nur um sagen zu können, wir haben die schnellste GPU.
Hier muss ein Umdenken stattfinden, nicht das letzte FPS sollte entscheiden, sondern due Energieeffizienz auch bei den Highendmodellen.
 
Ich bin ohnehin schon gespannt was da in Naher Zukunft so rauskommt - da die aktuellen Systeme schon ziemlich am Limit arbeiten wird das Thema Kühlung wahrscheinlich noch wichtiger werden wenn da noch dichter gepackt wird.

Zum Thema "die sollen mal effizienter werden...."

Tun sie doch! Die kleinen Varianten der CPU´s werden für die gebotene Leistung doch immer weniger stromhungrig. Wenn man vergleicht was man heute mit 65W TDP an Rohleistung bekommt im Gegensatz zu vor 10 Jahren für den gleichen Energieaufwand hat sich da einiges getan. Da die Möglichkeiten nach oben hin mehr Leistung zu bringen aber ebenso weiterentwickelt werden, ist es doch nur logisch das die großen CPU´s auch bei steigender effizienz am Ende immer mehr verbrauchen.... viel Rechenpower braucht viel Strom.

Ein Schwergewicht wie einen 5950X oÄ mit einer TDP von 65W oder dergleichen werden wir auf Basis Silizium genau nie zu gesicht zu bekommen... das ist doch völlig utopisch 🤪

Wenn einen der hohe Stromverbrauch stört, kann man doch ne Leistungsklasse kleiner kaufen - da wird man dann bedient. Aber mäckern das die Highendmodelle immer mehr strom verbrauchen ist doch irgendwie fehl am Platz imho.
 
Mein persönlicher Favorit ist der Chiplet Ausbau auf max. 12 Kerne
Dies hätte ich auch vermutet, aber es scheint derzeit nicht danach auszusehen, da es ja pro CCD bei 8 Kernen zu bleiben scheint. Es könnte allenfalls wieder zurück zu zwei CCDs pro Chiplet gehen, so wie es bei Zen2 ja der Fall ist. Dies wäre dann aber für die Latenz zwischen den Kernen auf unterschiedlichen CCDs eines Chiplets nicht optimal.
Die Grafik dürfte wohl für nicht mehr als eine Bildausgabe und das Abspielen von Videos ausgelegt sein.
Das reicht doch auch, wer mehr will, kauft entweder eine richtige APU, dann bekommt er halt weniger Kerne oder eine Graka, an deren Leistung eine APU sowieso nie rankommen kann.
Für die 12 und 16 Kerner finde ich 170W auch nicht übertrieben viel. Das braucht es halt, damit solche CPUs auch mit entsprechend hohem Takt laufen können. Aktuell ist der Takt bei denen aufgrund der max. 142W Verbrauch ja generell geringer als beim 8 Kerner.
Das wird AMD wohl ändern wollen.
Anzunehmen. Wenn die Gerüchte um die Leistung von Alder Lake stimmen, dann hat die Konkurrenz aufgeholt und AMD wird kein Mittel auslassen, welches einen Leistungsvorteil verspricht. Intel hatte eben wegen der Probleme mit dem 10nm Prozess lange Probleme und da diese nun offensichtlich überwunden sind, müssen sich nun beide wieder richtig ins Zeug legen.
Im Consumerbereich halte ich 170 W für ausgeschlossen. Man muss ja bedenken, dass solche CPUs (wenn auch selten) in OEM-Rechnern zum Einsatz kommen würden und OEM sind ja nicht bekannt dafür, wahnsinnig viel Geld für gute Kühler auszugeben.
Erstens spielt der OEM Bereich bei AMD längst nicht die Rolle wie bei Intel, zweitens wären diese TDP nur für die Spitzenmodelle, es wird für die preissensiblen Segmente wie die Officekisten sicher auch CPUs mit weit weniger TDP geben und drittens gibt es ja auch heute schon OEM Rechner mit CPUs mit so viel oder noch mehr TDP. Die sind dann natürlich sowohl von der Zielgruppe als auch preislich in einem anderen Bereich angesiedelt als kleine Officekisten.
Ähnlich wie intel gibt die TDP einer CPU nur den "normalen" Verbrauch an, exklusive Turbo.
Sofern im BIOS das PL1 Power Limit entsprechend der Intel Vorgab (TDP) eingestellt ist.
Die Effizienz der AMD Ryzen 5000 ist weit besser

Lies mal dies hier:

28535402

Davon abgesehen ist es derzeit ein Vergleich von Intels 14nm zu TSMC 7nm und obendrein ist es von der Effizienz her immer besser mehr Kerne mit weniger Takt als weniger Kerne mit mehr Takt zu betrieben, sobald man in den Taktbereich kommt, in dem die Effizienz fällt:

Zen2_Watt_Performance.png

Hebt AMD nun den Stromverbrauch bei den kommenden CPUs etwas weiter an und bringt dadurch entsprechend viel Mehrleistung zustande, ist das absolut ok. Intel hingegen hat diese Aktion gebracht um am Ende trotzdem kaum Mehrleistung zu bieten. Ein totaler Fail halt.
Auch AMD wird nicht zaubern können, wenn sie mehr Takt wollen, werden sie an Effizienz verlieren, weil sie in der Kurve weiter nach rechts rücken und auch wenn diese Kurven bei jeder CPU anderes aussieht, so ist sie im Prinzip immer ähnlich. Intel bewegt sich weiter oben in Taktbereichen die auf diese Kurve nicht zu sehen sind, aber ich haben keine andere und wenn Intel das macht ist es entweder genauso in Ordnung oder Fail wie wenn AMD dies macht, sonst wäre das mit zweierlei Maß gemessen.

Heatdensity ist bei den immer kleiner werdenden Fertigungsgrößen sicherlich zunehmend ein Problem
Das auf jeden Fall, aber man sollte nicht vergessen, dass die Strukturen auf den Chips unterschiedliche Größen haben, so sind die Transistoren größer, wenn diese mit hohen Taktraten arbeiten, also eben gerade in den Kernen.
Letztendlich ist die Fertigungsgröße Hupe, es geht hauptsächlich um die Fläche des Chiplets und die Leistung, die über diese Fläche abgeführt werden muss.
Nein, die Hotspots spielen auch eine Rolle. Laut Wikipedia ist die Leitfähigkeit von Silizium mit 163 weit geringer als von reinem Alu mit 236 oder reinem Kupfer mit 401. Für Legierungen sehen die Werte etwas anders aus, aber liest noch mal dies:

AMD stapelt den 3D V-Cache bewusst nur über den L3 Cache auf dem Chiplet und dies würde keinen Sinn machen, wenn deine Aussage stimmen würde und es für die Wärmeabfuhr nur auf die Fläche und Leistung des ganzen Chiplets ankommen würde. Totes Extrasilizium an den Seiten eines Chips bringt für die Kühlung praktisch nichts, da die Wärme vor allem von Die auf den HS/Kühlkörper darüber geht, zumal bei einem verlöteten HS.
Im 4K-tauglichen HEDT-Segment geht der Trend offenbar kontinuierlich in Richtung 200 W für die CPU und 400 W für die GPU.
Das ist eben das Ergebnis der Konkurrenzsituation, die die Hersteller zwingt, die Leistung zur Not mit der Brechstange über den Takt zu holen um vorne zu sein bzw. mithalten zu können. Solange aber immer noch so viele Leute lieber übertakten und einen besseren Kühler kaufen um dann die Temperaturen in den Griff zu bekommen als über die BIOS Einstellungen das OC zurückzuschrauben, scheint das ja zu sein was die Kunden möchten und die Hersteller werden immer bemüht sein die Kundenwünsche zu bedienen, sonst verkaufen sich die Produkte nämlich schlecht. Aber es gibt ja auch Optionen für Energiesparer, die leisten dann aber eben auch weniger.
 
jaja, intel...
... ist auch sehr effizient - wenn man die power limits rigoros durchsetzt.
... ist auch sehr flott - wenn auf die power limits gekonnt gesch*ssen wird.
 
AMD stapelt den 3D V-Cache bewusst nur über den L3 Cache auf dem Chiplet und dies würde keinen Sinn machen, wenn deine Aussage stimmen würde und es für die Wärmeabfuhr nur auf die Fläche und Leistung des ganzen Chiplets ankommen würde. Totes Extrasilizium an den Seiten eines Chips bringt für die Kühlung praktisch nichts, da die Wärme vor allem von Die auf den HS/Kühlkörper darüber geht, zumal bei einem verlöteten HS.
Ja ne... Da hast du meinen Gedanken irgendwie komisch weiterverfolgt. AMD stapelt den L3 Cache natürlich nur über dem alten Cache, weil dort erstens der Platz ausreicht und zweitens die VIAs sitzen. Es macht schlicht keinen Sinn den Chip für den Cache größer zu machen, weil das (auch) Platz auf dem Wafer klaut. Deshalb gibts zwei extra Dummychips daneben, die über den Logikbereichen des Chiplets sitzen.

Was nun die Wärmeabgabe angeht, da hast du mich missverstanden. Selbstverständlich nützt es nichts, wenn man um einen Chip einen breiten Rand lässt, um die Fläche für die Wärmeabgabe zu vergrößern. Ist der Chip ansich aber größer (als die Fläche die von Logik bedeckt ist), dann entzerrt das sehr wohl die Wärmeabgabe und damit auch das Temperaturdelta. Würde man also einen 7nm Chip fertigen, der Lücken zwischen den Logikbereichen hätte, dann würde der sehr wahrscheinlich kühler laufen. Das macht aber aus mehreren Gründen keinen Sinn... Erstens ist das alles andere als Kosteneffizient und zweitens hat man so unnötig hohe Latenzen zwischen den Teilen des Chips.

An dieser Stelle kommt es also Intel zu Gute, das man bei Rocketlake schlicht nicht kleiner bauen kann. Denn das bedeutet das der Chip schön groß ist. Sieht man auch an den Temperaturen unter Last, denn Rocketlake läuft bei gleicher oder größerer Wärmeabgabe mit geringerer Temperatur als seine Vorgänger.

jaja, intel...
... ist auch sehr effizient - wenn man die power limits rigoros durchsetzt.
... ist auch sehr flott - wenn auf die power limits gekonnt gesch*ssen wird.
... ist nicht mehr ganz sooo flott, wenn die Powerlimits rigoros durchgesetzt werden
.... ist trotzdem nicht schnarchlahm wenn die Limits aktiv sind

;)
 
An dieser Stelle kommt es also Intel zu Gute, das man bei Rocketlake schlicht nicht kleiner bauen kann. Denn das bedeutet das der Chip schön groß ist. Sieht man auch an den Temperaturen unter Last, denn Rocketlake läuft bei gleicher oder größerer Wärmeabgabe mit geringerer Temperatur als seine Vorgänger.
Naja ob der nun kühler ist als der CML, würde eher sagen fast gleich je nach Chipgüte, aber die 14nm kann man generell extrem drücken in der Temp wenn man schnell genug die Wärme wegschafft.
Da sind selbst in BF5 CPU Temp´s unter 50Grad drin, im großen und ganzen kann man zwischen 35-60Grad liegen.

Aber so schön das auch ist mit den niedrigen Temp´s bei den 14nm, ich find das schon richtig genial der kühlste Rechner ever was ich je hatte, aber Leute mit ner "normalen" Kühlung sind mit 7nm und weniger Verbrauch einfach besser dran, es erfordert einfach weniger Kühlaufwand.
Nen AMD hälst du halt auch mit ner einfachen AOI gut in Schach.

Der CML kann übrigens effizienter sein als der AMD 5900/5950 bei entsprechender Chipgüte und Kühlung.Beim RKL ist das leider nicht mehr ganz so prall mit den Watt/FPS.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: Tzk
Das ein effizienterer Chip besser ist sollte hoffentlich jedem klar sein. Und ja, bei den 14nm Intels muss man die Wärme irgendwie abführen können... Die ausgelesene Chiptemperatur ist nur die halbe Wahrheit, je nach verwendetem Kühler. Ich würde derzeit lieber einen AMD (z.B. 5800x) nehmen und diesen sogar noch im Powerlimit beschneiden. Die Teile laufen auch mit 50W TDP / ~70W PPT noch sensationell gut und flott.

Und andersrum: Wenn man den 5800X mit einem hohen PPT so richtig prügelt, dann gibts halt in Form von (extrem) hohen Kerntemperaturen die Quittung dafür. Ärgerlich für unsere Übertakter hier im Board, aber hey, das Leben ist kein Ponyhof :d

Der CML kann übrigens effizienter sein als der AMD 5900/5950 bei entsprechender Chipgüte und Kühlung

Ja, das hängt aber auch vom gewünschten Arbeitspunkt ab. Die Ryzen fangen oberhalb von 4ghz ziemlich schnell an zu saufen, während Intel da besser dasteht. Andersrum nimmt die Effizienz Richtung 3ghz bei AMD nochmal deutlich zu, bei Intel nicht so viel. Ich tippe daher, dass AMD zwischen 3 und 4ghz im Vorteil ist und Intel aller spätestens oberhalb von 4.5ghz. Aber klar, eine absolute Antwort, die immer gilt, gibt es nicht.

Sieht man ja auch an dir, du bist mit Rocketlake/Cometlake besser beraten, weil du das Maximum rauskitzelst. Ich dagegen will ein sparsames, kleines und leises System und bin daher bei AMD besser dran.
 
Zuletzt bearbeitet:
Müsste ich jetzt jemanden zu einem System raten wäre das nen 5800X, einfach P/L ist extrem gut da man ein günstiges Board nehmen kann und Kühlaufwand ist gering.
Ich bin nun wirklich FPS per Watt effizienter unterweg´s als nen AMD, jetzt kommt das große aber, DirectDie bei verdammt guten Chip und ne Wasserkühlung jenseits von Gut und Böse.

Wenn das kein Hobby ist ist das halt sinnfrei^^Hier siehst du mal meine Leistungsaufnahme die ich so produziere bei BF5, eigtl. weniger da ich nur 120FPS fahre sprich dann sind es eher so meist 80-90W
rum andere Games liegen da so eher zwischen 40-80W.
Aber wehe dir du hast nen Gurkenchip mit AOI und versuchst das dann säuft der wie nen Loch^^.Das ist das gute wenn du nen AMD nimmst wenig Watt in Abwärme,
damit auch viel weniger Kosten für den Kühlaufwand.

Das ist mit 5,1Ghz da ist so der Sweetspot, geht natürlich auch mit wirklich wenig Watt aber so passt das schon wenn man meist um die 40-80W CPU brauch.
Unbenannt (2).jpg


Wer das nicht aus Spaß und Hobby betreibt sollte aber halt lieber gucken was wirklich Sinn macht und grade die Mainboard Preise finde ich derzeit
bei Intel schon ziemlich krank.Da gefällt mir AMD mit neuen Innovationen und brauchbaren Preisen ehrlich gesagt um längen besser.

Ich bin auf Zen4 gespannt, was da bei rauskommt und auch mit dem 3DCache.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: Tzk
Es wird auch keiner eine 170W CPU kaufen und dann mit LUKÜ kühlen (manchen trau ichs aber zu), vl liegen die 170W am 3D V-cache
 
Es wird auch keiner eine 170W CPU kaufen und dann mit LUKÜ kühlen (manchen trau ichs aber zu), vl liegen die 170W am 3D V-cache
Lyl meinen 170W TDP Epyc kühl ich auch locker mit Luft weg. Was ihr alle immer habt...
 
Selbstverständlich nützt es nichts, wenn man um einen Chip einen breiten Rand lässt, um die Fläche für die Wärmeabgabe zu vergrößern. Ist der Chip ansich aber größer (als die Fläche die von Logik bedeckt ist), dann entzerrt das sehr wohl die Wärmeabgabe und damit auch das Temperaturdelta.
Aber genau das ist ja worum es bei der Heatdensity geht. Wenn ein Kern 10mm² statt 5mm² einnimmt, dann verteilt sich die Wärme auf die doppelte Fläche und ist eben einfacher zu kühlen, es passen dann aber eben weniger Kerne auf die gleiche Diefläche, was dann am Ende eben dem Streben nach immer mehr Kernen entgegensteht. Je kleiner die Fertigungsstrukturen werden, umso schlimmer wird das und das Problem müssen die Chiphersteller lösen und wenn es am Ende über weniger maximalen Takt bei zu viel Hitze an der Stelle ist.
 
Ebenfalls noch einmal bestätigt wird das Vorhandensein einer integrierten Grafikeinheit. Diese befindet sich offenbar im IOD und basiert auf der RDNA-2-Architektur. Welche Ausbaustufe AMD hier verwendet wird, bleibt jedoch offen. Wohl nicht notwendig ist, dass AMD hier seinen eigenen APUs Konkurrenz macht.
Seh' ich gegenteilig, die APUs sind doch ganz schön hintendran, und deren für nicht-diskrete Grafikeinheiten ehemals revolutionäre Grafikleistung reißt inzwischen nicht mehr Viel. Da das Grafikkartendebakel noch immer längst nicht ausgestanden ist (falls es überhaupt jemals wieder endet..), wären da ein paar deutliche Upgrades sehr wünschenswert!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh