Intel LGA4677 Mainboard Laberthread

tonythebuilder

Experte
Thread Starter
Mitglied seit
01.09.2017
Beiträge
443
Intel LGA4677 Mainboard Laberthread

Prozessoren


Intel Xeon w-32xx Preisvergleich (64 Lanes, 1 Sockel)
Intel Xeon w-34xx Preisvergleich (112 Lanes, 1 Sockel)
Intel Xeon Bonze bis Platinum und Max Preisvergleich (1 - 8 Sockel abhängig von der CPU)*
Intel Xeon Max Preisvergleich

Bei den CPUs unterscheidet man zwischen:
- MCC (Medium Core Count) bis 24 Cores
- XCC (Extreme Core Count) ab 24 bis 60 Cores
- XCC-HBM das sind die Max Server Xeon CPU mit integriertem HBM2e Speicher (5 Versionen gibt es davon)
intel-xeon-sapphire-rapids-workshop-product-overview-011_1920px.jpeg


intel-xeon-sapphire-rapids-workshop-product-overview-079_1920px.png

intel-xeon-ws-spr-briefing-020_1920px.jpeg

intel-xeon-ws-spr-briefing-021_1920px.jpeg

Chipsätze

W790 (nur w-32xx und w-34xx) Preisvergleich
C741 (nur Xeon Bronze bis Platinum und Max)* Preisvergleich

Es wurden QS und ES CPUs von Platinum auf W790 Mainboards getestet und dies scheint zu funktionieren. Mit einschränkung auf Grund des ES und QS Status. Wobei es Aussagen gibt das QS CPUs gleich den der Produktions CPUs ist. Was sich auch in den Ebay Preisen wiederspiegelt.*
Max CPUs haben keine C-States. Haben somit keine Energiespar Optionen, schon Hardwareseitig. Die Logik dahinter ist die, dass diese nur für Server/HPC gedacht sind. Und somit 24/7 laufen sollen/müssen.*

CPU-Kühlung

Luftkühlung Preisvergleich
AiO Preisvergleich
Wasserkühler (nativ) Preisvergleich

Hinweis zur CPU Installation:
Prozessor Installation

Es gibt zwei Kunststoff Adapter/Halter zur Montage der CPU. Diese werden nur bei denn Boxed CPU oder bei eurem Mainboard mit geliefert. Bei Tray CPUs nicht (Meines Wissens nach).

E1B für Xeon CPU mit 64 Lanes (MCC)
E1A für Xeon CPU mit 112 Lanes (XCC)
E1C für Xeon Max (HBM)

Der Kunststoff Adapter/Halter wird erst auf dem Kühlkörper montiert.
Dann wird die CPU, richtig rum, auf die Pins und Cutouts achten, montiert. Darauf achten das die CPU richtig drin sitzt und alle Clips auf der CPU eingerastet sind. Sitz die CPU schief drin könnt ihr denn Sockel beschädigen. Nehmt euch, von daher Zeit, für diesen Schritt.
Erst jetzt die Kunststoffabdeckung vom Sockel demontieren.
Auf das Dreieck im Kunststoff Adapter/Halter und dem Sockel achten. Beide müssen übereinander liegen.
IMG_20230627_162027.jpg
94640-img2.jpg

Wenn das Kühler/Adapter/CPU Packet im Sockel steht dann die Metalbügel am Kühler einrasten.
Dann die Kunststoffschrauben über Kreuz gleich mäßig anziehen. Sind die Schrauben nicht richtig angezogen, habt ihr beim starten des Systems allerlei merkwürdige Fehler. Bei mir wurde der RAM nicht erkannt.

Intel gibt ein Drehmomemt von 8 IN-LBF (Inch pound force) an (laut Umrechner 0.903878632 Newton Meter).

Kritik:
Erstens: Wenn Intel ein Drehmoment möchte sollte es Angaben in allen gebräuchlichen Maßeinheiten geben. Und das Metrische System ist nun mal weltweit, dass Maß aller Dinge.
Zweitens: Wir reden bei Boxed CPUs in der Regel über vierstellige Summen. Da sollte es für Intel kein Problem sein einen passenden Drehmomentschlüssel bei zu legen. (AMD schafft das auch)


Arbeitsspeicher

Preisvergleich
Nur DDR5 und auch nur RDIMM.
UDIMMs sind mechanisch nicht möglich.
Auf die QVL Liste eures Mainboards achten.

Intel Xeon w-32xx - Quad Channel Speicher max. 2TB
Intel Xeon w-34xx - Octa Channel Speicher max. 4TB
Intel Xeon Bonze bis Platinum - Octa Channel Speicher max. 4TB per CPU
Intel Max - max 4TB per CPU aber auch ohne RAM nutzbar. HMB only im BIOS einstellen.*

Im Moments sind 16GB, 32GB, 64GB und 96GB Modulle verfügbar.**

Hardwareluxx Tests und Reviews

Vorstellung der Intel Max CPU von STH auf Youtube. Und hier der Artikel dazu. (Englisch)*

Edits:
* 13. September 2023
** 10. Oktober 2023
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zuletzt bearbeitet:
ASUS Pro WS W790-Ace Übersicht und Erfahrungen

Links
: Produktseite | Handbuch und Dokumentation | Downloads | Preisvergleich

Spezifikationen:
2-pro_ws_w790-ace,_front_view,_with_heatsinks_1920px.png
ace-1.jpg

ace-2.jpg
6-pro_ws_w790-ace,_io_ports_closeup__1920px.png


Mitgeliefertes Zubehör:
2x SATA 6GB Kabel
1x Handbuch (Englisch)
2x Gummi Unterleger für M.2
1x I/O Connector (Q-Connector)
1x Braket E1B
1x Braket E1A

BIOS:
0403 (2023/02/13) First Release
0506 (2023/05/11) Improved system/boot-up stability, Improved system/boot-up performance, Improved device compatibility, Better consistency in naming rules
0705 (2023/08/29) Improved system performance, Improved system stability, Improved device compatibility, Updated ME to version 16.10.5.1625, Support for CXL device, Improved data exchange coherency between BIOS and IPMI
0805 (2023/12/28) Improve system performance and stability, Default enable ""Limit CPU PA to 46 bits"" for support Windows Server 2019 with VT-d, This update includes the patch for the LogoFAIL vulnerabilities, Update VROC to 8.2.0.2005, Add PCIe Bifurcation options for GPU with M.2 storage
"Before running the USB BIOS Flashback tool, please rename the BIOS file (PWW790A.CAP) using BIOSRenamer."
1202 (2024/03/04) Improved system performance, Improved system stability, Updated ME FW to version 16.11.15.1736, Improved CXL compatibility, Improved flexibility of BIOS profile application via IPMI
"After the first update to BIOS 1202, please perform BIOS update once again via EZ Flash Utility or BIOS OOB update (IPMI web UI) to update the ME firmware as well. This will enable future auto ME firmware update."
Before running the USB BIOS Flashback tool, please rename the BIOS file (PWW790A.CAP) using BIOSRenamer."
1401 (2024/05/03) Updated ME version to 16.11.17.1782v5, Improved system configuration and reliability, Improved system performance, "Before running the USB BIOS Flashback tool, please rename the BIOS file" (PWW790A.CAP) using BIOSRenamer.

Review:
Review von Level1Techs - The ASUS Pro WS W790 ACE Is... Kind Of Weird
Systembuild von Level1Techs (Edit: 23. August 2023)




Erfahrungsbericht: (wird laufend erweitert)

Man sollte wenn das System läuf gleich auf das BIOS 0506 Updaten. Bei mir lief es zwar nicht instabil, mit BIOS 0403. Es fühlte sich aber an, als wenn die Handbremse leicht angezogen ist. Und er brauchte immer wieder mal Zeit zum Nachdenken. Es fühlte sich sogar langsamer an als mein vorheriges System mit einem Xeon W3670.

Das BIOS ist ein UEFI-BIOS. Hat keine Benutzer Oberfläche wie man es von den ganzen Gaming Mainboards kennt. Es ist im schlichten Blau/Grau gehalten. Es bietet sehr viele Einstellmöglichkeiten. Würde den Rahmen hier sprengen. Im CPU Erfahrungsbericht werde ich auf ein oder zwei Punkte eingehen. Ansonten RTFM.

Meine beiden 64 GB RDIMM Module wurden ohne Probleme erkannt. Aber nur als DDR5-2000, wenn die AUTO Erkennung an war. Ich musste manuell auf DDR5-4800 stellen. Das Mainboard macht jedes Mal, wenn an der Hardware, etwas geändert wurde. Ein Art Memory Training. Bei meinen 128 GB dauerte das nur max. 30 Sekunden. Ob es mit mehr Speicher länger dauert, kann ich im Moment nicht sagen.

Das Mainboard hat 3x 8 PIN PCIe Anschlüsse. Verwendet ihr nur eine Grafikkarte oder einen PCIe Slot. Reichen zwei 8 PINs(ATX_12V(1)_1; ATX_12V(2)_1). Habt ihr mehr als zwei PCIe Karten installiert, muss/sollte auch PCIE_8P(1)_PWR angeschlossen sein. Falls nicht angeschlossen, meckert das Mainboard bei jedem Bootvorgang. Der Bootvorgang, geht dann auch nur mit F1 weiter.
5e98f7a1.jpg


Wer sich das Video von Level1Techs angesehen hat. Wird wie Wendel dort erwähnt hat, so einige merkwürdige Dinge festgestellt haben. Ich sehe das nicht bei allen so, bei denn meissten schon.

Overclocking - Im BIOS in Ordung für mich. Ein WS Mainboard komplett darum auf zu bauen, ist komisch. Es gibt einen extry ReTry Button auf dem Board.
LN2 - es gibt einen LN2 Mode Jumper und im BIOS eine Einstellung um denn Coldbug zu umgehen. Für die 3-4 Leute weltweit die diese Plattform mit LN2 übertakten?
Zwei Netzteile - man kann zwei Netzteile betreiben. Asus hat eine eigene Serversparte, dort sollte man Wissen wie man es richtig macht. Ansonsten nur für die 3-4 Übertakter? 2x 750 Watt Minimum.
Ein Netzteil - Warum Asus ein 1500 Watt Netzteil bei einer einzel Nutzung empfiehlt. Was warscheinlich nur Asus. Ich habe ein 1000 Watt und Puget Systems empfiehlt nur 850 Watt bei einer einzelner GPU.
USB Ports - 8x USB-2; 4x USB-3 und 1x USB-C 3.2. Warum so viele USB-2? (Nichts gegen viele USB-Anschlüsse)
LAN - 1x 10GB Aquantia, 1x 2.5GB Intel. Warum nicht 2x 10GB NICs egal ob Intel oder Aquantia, bei einem 800€ Mainboard?
IPMI - dafür ist das MB vorbereitet. Man findet auch entsprechende Optionen im BIOS. Man braucht die Asus IPMI Expansion Card dafür. Für mich nicht tragisch da ich es nicht brauche. Für andere vielleicht schon.
SlimSAS - Warum nicht U.3 (SFF-TA-1001)? Kabel werden auch nicht mit geliefert. Hatte ich schon erwähnt das wir über ein 800€ MB reden?
M.2 - Die Kühlkörper sehen für mich, mehr aus wie ein optische Gimmick als das sie tatsächlich von Nutzen wären.
Mainboard Kühlung - dafür das das MB übertaktet werden kann, ein wenig mickrig. Bei meinem P6T7 WS Supercomputer wird mit Heatpipes gearbeitet. Dort sind auch zwei nForce Chipsets. Auf dem W790 könnte es eventuell Platzprobleme geben. Merkwürdig ist es trotzdem.

Die ganzen Anschlüsse auf dem MB sind manchmal sehr merkwürdig Positioniert. Denn USB-3.2 Gen1 Header kann ich nicht nutzen. Da dieser horizontal positioniert ist und nicht wie der USB-3.2 Gen2x2 vertikal.
Auch bewirbt Asus das MB für Quad GPU. Ich kann nur Empfehlen das ihr für die untere GPU eine nehmt die am Kühlkörper offen ist. Ansonsten könnt ich keine USB Header einstecken (da diese vertikal sind) und ihr euch die Kabel zerquetscht. Bei meiner 7900 XT (Ref.-Design), war dass glücklicherweise kein Problem (Puh...).
Falls ihr das Q-LED (für Error Codes) aus lesen wollt. Und ihr habt im unteren Slot eine GPU monitert. Achtet darauf das die Kühlerfinnen vom Mainboard weg zeigen und eure GPU in dem Berich offen ist. Ansonsten. mein Beileid.
IMG_20230730_103026.jpg

Bei meiner 7900 XT kann ich es durch die Kühlerfinnen ablesen. Ist auf dem Bild nicht ganz deutlich, es geht aber.

Die ganzen USB-Header, Q-LED, Reset/Start_Button und der Front I/O Connector sollten. Aus meiner Sicht dort hin wo der zweite (nutzlose) 12x2-PIN ATX Anschluss ist. Und dort wo die ganzen Anschlüsse waren eventuell einen PCIe Slot_6 hin setzen.

Die PCIe Lane Verteilung sieht so aus:
lanes.jpg

Das heißt wenn ihr, so wie ich, in Slot 5 eine GPU verwendet. Verliert ihr Slot 4. Selbt wenn wie bei mir in Slot 3 nur eine PCIe Lane genutzt wird. Ich kann zwar Slot_5 auf x8 runter setzen. Das würde die 7900 XT aber ziemlich beschneiden. Ich bin da mit dem Asus Support im kontakt. Eventuell besteht die Möglichkeit das Problem zu beheben. Update: Wurde vom Asus Support an die BIOS Entwickler weiter geleitet. Ob es machbar ist oder ob sie es überhaupt um setzen ist eine andere Frage.

Treiber:
Sind nicht vollständig auf der Asus Website (Stand 30. Juni 2023).
Denn unter Windows wird ein Unbekanntes Gerät mit der Hardware-ID ACPI\VEN_INTC&DEV_1056 angezeigt. Ich musste beim Support Nachfragen. Mir fehlte der Intel serielle IO Treiber. Den mir Asus dann als V30 zur Verfügung gestellt hat. Warum der auf der Website nicht ist, weiß nur Asus. Und warum Intels eigenes Tool Driver &Support Assistant, dass Problem nicht erkennt. Mir aber statt dessen eine Überprüfung für eine Intel ARC GPU anbietet, weiß warscheinlich noch nicht mal Intel.

Linux:
Ich habe jetzt nur Linux Mint mit Kernel 5.15 ausprobiert. Läuft. Keine Treiberinstallation notwendig.
Nur nicht die GPU, die braucht min. Kernel 6.2. Da hatte ich dann das Problem mit einem Unsichtbaren Mauszeiger. Auch ließen sich keine 3D Anwendungen starten. Ich vermute mal das das Update auf Kernel 6.2, nicht offiziell Unterstützt, etwas kaputt gemacht hat. Ich werde bis Kernel 6.5 oder auf LDME 6 warten.

Windows:
Ladet euch vorher, minimum, den Netztwerktreiber für das W790 Ace runter. Denn Windows (10) erkennt nichts. Noch nicht mal den Netzwerkanschluss. Was blöd ist, bei einer Neuinstallation.

Edit 23. August 2023:
Fall man sich auf Basis eines W790 Mainboard eine Audio-Workstation bauen möchte. Lasst es.
Im Moment scheint wohl auf keinem W790 MB, Soundkarten zu funktionieren, bzw. funktionieren sie nur sporadisch oder nicht wirklich gut.
Warum das so ist, weiß im Moment keiner. Ich selbst habe mein Xonar Essence STX Problem an Asus berichtet. Dort wurde es nach Asian weitergeleitet. Mal sehen wann und ob etwas passiert. So lange habe ich nur Onboard Sound. Und der ist schon ziemlich gut. So 80-90% von meiner Xonar.

Wenn mann seinen Xeon mehr Leistung entlocken möchte. Im BIOS/UEFI die CPU Core Ratio von AUTO auf By Core Usage umstellen. Mein w5-2455X läuft dann auf 4.6 Ghz all Core. Vorher waren es nur 3.9 Ghz.
Ich habe heute auch die Aussage von Asus bekommen das das Ändern der CPU Core Ratio von AUTO zu By Core Usage kein Übertackten ist. Die CPU wird weiterhin innerhalb ihrer Specificationen betrieben. Fall doch Probleme auftauchen, sollte man aber wieder auf AUTO zurück setzen.
 
Zuletzt bearbeitet:
Was mich mal interessieren würde ist, wie weit man die Idle Leistungsaufnahme durch entsprechende BIOS Einstellungen wie die C-States etc. senken kann. Im Review hier bei HL waren es 92,9W, was mir recht viel vorkommt. Aber da wird mit den BIOS Defaulteinstellungen gebencht und die ASUS Boards scheinen mehr auf OC und maximale Performance optimiert zu sein als auf Energiesparen, aber genau deswegen würde mich echt mal interessieren was man da erreichen kann.
 
Zuletzt bearbeitet:
Das kommt schon hin. Mein 12 Kerne Verbraucht im Idle so um die 50 Watt.
Das wären grob gesehen, so 4.1 Watt pro Kern (ohne Threads und denn Rest auf der CPU). Er geht runter auf 800 Mhz.
Der von @Don gemessene w9-3495X hat 56 Kerne. bei 92,9 Watt wären das grob 1,66 Watt pro Kern (ohne Threads und denn Rest auf der CPU). Was schon sehr beeindruckend ist.
Der Idle Verbrauch vom System würde ich im Moment so auf 110 bis 120 Watt schätzen (habe kein Messgerät für die Steckdose). GPU (ca. 32,67 Watt) CPU (49,56 Watt).

In die C-States und wie man dort eine CPU Optimiert da muss ich mich erst einlesen. Habe ich keine Ahnung von.

Beim Max Verbrauch wird es komplizierter. Denn bei den Asus Boards, hat man im BIOS unter dem Punkt Ai Tweaker die Option Asus Multicore Enhancement.
Per Default steht die auf Auto. Was ein wenig merkwürdig ist. Denn es kann dadurch zwischen drei Optionen wählen die man auch manuell auswählen kann.

Disable - Enforce all Limits - Die CPU geht nicht über 200 Watt Leistungsaufnahme und achtet sehr stark auf die Temperatur Limits (in wärmeren Regionen dieses Planeten interessan)
Enabled - Remove all Limits - Es gibt keine Grenzen, der Einzelne Kern bzw. die ganze CPU kann über 90°C gehen.*
Enabled - Remoce all Limits (90°C) - Wieder keine Grenzen bis auf die max. 90°C Grenze (Kern/CPU)*
*Das mit dem Kern/CPU ist meine Vermutung, macht nur Sinn. Lasse mich aber eines besseren belehren.

Ich habe Option 3 (90°C) und dort konnte ich bis jetzt, der CPU knapp 239 Watt entlocken. Bei maximum 62°C. Wobei immer die Frage ist, konnte ich die CPU voll auslasten.
 
Mein 12 Kerne Verbraucht im Idle so um die 50 Watt.
Wie viel davon entfällt auf die Kerne und wie viel auf den Uncore Bereich? Denn Kerne brauchen, zumindest bei den Mainstream CPUs, im Idle praktisch gar keine Leistung, wenn man die C-States entsprechend aktiviert hat.
Beim Max Verbrauch wird es komplizierter.
Den kann man bei vielen Kernen natürlich endlos hochtreiben, da sind nur die CPU Kühlung und irgendwann die Spawas auf Mainboard das Limit.

Denn bei den Asus Boards, hat man im BIOS unter dem Punkt Ai Tweaker die Option Asus Multicore Enhancement.
Per Default steht die auf Auto. Was ein wenig merkwürdig ist.
Das hatte ich so erwartet. Schau doch mal mit HWInfo64 und dort Sensors was für Power Limits dann eingestellt sind, sollte mich nicht wundern wenn es über 4000W wären. Aber wie gesagt kann man die Leistungsaufnahme fast beliebig nach oben treiben, mich würde aber eben eher interessieren wie weit man sie im Idle nach unten senken kann und da fürchte ich ist gerade bei dem ASUS Board wohl Optimierungsarbeit im BIOS gefragt, da dies eben per Default eher auf die maximale Performance als auf eine geringe Idle Leistungsaufnahme optimiert sein dürfte.

Wie viel die BIOS Einstellungen da ausmachen können, sieht man ja gut im Review des 13900KS, der in der Default Einstellung im Review hier bei HL auf 4,2W und in der Übertakteinstellung auf 6,2GHz auf 29,8W gekommen ist. Auf meinem ASRock Mainboard kommt mein 13900K im Idle übrigens nur auf knapp über 2W.
 
Ich meine im normalen Nutzungszustand. Ich habe den 1.9 kW Übertacktung Artikel auch gelesen.
Powerlimits (Falls du das meinst):
Leistung.jpg

Ist entweder Unlimitiert oder 1023 W.

Das mit den C-States habe ich mal getestet. Da gibt es anscheinend eine Bug oder es wurde von Asus nicht richtig umgesetzt oder die CPU will das nicht. Ich frage mal bei Asus Support, ich rede mit denen ja gerade.

C-States Auto (Default):
c-states-auto.jpg


C-States Manual und all Enabled:
c-states_manual.jpg
 
Sehr spannend fände ich Verbrauchswerte an der Dose. Willst Du nicht mal in ein Messgerät investieren? Kostet nicht die Welt ;)
 
Schau halt mit HWInfo64 und dort Sensors nach, da steht normalerweise der konkrete Wert drin.

Der Wert hängt aber extrem von den restlichen Komponenten ab und ist daher für Vergleiche total ungeeignet.
Diese Behauptung ist nur partiell richtig. Klar spielen die restlichen Komponenten eine Rolle. Aber die processor packet power als einzig wahren Wert zu sehen, ist klar falsch. Der in diesem Post beschriebene Rechner zeigt geringe packet power Werte, verbraucht aber trotzdem im Idle sehr viel. Mein neuester EPYC 9554P Rechner mit ähnlicher Ausstattung zeigt eine packet power von ca. 27W, also viel mehr, aber verbraucht an der Dose viel weniger - 64W: Link
Der EPYC bringt übrigens fast die doppelte Rechenleistung bei weniger Verbrauch - ist aber zugegebenermaßen mindestens 1 Generation neuer.

Von daher ist der Verbrauch an der Dose zumindest für mich interessant. Dass er Dir beim AMD Bashing / Intel Hochloben nicht schmeckt, ist aber klar.
 
Der eine hat ein 1200W Netzteil und da sollte man sich nicht wundern wenn dessen Effizienz bei vielleicht nicht mal 10% Last mies ist und dann steht da "obwohl alle PCIe Slots abgeschaltet sind", was bedeutet das? Wenn da Grakas drin stecken die auch am Netzteil angeschlossen sind, wie viel ziehen die dann, auch wenn man den Slot im BIOS deaktiviert? Bei andere war ein 760W Netzteil verbaut und da steht nur OnBoard ASpeed Grafik. Wenn man die Leistungsaufnahme an der Steckdose vergleichen will, dann sollte sonst möglichst alles gleich sein, was eben gleich sein kann, gerade im Idle wo die Leistungsaufnahme der CPU eben unter Umständen nur einen Bruchteil der gesamten Leistungsaufnahme ausmacht und die Netzteil meist bei so wenig Last arbeiten, dass deren Effizienz eben mies ist.

Deshalb interessiert mich die Package Power, zumal mal klar sein sollte, dass diese eben das Minimum ist unter das man im Idle nicht kommen wird. Das für den Rest des Systems noch mehr oben drauf kommt, ist klar, aber dies hängt eben sehr vom jeweiligen System ab und wäre daher eine gesonderte Fragestellung.
 
Wenn sich zwei streiten, freut sich der dritte (tony) :fresse2:

Falls du die PL1 und PL2 Leistungsgrenze (Static) meints. Liegt tatsächlich über 4000W. Bei 4095W.

Das mit denn Gesamtsystemwerten ist auch wieder so ein Problem. Denn bekomme diese Maschine erst mal Ausgelastet. Selbst ein Blender Render (CPU+GPU) schafft das nicht. :unsure:

Das System wie links in der Beschreibung. Nur ohne Soundkarte, die ist abgeraucht. An der Steckdose gemessen, nur das System selbst (keine Monitore etc.).
Dafür mit:
1x Sonnet 4-Port USB-A 5 GB Karte
5x Noctua NF-P12 redux 1300 PWM Lüftern (zwischen 500 - 600 RPM)
2x LED Streifen und 2x Lichter (Startknopf und RGB Auswahlknopf) die das Gehäuse mit Liefert

Idle: 104 Watt

Blender (Scanlands Render, mit HIP (CPU und GPU): max 620 Watt
Cinebench R23: 320 Watt
Cyberpunk 2077 Benchmark (1080p): 500 Watt

Und wie schon gesagt das System selbst war nie voll Ausgelastet. Entweder die jeweils CPU oder GPU 100%. Beides zusammen 65% CPU und GPU 80%.

Wo ist der Schachbenchmark? @Kullberg
Wir alle Wissen, das du es willst. :ROFLMAO:
 
Zuletzt bearbeitet:
Richtig
Ich bearbeite mal, damit es klarer wird.
 
Der eine hat ein 1200W Netzteil und da sollte man sich nicht wundern wenn dessen Effizienz bei vielleicht nicht mal 10% Last mies ist und dann steht da "obwohl alle PCIe Slots abgeschaltet sind", was bedeutet das? Wenn da Grakas drin stecken die auch am Netzteil angeschlossen sind, wie viel ziehen die dann, auch wenn man den Slot im BIOS deaktiviert? Bei andere war ein 760W Netzteil verbaut und da steht nur OnBoard ASpeed Grafik.
Das 1200W Netzteil ist ein professionelles Supermicro Teil - das ist garantiert nicht schlecht von der Effizienz her. Ich hatte vorher in dem SM Chassis kurz ein dual Xeon E5 2696v4 System - da war idle ~65W angesagt.
Die PCIe Slots sind bei beiden Systemen leer und maximale PCIe Energiespareinstellungen eingestellt. Grafik ist bei beiden onboard ASpeed AST - beim EPYC neuere Version. Ansonsten hat der EPYC Wakü, der Xeon Lukü - die Lukü dürfte weniger verbrauchen.
Beide Rechner haben die gleiche Aufgabe, sind also sehr ähnlich konfiguriert.

Es wird Dir also nicht gelingen, den massiven Effizienzvorteil des EPYC wegzudiskutieren.

@tonythebuilder
Schach Benchmark ist nicht interessant - zuwenig Cores ;)
 
Zuletzt bearbeitet:
das ist garantiert nicht schlecht von der Effizienz her.
Die Effizienz jedes Netzteils fällt bei geringen Lasten massiv ab, dies ist unvermeidbar und die 80+ Ratings sind alle bei 20%, 50% und 80% Last ermittelt, nur die neuste Titanium auch bei 10% Last und da muss das Titanium Netzteil dann noch 90% Effizienz bieten, gegenüber 94% (bei 230V) bei 20% Last, 96% bei 50% Last und 94% bei 80% Last. Wie effizient ein Platinum oder schlechter spezifiziertes Netzteil bei deutlich unter 20% Last ist, kann man also nicht sagen, aber mit Sicherheit schlechter als bei 20% Last wo es 92% haben muss.
Es wird Dir also nicht gelingen, den massiven Effizienzvorteil des EPYC wegzudiskutieren.
Das ist gar nicht mein Ziel und mir auch total egal, zumal viele Kerne bei jeweils weniger Takt (eben weil sie zusammen sonst zu viel Leistungsaufnahme hätten) immer effizienter sind als weniger Kerne die dann jeweils höher takten und damit weniger effizient arbeiten, ist sowieso klar. Aber das ist hier nicht das Thema, zumindest nicht für mich. Ich möchte nur wissen auf welche Idle Leistungsaufnahme man diese Xeon-W CPUs optimieren kann, denn die im Review hier bei HL gemessenen 92,9W Package Power scheinen mir einfach zu viel zu sein und eben nur daher zu kommen, dass viele Energiespareinstellung da nicht aktiv waren. Wie der Review des 13900KS zeigt, der in der Default Einstellung auf 4,2W und in der Übertakteinstellung auf 6,2GHz auf 29,8W gekommen ist, hat das Mainboard über die BIOS Einstellungen eben einen gewaltigen Einfluss auf die Idle Leistungsaufnahme (und natürlich auch auf die bei Volllast) und wenn der TE auf knapp unter 50W kommt, dann könnte dies daran liegen das seine CPU weniger Kerne hat. Aber bei den richtigen BIOS Einstellungen brauchen Kerne die nichts zu tun haben auch praktisch keinen Strom.
 
Schachbenchmark wäre schon interessant. Laut Cinebench R23 ist mein 12 Kerner fast so schnell wie ein 24 Kerner der Vorgängergeneration.

@Holt das hat schon seine richtigkeit. Dein "Fehler" ist, dass du ein 8P+16E CPU mit einer 56P CPU vergleichst. Das einzige was beide CPUs verbindet ist das sie Ursprünglich die gleichen P-Cores verwendeten.
13900k Die:
Core-i9-13900K-Core-i7-13700K-Core-i5-13600K-Intels-Raptor-CPUs-in-der-2048x1152-c4b07e7041d44...jpg

Xeon w9-3495X Die (Schematisch):
Intel-Sapphire-Rapids-XCC-Die-Diagram.jpg


Es gibt schon rein Visuell enorme Unterschiede.
Des weiteren vergisst du die Einsatzorte beider CPU Reihen. Core i für Consumer, hohe Benchmarkzahlen (mit ein wenig Optimierung) und hohe GHz Zahlen. Um die Leute und Presse zu beeindrucken. Ansonsten wenig Verbrauch. Eher ein Sprinter mit Doping.
Der Xeon ist auf den Dauereinsatz ausgelegt. Dort ist wichtig wie viele bekomme ich in einen Möglichst kleinen Raum. Und hoch sind die Kosten über einen, beispielsweise, 10 jährigen Nutzungszeitraum. Der ist mehr ein Ironman Teilnehmer. Nur nach dem Zieldurchlauf, sagt der: "Und das ganze noch mal, für die nächsten 10 Jahre". Der Idle Verbrauch ist nicht Relevant. Die Maschinen sollen laufen und Geld verdienen.

Meine Vermutung ist das die Xeon Kerne, ca. 1 Watt im Idle Verbrauchen.
Bei 56 Kernen sind das 56 Watt. Was bei 92,9 Watt etwa 36,9 Watt für den Rest (Threads, Cache etc.) übrig lässt.
Bei 12 Kernen sind es 12 Watt. Was bei ca. 49 Watt 37 Watt für den Rest (Threads, Cache etc.) übrig lässt.

Ich denke mal das die Sapphire Rapids Kerne schon, für dass was sie eigentlich machen sollen, schon sehr stark optimiert sind. Das Ding hat schließlich 12 Steppings hinter sich.
 
Laut Cinebench R23 ist mein 12 Kerner fast so schnell wie ein 24 Kerner der Vorgängergeneration.
Und wie viele Punkte sind das?

Der Xeon ist auf den Dauereinsatz ausgelegt.
Das ist ein 13900K genauso, sonst gäbe es keinen W680 Chipsatz und damit keine Workstation Plattform, denn auch Workstations müssen Dauerlast vertragen, sie unterschieden sich darin nicht von Servern. Der Unterschied ist nur, dass Server gewöhnlich headless betrieben werden, während jemand direkt an einer Workstation arbeitet.

über einen, beispielsweise, 10 jährigen Nutzungszeitraum.
Die werden vermutlich 10 Jahre halten, aber die CPU und das Mainboard dürfte von den Herstellern nur jeweils auf eine Nutzungsdauer von 5 Jahren ausgelegt sein, wie es für Consumer und Server Hardware üblich ist. Nur in speziellen Bereichen wie Embedded, Automotiv, Industrial, Military etc. wird die Hardware auf ein längeres Service Life ausgelegt, kostet dann aber auch entsprechend mehr.

Der Idle Verbrauch ist nicht Relevant. Die Maschinen sollen laufen und Geld verdienen.
Bei Server im Geschäftsumfeld ist das richtig, aber die Plattform wird ja auch als Workstation Plattform und nebenbei noch als Nachfolger für HEDT angeboten, spätestens bei letzterem dann auch für Privatnutzer und dann hat man eben oft nicht ständig große Lasten und nur Office und der Browser erzeugen 99% der Zeit praktisch keinerlei CPU Last und damit kaum mehr Leistungsaufnahme als im Idle.

Bei 12 Kernen sind es 12 Watt. Was bei ca. 49 Watt 37 Watt für den Rest (Threads, Cache etc.) übrig lässt.
Ist das geschätzt oder hast Du das bei HWInfo abgelesen? Da wird genau anzeigt was die Kerne und was die anderen Bereiche der CPU gerade für eine Leistungsaufnahme haben, so dass es man weiß und nicht vermuten muss.
 
Cinebench R23: 23768 Punkte (nur 90°C Limit)
Cinebench R23: 22812 Punkte (alle Limits an)

3D Mark Time Spy: 23612 Punkte (nur 90°C Limit)
3D Mark Time Spy: 23630 Punkte (alle Limits an)
Wobei, beim CPU Benchmark, ein Kern meistens im Idle war. Kann auch nicht publiziert werden, da der 3D Mark die CPU nicht erkennt.
Ein ähnliches System, mit dem großen Bruder, w5-3425 (12K, 112L, Octa Channel) und 4090 hat 26516 Punkte erreicht. Oder mit anderen Worten eine 4090 ist 3000 Punkte mehr Wert.

@Kullberg
IPman Chess Benchmark
ipman -chess2.png

47.319.659 Nodes/second (nur 90°C Limit) die CPU nimmt fast schon konstant 204 Watt. Während das System zwischen 270-300 Watt springt.

W680 ist gescheitert. Intel wollte damit nur Geld sparen. Aber die Firmen kaufen weiter Xeon, selbst wenn es LGA2066 sind. Und auch WS müssen Dauerlast vertragen, nicht nur Server.
Das Core CPUs so lange halten, liegt sehr wahrscheinlich am Entwicklungsprozess. Dort wird man nur einen Kern, einen L1 Cache usw. entwickelt. Egal in welche CPU das nachher kommt. Und um Kosten zu sparen wird man einen Arbeitsprozess haben, nach dem sich alle Entwickler richten müssen. Egal ob Core oder Server. Und ich denke mal da wird der Server das Maß aller Dinge sein. Und erst wenn es um einen Core oder Xeon geht. Werden die Unterschiede anfangen.

Mich würde es etwas Überraschen wen Serverhardware für 5 Jahre ausgelegt ist. Nicht viele Firmen werden ihr Datacenter oder Cluster alle 5 Jahre tauschen.
Im Automotive bekommst du 2 Jahre auf deinen Neuwagen, 3 auf Lack und 10-12 auf Durchrosten der Karro. Warum sollte man dort die Elektronik auf 5 Jahre auslegen?

Wenn man sich Privatanwender, einen Xeon hole, dann sollte man in der Regel Wissen. Das der kein Stromsparwunder ist. Von daher ist auch dort der Idle Verbrauch uninteressant.

Na dann sage mal wo ich das finden kann? Denn ich finde nur die CPU-Gesamt-Leistungsaufnahme.
 
Cinebench R23: 23768 Punkte (nur 90°C Limit)
Cinebench R23: 22812 Punkte (alle Limits an)
Da hatte ich jetzt aber mehr erwartet, denn mein 13900K habe ich mal mit unterschiedlichen Power Limits, jeweils PL1 = PL2 gebencht:
35W: 15656 pts P-Cores: 4 auf 2,0GHz alle anderen 2,1GHz, alle e-Kerne 1,8GHz
65W: 23501 pts P-Cores: 2 auf 3,0GHz alle anderen 3,1GHz, alle e-Kerne 2,7GHz
88W: 27369 pts P-Cores: alle 3,6GHz, alle e-Kerne 3,1GHz
105W: 28948 pts P-Cores: alle 3,9GHz, alle e-Kerne 3,3GHz
125W: 31330 pts P-Cores: alle 4,3GHz, alle e-Kerne 3,4GHz
180W: 34588 pts P-Cores: alle 4,7GHz, alle e-Kerne 3,8GHz
Und auch WS müssen Dauerlast vertragen, nicht nur Server.
Genau das hatte ich doch geschrieben:
denn auch Workstations müssen Dauerlast vertragen, sie unterschieden sich darin nicht von Servern.
 
@tonythebuilder
um den ipmanchess benchmark korrekt auszuführen, muss der Befehl bei Dir "bench 1024 24 26"lauten - dann werden 24 Threads genutzt. Wenn Du large pages auf dem Rechner eingeschaltet hast, ist es sinnvoll, vor dem bench Befehl noch "setoption name largepages value true" einzugeben.
AsmFish ist allerdings total veraltet - das wesentliche Prinzip der Beurteilung von Positionen hat sich geändert. Damals war Schach eine relativ geringe Last, meine Threadripper 3990X hatten damals Lukü und schafften 3,6 GHz. Der Wert mit gut 207 MN/s bei ipman stammt übrigens von mir. Mit neuer Technik (Stockfish mit NNUE) schaffen die Threadripper nur noch 3,2 - 3,3 GHz mit Wakü.
 
Ah okay, dachte ich mir schon das IPman ein wenig älter ist. Habe mal mit deinen Daten laufen lassen. Ändert nicht viel.
Ich habe mal Versucht die Phoronix Test Suite zu installieren. Dort ist u. a. Stockfish mit bei. Ich kann es auch starten, nur das Fenster schließt sich gleich wieder.
WSL2 mit Ubuntu probiert. Das hat auch so seine Problematiken. :fresse:

Was machst du Holt? :unsure:
Du vergleichst deine 18 (2P+16E) bis 24 (8P+16E) mit einer 12P CPU. Das diese dann schneller sind ist jetzt nicht wirklich Überraschend.
Wenn du wirklich Vergleichbare Werte haben möchtest. Müsstest du nur deine 8P Kerne mit max 240 Watt (3.9 GHz all core) laufen lassen. Ich hingegen müsste bei mir ebenfalls nur mit 8 Kernen testen. Und dann wird es erst interessant.

Und du hast mir meine Frage noch nicht beantwortet, wo in HWi ich die einzelnen Verbäuche (Package etc.) der CPU auslesen kann.
 
Bezüglich HWI muss man bei so aktueller, aber exotischer Hardware die allerneueste Beta Version runterladen. Mit Glück werden dann auch bei Sensors diese Werte angezeigt. Aber es ist möglich, dass Deine CPU noch nicht unterstützt wird.
 
Wenn du wirklich Vergleichbare Werte haben möchtest. Müsstest du nur deine 8P Kerne mit max 240 Watt (3.9 GHz all core) laufen lassen. Ich hingegen müsste bei mir ebenfalls nur mit 8 Kernen testen. Und dann wird es erst interessant.
Dann hätte es aber wenig mit den eigentlichen CPUs zu tun und Deine hätte den Vorteil der breiteren RAM Anbindung und von AVX512, was zwar bei CB23 wenig ändert, aber bei anderen Benchmarks ggf. schon. Von der Architektur her sind beides Golden Cove, auch wenn die Raptor Cove Kerne mehr L2 Cache (2MB pro P-Kern) haben, aber die Sapphire Rapids Xeons haben ja auch 2MB L2 pro Kern, die haben also eigentlich auch Raptor Cove und nicht Golden Cove (1,25MB L2 pro Kern) Kerne.

Aber es ist möglich, dass Deine CPU noch nicht unterstützt wird.
Das glaube ich kaum, die Entwickler haben offenbar sehr früh Zugang zu den neusten Intel CPUs. Schau mal was im Change Log der 7.44er Version (aktuell ist 7.60) vom 3.5.2023 steht:
Da geht es nur um Details der RAMs, aber von den genannten CPUs gibt es bisher nur Sapphire Rapids auf dem Markt, Sierra Forest soll noch im ersten Halbjahr 2024 kommen und Granite Rapids kurz darauf, die werden aber schon unterstützt und die großen Jungs haben die auch schon eine Weile zum Testen und um ihre Software darauf zu optimieren.
 
Ja das mag sein, wie willst du dann verschiedene CPUs Sinnvoll Vergleichen? Und ja Cinebench skalliert nur gut, mit mehr Kernen. Die GHz sind da schon fast uninteressant.

Ich denke das meine CPU noch nicht unterstützt wird. In HWI wird meine CPU als w5-3425 (112L, Octa-Cha.) Identifiziert. Meine Vermutung ist das, wenn sie eine CPU bekommen haben, es nur eine ES CPU war.
Zum Beispiel gibt es bei HWBOT denn einen Eintrag für einen 2455X genauer ansieht. Stellt man fest, dass es nur ein ES ist.

Sierra Forest wird vielleicht dieses Jahr noch offiziell angekündigt. Wenn ich mir ansehe, ab wann Sapphire Rapids angekündigt wurde und dann tatsächlich Verfügbar war. Oder besser "Verfügbar ist". Würde ich eher auf März/April 2024 tippen. Auf meine CPU, habe ich noch 3 Wochen nach Bestellung gewartet. Und selbst jetzt, wird bei fast allen Händler keine Verfügbarkeit bzw. 7-10 Tage. Und dort wo sie "angeblich" Verfügbar sind. Werden absurde Preise auf gerufen. Aus Endkunden Perspektive. Bei HP, Dell und Co. wird das etwas anders aus sehen.

Ich habe die Phoronix Test Suite unter WSL2 Ubuntu zum laufen gebracht. Habe dort mal nur Stockfish laufen lassen. Da alle Benchmarks für Multicore 3 Tage und 21 Stunden dauern würden.
Dies durch das Windows Subsystem for Linux gelaufen. Von daher wird da etwas an Leistung fehlen. Werde noch ein paar mehr Benchmarks laufen lassen. Mal sehen ob sie auf OpenBenchmark veröffentlicht werden.
stockfish.jpg


Was nur ungewönlich war, das WSL mal eben 70 GB RAM brauchte.
70gbram.jpg
 
Cinebench skaliert sehr gut mit der Anzahl der Kerne und deren Takt.
Naja, nicht so ganz wirklich. Für Werte bis 64 Threads stimmt das noch, darüber lässt es merklich und zunehmend nach. Bei 256 Threads merkt man schon einen deutlichen Abfall.
Stockfish skaliert da z.B. besser.
 
Da ich keine 64 Kerne oder mehr haben, kann ich das nicht sagen, aber die Aussage der Takt wäre eher egal, ist zumindest bei der Anzahl der Kerne die die CPUs von mir und tonythebuilder falsch.
 
Der Takt wäre eher egal??? Wo stammt denn dieser Schwachsinn her? CB 23 skaliert ziemlich perfekt mit dem CPU Takt. Der RAM Takt ist aber eher egal.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh