Update Workstation: alles neu bis auf Gehäuse & Graka

tar

Enthusiast
Thread Starter
Mitglied seit
30.11.2013
Beiträge
612
Hallo,

da das Innenleben meiner aktuellen Workstation für den künftigen Server genutzt werden soll, habe ich die Komponenten für die neue Workstation eingeschränkt, die in ein paar Jahren dann als Server-Update herhalten soll. Also im Grunde eine Mischung aus Workstation-Tauglichkeit mit Server-geeigneten Komponenten.

Eine engere Auswahl habe ich bereits getroffen:

TeilProduktGrund
BoardAsus Pro WS X570-Aceeinziges AM4-Board, das bis zu 3x PCIe 4.0 x8-Lanes ermöglicht, Bonus: U.2-Slot und ohne Kiddie-Blinkibunti
CPUAMD Ryzen 5 5600XHitzeverteilung des 5800X ist schlecht gelöst und der 5900X unverhältnismäßig teuer
CPU-KühlerNoctua NH-U12S chromax.blackpasst hoffentlich noch problemlos ins gedämmte Gehäuse
RAM2x 32 GB Kingston Server Premier DIMM DDR4-3200 ECC

oder

4x Kingston HyperX Predator 16 GB DDR4-3600
betreibe kein RAM-Overclocking und ECC schützt zumindest theoretisch etwas, was auch später für den Serverbetrieb sinnvoll wäre



400 MHz mehr als der ECC-RAM, sowie günstiger mit 4 Slots belegbar, d.h. etwa 10+ % mehr Performance ggü. ECC-RAM

Fragen im Folgepost.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bzgl. des Asus Pro würde ich aber mal gerne wissen, ob es ein Problem darstellt, dass der Chipset-Lüfter von der recht langen Grafikkarte überragt werden wird?



Dann plane ich eine gemeinsame Nutzung meiner aktuellen 3.0 x16-Grafikkarte mit einer 3.0 x4-10G-Netzwerkkarte und evtl. zusätzlich einer PCIe-M.2-Adapterkarte (4.0 x16 oder 3.0 x16 auf 4.0 x8). Doch dahingehend habe ich eine Verständnisfrage wegen der Verwendung der PCIe-Slots:

PCIe ist ja auf- & abwärtskompatibel, d.h. man kann
- eine 3.0 x16-Karte in einen 4.0 x16-Slot stecken und hat am Ende 3.0 x16-Speed
- eine 4.0 x16-Karte in einen 3.0 x16-Slot stecken und hat am Ende 3.0 x16-Speed

Was aber passiert bei diesem Board, wenn ich eine 3.0 x16-Karte in den ersten 4.0 x16-Slot stecke (also habe ich erstmal 3.0 x16-Speed) und zusätzlich irgendeine Karte in den zweiten 4.0 x16-Slot stecke? Gemäß Handbuch reduziert das die elektrischen Lanes des 1. 4.0 x16-Slots auf x8.

Hat dann die 3.0 x16-Karte im ersten 4.0 x16-Slot letztlich trotzdem 3.0 x16 (was ja 4.0 x8 entspricht) oder nur 3.0 x8 (weil nur x8-Lanes angebunden wären)?



Denkbare Alternative fürs Board wäre noch das ASRock Rack X570D4U-2L2T, da es BMC, IPMI, 10G-Lan und onboard-Grafik (für späteren Serverbetrieb) gleich mitliefert und keinen sinnfreien Audio-Chip hat, da ich ohnehin einen externen DAC nutze. Aber hier muss ich mich noch kundig machen, welche Nachteile eine USB-Verbindung zum DAC ggü. einer optischen Verbindung hat (bei der jetzigen Workstation habe ich ein Rauschen, wenn ich den DAC über USB anbinde, daher bevorzuge ich optisch). Optional müsste halt eine Soundkarte mit optical out in den PCIe 4.0 x1-Slot.

Die 3. PCIe 4.0 x8-Lanes des Asus-Boards sind über die PCIe 4.0 x4-Lanes des Chipsatzes zur CPU angebunden und damit zwar begrenzt, aber immer noch besser als PCIe 4.0 x1. Dafür brauche ich aber keinen Slot mehr für eine 10G-Netzwerkkarte. D.h. ich könnte den PCI 4.0 x8-Slot für eine etwaig angedachte weitere SSD-Anbindung nutzen.

Bleiben im Grunde nur die fehlenden USB-Anschlüsse und etwaige Qualitätsunterschiede zum Asus übrig - und natürlich die knapp 180 € Aufpreis, die sich aber ja auch wieder durch 10G-Lan usw. relativieren.

Joa, das ASRock macht echt stark nen starken Eindruck... :coffee2:
 
Zuletzt bearbeitet:
Nach weiterer Recherche bin ich nun vom 3900X doch zum 5600X. Er hat einfach die bessere Performance und für die Mehrkerne sehe ich selbst bei späterer Server-Verwendung keinen Nutzen, da ich dort nur 1-2 VMs und ansonsten Datenhosting fahren werde.

Vom AsRock Rack-Board bin ich auch wieder weg, weil ich auf Fernwartung fürs BIOS verzichten kann und damit im Grunde nur das inkludierte 10G übrig bleibt, ich mir dafür aber mehrere Nachteile erkaufe: teurer, weniger USB, kein optical out. Alternativ habe ich mir noch das ASUS ROG Strix B550-A Gaming angeschaut, bei dem mir aber die spärlichen PCIe-Slots nicht zusagen.

Beim ECC-RAM bin ich noch etwas hin- und hergerissen. Die Einen sagen, er sei für den Heimbetrieb absolut unnötig bzw. nur bei wirklich kritischen und langen Berechnungen sinnvoll. Die Anderen sagen, es sollte Standard sein (was dann wohl bei DDR5 auch der Fall ist). Die Alternative zum ECC wäre der Kingston HyperX Predator, der zwar erstmal "nur" 400 Mhz über dem ECC liegt, aber den ich auch günstiger in 4 Slots verteilt bekomme (da Kit) als den Kingston-ECC, was zusätzlich einen Performancegewinn zur Folge hätte, ohne dass ich die Stabilität des Systems großartig gefährden würde. Ich denke mal, es sind letztlich sicher um die 10 % oder mehr drin - und das ohne (zusätzliches) Overclocking. ECC vs. +10 % - was meint ihr?

Bei den Platten kommen definitiv 2x M.2-PCIe-SSDs rein... bei den Größen rätsel ich noch, wrsl. 1 TB 4.0 x4 und 2 TB 3.0 x4.
 
Zuletzt bearbeitet:
Ob ECC notwendig ist oder nicht, musst du recherchieren. Kommt eben auf die Anwendungen an. Aber allgemein, sofern das Wort Server in den Mund genommen wird, ist ECC eigentlich immer ratsam, zumal dieser nicht wirklich mehr kostet.

Die Frage ist viel eher, ob ECC auf der Plattform wirklich in vollem Umfang unterstützt wird. Da hab ich bis heute Zweifel. Wenn man sicher gehen möchte, wird man auf eine richtige Server-Plattform setzen müssen, im Falle vom AMD wär das Epyc. Nur weiß ich nicht, wie gut das mit üblichem Windows 10 funktioniert. Weil Chipset-Treiber für Epyc sucht man bei den Mainboardherstellern vergeblich für Win 10, zumindest laut meinen letzten Informationen.

Da gäbe es dann noch die AMD TR Pro Plattform, eigentlich ein ziemlich guter Kompromiss aus Workstation und Server. Allerdings sind die derzeit erhältlichen Mainboards absurd teuer.
 
Man kann es wohl wie folgt herunterbrechen: Wie sehr stört es einen, wenn der (unwahrscheinliche) Fall eintritt, dass 1 Bit in einer Datei kippt, d.h. dieses 1 Bit falsch ist? Geht damit die Welt unter oder juckt es einen nicht? Hab mich daher gegen ECC entschieden.

Nochmal zum Board zurück und zum PCIe 3.0 x16 auf 4.0 x16 -> 4.0 x8 Problem. Läuft die Karte dann mit 3.0 x16 oder 3.0 x8?

Ferner ist mir aufgefallen, dass der letzte PCIe 4.0 x8-Slot übers Chipset nur mit PCIe 4.0 x4 angebunden ist, d.h. 4.0 x8 werden gedrosselt, 3.0 x8 nicht.
 
Ferner ist mir aufgefallen, dass der letzte PCIe 4.0 x8-Slot übers Chipset nur mit PCIe 4.0 x4 angebunden ist, d.h. 4.0 x8 werden gedrosselt, 3.0 x8 nicht.
Wenn der Slot nur vier PCIe4 Lanes anbietet, dann wird auch PCIe3 daran nichts ändern. Die vier PCIe4 Lanes werden für die Kompatibilität einfach auf 4xPcie3.0 gedrosselt und nicht auf 8x3.0 geändert. Für sowas müsste ein extra Controller auf dem Mainboard verbaut werden, das bezweifele ich generell stark.

edit:
Hat dann die 3.0 x16-Karte im ersten 4.0 x16-Slot letztlich trotzdem 3.0 x16 (was ja 4.0 x8 entspricht) oder nur 3.0 x8 (weil nur x8-Lanes angebunden wären)?
Das gleiche:
Wenn sowohl Slot als auch Karte 16 Lanes unterstützen, werden auch 16 Lanes verwendet. Wenn eine Komponente nur PCIe3 unterstützt, werden die 16 Lanes auf PCIe3.0 gedrosselt.
 
Zuletzt bearbeitet:
Wenn der Slot nur vier PCIe4 Lanes anbietet, dann wird auch PCIe3 daran nichts ändern. Die vier PCIe4 Lanes werden für die Kompatibilität einfach auf 4xPcie3.0 gedrosselt und nicht auf 8x3.0 geändert. Für sowas müsste ein extra Controller auf dem Mainboard verbaut werden, das bezweifele ich generell stark.
Der Slot bietet 4.0 x8 an, also 8 Lanes. Das Chipset ist aber mit der CPU nur mit 4.0 x4 verbunden, d.h. 3.0 x8 bleibt 3.0 x8 (da gleicher Speed wie 4.0 x4).

Das gleiche:
Wenn sowohl Slot als auch Karte 16 Lanes unterstützen, werden auch 16 Lanes verwendet. Wenn eine Komponente nur PCIe3 unterstützt, werden die 16 Lanes auf PCIe3.0 gedrosselt.
Zunächst kommt eine 3.0 x16 Karte in einen 4.0 x16 Slot, d.h. Speed ist 3.0 x16.

Dann kommt irgendeine Karte in den 2. Slot, was laut Handbuch den 1. Slot auf 4.0 x8 drosselt. Ist es dann wie zuvor, dass die Karte 3.0 x16 im 1. Slot weiterhin mit 3.0 x16 Speed betrieben wird (da gleicher Speed wie 4.0 x8) oder plötzlich mit 3.0 x8?
 
Der Slot bietet 4.0 x8 an, also 8 Lanes. Das Chipset ist aber mit der CPU nur mit 4.0 x4 verbunden, d.h. 3.0 x8 bleibt 3.0 x8 (da gleicher Speed wie 4.0 x4).
Richtig, deshalb macht ein PCIe4.0 x8 Slot an dem Chipsatz auch überhaupt keinen Sinn. Ziemlich dreist eigentlich, denn jeder nicht so versierte denkt, er könnte drei Grakas mit PCIe4 x8 auf dem Mainboard betreiben. Das ist aber nur die halbe Wahrheit.

Zunächst kommt eine 3.0 x16 Karte in einen 4.0 x16 Slot, d.h. Speed ist 3.0 x16.
Ja

Dann kommt irgendeine Karte in den 2. Slot, was laut Handbuch den 1. Slot auf 4.0 x8 drosselt. Ist es dann wie zuvor, dass die Karte 3.0 x16 im 1. Slot weiterhin mit 3.0 x16 Speed betrieben wird (da gleicher Speed wie 4.0 x8) oder plötzlich mit 3.0 x8?
Die 16 Lanes von der CPU werden auf beide Slots geteilt, also beide 8 Lanes. Wenn die Graka nur PCIe3 beherrscht, wird die wohl oder übel auf 3.0x8 gedrosselt, da eine Umwandlung von PCIe3.0 auf 4.0 auf den Mainboards nicht stattfindet. Zumindest nicht das ich wüsste.
 
  • Danke
Reaktionen: tar
Richtig, deshalb macht ein PCIe4.0 x8 Slot an dem Chipsatz auch überhaupt keinen Sinn. Ziemlich dreist eigentlich, denn jeder nicht so versierte denkt, er könnte drei Grakas mit PCIe4 x8 auf dem Mainboard betreiben. Das ist aber nur die halbe Wahrheit.
Auch da muss man sehen, was man fahren will, denn bei Grafikkarten wird PCIe 3.0 x8 erst ab RTX 2080Ti ausgereizt (mit ca. 2 % Verlust bei manchen Anwendungen/Spielen). D.h. die Anbindung des 3. Slots mit x8 ist schon ein Vorteil ggü. x4, bei dem eine x16- oder x8-Karte ja von vornherein auf x4 begrenzt und deren Bandbreite damit halbiert oder geviertelt würde.
Die 16 Lanes von der CPU werden auf beide Slots geteilt, also beide 8 Lanes. Wenn die Graka nur PCIe3 beherrscht, wird die wohl oder übel auf 3.0x8 gedrosselt, da eine Umwandlung von PCIe3.0 auf 4.0 auf den Mainboards nicht stattfindet. Zumindest nicht das ich wüsste.
Alles klar, danke!

D.h. zusammengefasst, es ist vollkommen egal, in welchen Slot ich meine RTX 2070 OC stecke. Ich könnte die theoretisch im 3. Slot verlustfrei werkeln lassen und im 1. Slot eine NVMe 4.0 x16 fahren. Problem wäre nur, dass die Graka dann die ganzen Boardanschlüsse südlich vom 3. Slot versperren würde. :LOL: Dafür wäre dann wohl 'ne Riser-Karte sinnvoll.
 
Zuletzt bearbeitet:
Ich könnte die theoretisch im 3. Slot verlustfrei werkeln lassen und im 1. Slot eine NVMe 4.0 x16 fahren.
Wenn die Bandbreite zur 2070 nicht von Bedeutung ist, dann wäre das der beste Weg.
Problem wäre nur, dass die Graka dann die ganzen Boardanschlüsse südlich vom 3. Slot versperren würde.
Evtl erstmal das Mainboard anschließen und dann die Karte drauf stecken? Normalerweise müsste das gehen, wenn nicht ein steifes Kabel direkt senkrecht absteht.
 
  • Danke
Reaktionen: tar
Orders sind raus:

Was​
Produktbezeichnung​
Lieferant​
Preis​
NetzteilCorsair AX Series AX850CSV-Direct
280,23 €​
MainboardASUS Pro WS X570-ACECSV-Direct
299,75 €​
CPUAMD Ryzen 5 5600XCSV-Direct
344,43 €​
CPU-KühlerNoctua NH-U12S chromax.blackCSV-Direct
70,39 €​
RAMKingston HyperX Predator Black (4x 16GB, DDR4 3600MHz)CSV-Direct
417,99 €​
SSD NVMeSamsung SSD 980 PRO 2TBAmazon
344,99 €​
3x HDDToshiba MG08ACA16TE (16 TB)Böttcher AG
3x 299,83 € = 899,49 €​
MiniSAS to 4x SATACableCreation CS0057Amazon
15,66 €​
Gesamt
2.672,93 €

Als weitere Storage dienen 1x 500 GB SATA-SSD und 3x 12 TB HDDs von der jetzigen Workstation. Auch die restliche Hardware (Gehäuse und Gehäusezubehör, Grafikkarte und optisches Laufwerk) wird von der jetzigen Workstation übernommen. Auf eine 10G-Netzwerkkarte und eine 2. NVMe-SSD wird vorerst verzichtet (die eine dürfte erstmal ausreichend groß sein). Storage wird dann bei Bedarf im Laufe der Zeit von der Workstation auf den Server verschoben - erst dann wird auch 10G mit SSD-Caching ein Thema sein.

Übersicht des Gesamtsystems

Vorläufige Nutzung: Allround-Bestie (Work: Coding, Privat: Video-Konvertierung, Audio-Composing, Bildbearbeitung, Zocken, Emulation/VMs). Main-Storage mit 84 TB weiterhin in der Workstation, bis diese ausgereizt ist oder deren Nutzung im neuen Server sinnvoller wird.
 
Zuletzt bearbeitet:
Die 3 Festplatten kamen vorgestern in einer engen Pappverpackung an. Ich habe mich schon gewundert, wo denn da die ansonsten üblichen Schaumstoff-Puffer sind, aber da hatte wohl jemand keine Ahnung, wie man die ordentlich verpackt:

hdd_test_1.png
hdd_test_2.png

Die 3. Platte stieg bereits beim Schreiben aus. Direkt nicht mehr auffindbar. Die 1. Platte nun nach dem Prüfen.

Mich wundert, dass die direkt die Verbindung verlieren (dachte erst, es sei der Controller, aber die anderen Platten am selben Controller funktionieren noch). Sollten da nicht nur fehlerhafte Sektoren bzw. Schreib-/Lesefehler auftauchen, die Platte selbst aber verbunden bleiben?

Whatever... ich werde die morgen postwendend zurückschicken und woanders ordern.
 
Hm... nach einem Neustart werden die zwei Aussteiger sauber angezeigt und auch CrystalDiskInfo zeigt keine Fehler außer die Ausschaltungsabbrüche an.

hdd_test_e.png hdd_test_3a.png hdd_test_3b.png hdd_test_3c.png

Ich vermute nun erstmal, dass die Platten nicht defekt sind, sondern es am Netzteil liegt, dass die einfach zusammen zuviel Strom gezogen haben. Ansonsten hängen am Netzteil ja noch 3 weitere HDDs, 1 SSD, 1 opt. Laufwerk, 1 CPU mit 84 TDP + Kühler und eine RTX 2070 OC.

Ich werde die beiden Aussteiger nun nochmal einzeln nachprüfen - und falls sie wieder aussteigen, beim Eintrudeln der neuen Hardware separat prüfen, wenn die Graka nich mehr im System hängt.
 
mit dem AX850 solltest du mit deiner Hardware eigentlich keine Probleme haben.
 
Als plötzlicherdings die Ware am Mittwoch ankam, habe ich bis gestern früh die Workstation erneuert und danach den Server aufgebaut.

IMG_20210407_120125.jpg IMG_20210407_123020.jpg IMG_20210407_123840.jpg IMG_20210407_130516.jpg IMG_20210407_134637.jpg IMG_20210407_141419.jpg

Beim Testbuild kam eine ältere Geforce 670 zum Einsatz. Wie man sieht, sitzt die genau über dem Chipsatzlüfter. Die Schraube für den zweiten M.2-Slot habe ich auch mit ans Board geschraubt, damit sie nicht verloren geht. Ansonsten ist das Zubehör überschaubar, aber ausreichend: Handbuch, Treiber-CD (wo ist die Diskette?), 4 Winkel-SATA-Kabel, 1 Slotblech und 1 Dual-Graka-Halterung.

Das Board startete auf Anhieb - sogleich das BIOS aktualisiert und zwischendurch erstmal ein paar Stunden alles notwendige von der Workstation auf einen USB-Stick gesammelt und danach die Workstation auseinandergenommen.

IMG_20210407_141401.jpg IMG_20210408_063618.jpg

Dabei habe ich mich dann dazu entschlossen, dem Kabelwahnsinn ein Ende zu bereiten, d.h. Abschied von der separaten Lüftersteuerung und der HDD-An/Aus-Switches zu nehmen. Letztlich habe ich gleich den 6x-Käfig und die ältere 840 Evo mit entfernt, weil ich in den nun freigewordenen 5,25"-Schächten 1-2 HDDs unterbringen könnte, die mir als lokaler Speicher vollkommen ausreichen. Die Lüftersteuerung kam damals für die 3-Pin-Lian-Li-Lüfter rein - da habe ich mich jetzt kurzerhand dazu entschlossen, die mit den eigentlich für den Server gedachten 120er Noctuas zu tauschen. Die Lian-Li-Lüfter sind immer noch ausreichend leise für den Server.

Dann noch das Ganze grundgereinigt und halt alles eingebaut - hierbei nun mit weniger Kabelwirrwarr und einer RTX 2070 OC.

IMG_20210408_060207.jpg

Wie man sieht, reicht der Platz nicht, um die 3-Slot-Graka in den untersten Slot zu stecken. Ich werde sie daher nun erstmal im obersten belassen und beobachten, ob sich die Chipsatz-Temperaturen im Rahmen halten. Bitte nicht über die sichtbaren Kabel wundern - an dem Gehäuse ist wg. der Dämmung hinten für die dicken Kabel zuwenig Platz, um die Seitenwand ohne Verbiegen anbringen zu können und da das Gehäuse eh geschlossen unter'm Tisch steht: who cares? Das Corsair-Netzteil liegt übrigens nochmal zwei Qualitätsstufen über dem beQuiet. Die Kabel hätten für's versteckte Verlegen auch 5-10 mm länger sein können, da sie da durch ihre Steifheit enorm straff sitzen. Vielleicht ist da bei neueren Gehäusen mehr Spielraum.

Bei der Installation habe ich mich diesmal gegen Legacy/BIOS für UEFI entschieden, auch wenn man praktisch kaum einen Unterschied spürt. Die Storage ist nun mit 1 NVMe erstmal äußerst simpel gehalten, womit ich mir das Mini-SAS-HD-Kabel hätte wohl sparen können, da die 4 SATA-Ports bis auf weiteres ausreichen sollten (1 opt. Laufwerk, 1 Front-I/O-ext. SATA (noch nie benutzt, haha), 1-2x HDD, Rest übern Server). Aber wer weiß - was man hat, hat man und vielleicht finde ich ja noch einen kleineren HDD-Käfig für 2-4 HDDs, der die aktuellen Grafikkartenlängen berücksichtigt und in den unteren Gehäuseteil passt. Der 6er Käfig passt zwar grad so, ist aber auf die Dauer ungeeignet und deswegen rausgeflogen.

Rest dann mehr oder weniger wie gehabt. Die ganze Einrichtung hat natürlich einige Stunden gedauert (bin zwischendurch auch öfters weggenickt) und bin immer noch nicht ganz fertig. Getuned und übertakted habe ich jedoch nichts, bis auf die Wahl des 3600 MHz-Profils im BIOS für den RAM.

Ein kurzer Benchmark liefert dies:

pm.PNG

sigImage.php


Die Temperaturen liegen durchweg so bei 31-38° C, die CPU bei 37-41°. Im Benchmark ging die CPU auf ca. 60° C hoch - bei Dauerlast vermute ich so um die 70° C. Also alles wunderbar.

tmp1.png tmp2.png

Den Chipsatzlüfter nehme ich übrigens überhaupt nicht wahr - auch nicht, als das Gehäuse noch offen neben mir stand. Die Lüfter drehen nur kurz beim Booten hörbar hoch und verstummen dann. Beim Benchmark zogen sie auch etwas an, aber es blieb ingesamt sehr leise.

Einen Kritikpunkt habe ich noch: erst mit der Asus Armouryirgendwas-Software wurden die Intel LAN-Treiber gefunden und installiert (der Intel LAN-Port ging aber trotzdem). Da aber dieses Asus-Tool (wie so viele andere) 2-3 Services mit Update- und Überwachungsprüfung installiert, habe ich es danach kurzerhand wieder entfernt.

Alles in allem bin ich sehr zufrieden. Läuft alles problemlos, keine Zicken, keine Macken, ruhig und flink.
 
Zuletzt bearbeitet:
Nochmal zum Board zurück und zum PCIe 3.0 x16 auf 4.0 x16 -> 4.0 x8 Problem. Läuft die Karte dann mit 3.0 x16 oder 3.0 x8?
Es tut mir sehr leid, diesen Thread nach einem halben Jahr wieder auszugraben, aber ich _musste_ hier kurz was richtigstellen:

Lanes sind Lanes. Wenn man ein PCIe 3.0 x16 Gerät auf einen PCIe 4.0 x8 Slot steckt, dann wird das Gerät mit PCIe 3.0 x8 angebunden, nicht mit PCIe 3.0 x16. Allerdings dürften ~8000 MB/s ja für alles ausreichen, was du da so drauf steckst. Denn das Gerät kann ja nur PCIe 3.0 sprechen. Zwischen Prozessor und PCIe-Endgerät bzw. Chipsatz und PCIe-Endgerät gibt es keine weiteren logischen Bausteine, die PCIe 4.0 x8 in PCIe 3.0 x16 "übersetzen" könnten.
Dass das so stimmt, sollten dir auch Bandbreitenbenchmarks aufzeigen.
 
Nach etwa 5 Jahren wurde es Zeit für ein Update, das dieses Jahr jedoch relativ spärlich ausfiel.

Dafür spendierte ich der Workstation im Juni 2024 eine ASUS ProArt RTX 4080 Super OC für ca. 1.100 €. Es hat mich damals dazu verleitet, weil ich die ausufernden Grafikkartenpreise nicht mehr verarbeiten konnte ;) und weil ich verzweifelt nach einer performanteren Karte suchte, die noch in mein altes Gehäuse passte ohne gleichzeitig einen Grafikkarten-Ständer zu brauchen. Die ProArt war schließlich der Sweet Spot, auch was Preis-Leistung anging.

Der Anstoß des jetzigen weiteren Umbaus war der subtile Hinweis der KI des persönlichen Vertrauens, dass mein mittlerweile 13 Jahre altes Netzteil, was ich im Unraid-Server nutze, jederzeit hochgehen und dabei meine Festplatten mit in die ewigen Jagdgründe mitnehmen könnte. Meine Daten also in unmittelbarer Gefahr seien. Obendrein müsste ich auch mal mein Server-Mainboard erneuern, weil dort die Kondensatoren auch erwartungsfroh darauf warten, in Rente zu gehen. Das sei aber nicht ganz so kritisch, weil dann zwar der Server nicht mehr laufen würde, aber die Daten noch sicher wären. Also lag die Priorität auf dem neuen Netzteil.

Dabei kam nun natürlich unweigerlich der Gedanke, doch einfach die Hardware der Workstation zumindest teilweise in den Server umzuziehen und eben eher neues Zeug für die Workstation zu kaufen - also auf AM5 usw. zu heben. Nach 2 Tagen ausführlicher Recherche landete ich dann bei Gesamtkosten von ca. 2400 € und frug mich, wieviel ich davon eigentlich im Alltag spüren würde. Nahezu nichts. Der einzige Flaschenhals in meiner Workstation wäre der Ryzen 5600X, auf den ggf. meine RTX 4800 Super warten würde. Da ich seit Monaten aber ohnehin nichts zocke, wäre auch das kein dringend zu behebender Notstand. Also war die Quintessenz, dass ein Workstation-Update momentan keinen Sinn ergibt - vor allem, bei diesen Preisen.

Damit war nun aber auch der Umzug des DDR4-RAMs (und ggf. anderer Dinge) in den Server hinfällig, weil ich das ja erstmal alles noch in der Workstation brauche. Also habe ich mal geschaut, was nur ein Update des Servers (Board+CPU+Kühler-Kit+RAM) kosten würde und landete irgendwo bei 700-900 €, ebenfalls ohne spürbare Verbesserung (er dient als reines Datengrab mit ein paar kleinen Dockern, nix wildes). Anders wäre es, wenn ich dort Plex laufen und wild Videos transcodieren würde. Aber das ist nicht der Fall. Also war die naheliegendste Variante, lediglich das Netzteil zu ersetzen, nur nach einem Ersatzboard desselben Sockels zu schauen und den Rest wie gehabt weiter zu verwenden.

Nach längerer Überlegung entschloss ich mich, kein neues Netzteil für den Server zu kaufen, sondern das in der Workstation (Corsair AX850) für den Server zu nutzen und mir ein neues für die Workstation zu besorgen. Dabei wollte ich der Workstation nach ebenfalls 13 Jahren auch mal ein aktuelles Gehäuse spendieren und siehe da, Lian Li hat kürzlich erst ein echt hübsches herausgebracht, das Lian Li Lancool 217.

Das passende Netzteil war letztlich ein Corsair HX1500i Shift. Von der Power zwar völlig überdimensioniert, aber gerade das macht es so genial: nicht nur brauche ich mir absolut 0 Gedanken mehr über künftig noch stromfressendere CPUs/Grakas zu machen, sondern es bleibt selbst bei Volllast (~480 Watt) momentan vollständig passiv und damit absolut still und hat dabei noch dazu die bestmögliche Effizienz von 94 %. Die seitliche Kabelführung und Auslesemöglichkeit via Onboard-USB sind dabei ein angenehmer Bonus.

Der Umbau war grundsätzlich kein großer Akt. Nach dem Umzug der Workstation jedoch die Ernüchterung, dass mich die originalen Lian Li-Lüfter nicht zufrieden stellten, sondern irgendwie ständig ein wenig auf- und abdrehten. Es herrschte keine Ruhe mehr. Wohlgemerkt: mein altes Lian Li stand offen und es war ruhig. Also habe ich kurzerhand 4x Noctua NF-A14x25 G2 PWM chromax.black (3x für die Front, 1x Rear) bestellt und (da die G2 Variante der 120 mm Noctua Lüfter in schwarz noch nicht verfügbar ist) vorläufig die beiden Noctua NF-A12x25 PWM aus dem alten Gehäuse ausgebaut, geputzt und damit die unteren Lian Li-Lüfter ersetzt.

Dann natürlich noch kurz im BIOS die Lüfter eingestellt und was soll ich sagen? Ein herrliches Träumchen an Ruhe. Im Alltag laufen die Lüfter zwischen 530 und 850 RPM. Bei Volllast zwischen 850 und 1600 RPM (da hört man sie dann natürlich) - beim 15-minütigen Lasttest (parallel Cinebench Multi-Core-Test & 3DMark "Port Royal" Endlosschleife) sehr gute Temperaturen:
- CPU: 63,1° C @ 4.650 MHz bei 77,8 Watt
- GPU: 76,3° C, VRAM: 74° C, Hot-Spot: 95,3° C
- Board: VRM: 32° C, Chipsatz: 58° C
- Netzteil: 47,4° C bei 451 Watt OUT zu 479 Watt IN (94 % Effizienz bei 32 % Aulastung)

Trotz allem waren es immer noch 568 € für das bissl Quatsch:
- Lian Li Lancool 217: 120 €
- Corsair HX1500i: 294 €
- 2x Noctua NF-A14x25 G2 PWM Sx2-PP chromax.black, Doppellüfter-Set á 77 €: 154 €

Irgendwann kommen noch ca. 70 € für die beiden unteren Noctuas in schwarz oben drauf. Damit wären allerdings gehäuseseitig die nächsten 10-15 Jahre geklärt.
 

Anhänge

  • PXL_20260328_170214571.jpg
    PXL_20260328_170214571.jpg
    1,1 MB · Aufrufe: 14
  • PXL_20260328_170231560.jpg
    PXL_20260328_170231560.jpg
    771,4 KB · Aufrufe: 15
  • PXL_20260328_170254072.jpg
    PXL_20260328_170254072.jpg
    1,3 MB · Aufrufe: 16
  • PXL_20260328_170317650.jpg
    PXL_20260328_170317650.jpg
    551,8 KB · Aufrufe: 14
  • PXL_20260328_170437523.jpg
    PXL_20260328_170437523.jpg
    561,1 KB · Aufrufe: 13
  • PXL_20260328_170550303.jpg
    PXL_20260328_170550303.jpg
    849,6 KB · Aufrufe: 15
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh