Stromsparendes Mediendatengrab mit WakeOnLan und AutoShutdown

Was willst du denn erreichen? PWM/Tacho vom/zum MB?!
Jep, aber dabei nur 1x Tacho übergeben, da sonst die Analyse spinnt (er addiert da glaube ich die einzelnen Tachowerte auf, wenn man die verknüpfen würde, weswegen Y-Adapter auch nur an einem Eingang den Tacho-Pin haben).
Lötkolben und ggf. ein paar asbach uralte Käbelchen von alten Cases oder sowas über? Oder ein altes internes USB Kabel?
Dupontkabel (und einige andere) habe ich da oder ließen sich auftreiben. Lötkolben und Zinn habe ich nicht und auch über 20 Jahre nicht benutzt. Traue ich mir auch nicht zu, so dass es am Ende vernünftig aussieht und dabei nicht das Haus in die Luft fliegt 😬
Das dürfte doch 2,54mm Pinabstand sein.
Ja, ist es.

Passend wäre dieser Stecker mit einem angelöteten 40 cm Kabel, das am Besten in einem 4-Pin-PWM-Lüfterstecker mit folgender Belegung endet:

Code:
PWM-Stecker      2226B-06-Stecker
---------------------------------------------------------------------------
1 - Erde     ->  nicht verbunden
2 - 12V      ->  nicht verbunden
3 - Tacho    ->  verbunden mit 1 Pin der ersten 3er Reihe
4 - PWM      ->  verbunden mit allen 3 Pins der zweiten 3er Reihe

Wäre stark, falls mir das jemand für ein paar Taler herstellen kann.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
2x https://www.alphacool.com/shop/kabe...-2pin-kabel-verlaengerung-buchse/stecker-30cm
(ist preislich schon etwas drüber...)
1x https://www.alphacool.com/shop/kabe...-4pin-pwm-stecker-inkl.-4-pins-2-stueck-black

Und die 4 Adern der 2-Pin Kabel nimmst du so zusammen, die du es brauchst.
Löten brauchst du auch nicht. 2-Pink-Kabel sind schon vorkonfektioniert und für die Lüfterstecker brauchst du nur ne kleine Zange und/oder etwas Fingerspitzengefühl. Nix Löten oder sowas.
(bei PWM dann halt drei Adern in den Pin, das müsste passen, halt eng zusammendrallen)
 
Nachdem ich die Workstation umgebaut hatte, habe ich die Hardware ins Servergehäuse eingebaut. Dabei sind die 3 Noctua 120-Lüfter in die Workstation gewandert und dafür die älteren 3-Pin-Lian-Li-Lüfter in den Server. Da habe ich nun die Lüfterbackplane umgangen und sie direkt mit den Y-Adaptern mit dem Board verbunden. Das sitzt so wesentlich stabiler und sieht bei dem Kabelsalat, der vor allem durch die SAS-Anschlüsse und das beQuiet-Netzteil entsteht, auch nicht sonderlich verkehrt aus.

IMG_20210408_153108.jpg IMG_20210408_153048.jpg

Es ist auch mit den 3-Pin-Lian-Li-Lüftern wesentlich leiser als das SuperMicro und die Lüftersteuerung vom Mainboard funktioniert an sich. Das Lüfter-Skript habe ich jetzt allerdings noch nicht ausprobiert, da ich erstmal das Unraid-Array selbst einrichten muss.

Dafür habe ich erstmal auf ESXi verzichtet und boote direkt bare metal in Unraid (ESXi ließe sich aber später noch aufsetzen und theoretisch die Hardware entsprechend durchreichen).

Die HBA 9201-16i wurde vom Hersteller/Lieferanten übrigens bereits mit der Firmware v20.00.07.00 im IT-Mode eingerichtet und erkennt auf Anhieb die angeschlossenen Platten. Ein paar Platten hängen wie angedacht direkt am Board und werden auch problemlos von Unraid erkannt.

Dort fiel mir dann leider ins Äugelein, dass die älteren 1-2 TB Platten nicht mehr all zu gut aussehen und dass eine der drei neuen 16 TB-Platten sich überhaupt nicht meldet. Mehrmaliges Umstecken brachte keinen Erfolg. Erst nach einem Test an einem dieser externen USB-SATA-Steck-Gehäuse an der Workstation meldete sie sich nach mehreren Bootversuchen. SMART zeigte bei ihr aber keine Fehler, nur beim Umstecken ins Servergehäuse ging sie wieder nicht. Ist die hinüber?

Für die guten Platten läuft aktuell ein Pre-Clear, damit ich das Array mal aufsetzen kann. Die Temperaturen liegen auch nach einigen Stunden vollkommen im grünen Bereich. Die hohe CPU-Auslastung ist übrigens eine Fehlausgabe, da es sich hier um IO-Waits handelt, da die Platten ja ganz schön hantieren.

ur1.PNG

Die noch guten 1-2 TB Platten werde ich aber zeitnah auch ersetzen und wurde dahingehend auf Shucking aufmerksam gemacht.

Habt ihr dahingehend irgendwelche Empfehlungen für Angebote externer Platten mit HGST/Ironwolf-Platten ab 12 TB? Wie sieht es da eigentlich im Gewährleistungsfall aus, wenn man das Gehäuse aufschraubt (und entsorgt)?
 
Zuletzt bearbeitet:
Dort fiel mir dann leider ins Äugelein, dass die älteren 1-2 TB Platten nicht mehr all zu gut aussehen und dass eine der drei neuen 16 TB-Platten sich überhaupt nicht meldet. Mehrmaliges Umstecken brachte keinen Erfolg. Erst nach einem Test an einem dieser externen USB-SATA-Steck-Gehäuse an der Workstation meldete sie sich nach mehreren Bootversuchen. SMART zeigte bei ihr aber keine Fehler, nur beim Umstecken ins Servergehäuse ging sie wieder nicht. Ist die hinüber?
Ist das ne externe WD Platte gewesen? Dann musst du noch Pin3? an der Sata-Power Buchse abkleben (oder der Dame des Hauses Mal kurz den (klaren) Nagellack entführen)
Ist ein "Feature" aus dem professionelle Umfeld (SATA Power Disable), das im "normalen" Umfeld eher negativ auffällt

Edit: oder falls das Netzteil es hergibt und du sowas rumfliegen hast einen Molex->SATA Adapter nehmen
 
Ist das ne externe WD Platte gewesen? Dann musst du noch Pin3? an der Sata-Power Buchse abkleben (oder der Dame des Hauses Mal kurz den (klaren) Nagellack entführen)
Ist ein "Feature" aus dem professionelle Umfeld (SATA Power Disable), das im "normalen" Umfeld eher negativ auffällt

Edit: oder falls das Netzteil es hergibt und du sowas rumfliegen hast einen Molex->SATA Adapter nehmen
Die kam frisch und blank vor 2 Wochen als reine HDD und war für erste Tests bereits direkt mittels SATA angeschlossen, wo sie wie die anderen beiden auch funktionierte. Ich erhalte nun eine Ersatzlieferung - mal sehen, ob die wieder in schlichter Pappe daherkommt.
 
Update:

Letztlich waren 3 HDDs defekt:
- 160 GB Matrox (14 Jahre alt)
- 2 TB Samsung (11 Jahre alt)
- 16 TB Toshiba (neu, aber für Lieferung unzureichend verpackt)

Bei der Toshiba habe ich um Nachlieferung gebeten, wobei statt 1 nochmals 3 Platten nachgeliefert wurden, die zwar erneut ohne Schaumstoffverpackung, aber etwas besser gegen Lieferschäden verpackt waren. Man kam mir obendrein insofern entgegen, dass ich hiervon gleich alle 3 auspacken und parallel testen konnte und letztlich die hätte behalten können, die mir am ehesten zusagten, statt diese einzeln auszupacken und jeweils ggf. nach einem 3-Tage dauerndem Intensivtest festzustellen, dass diese nicht ginge und mit der nächsten Platte fortzufahren, was schlimmstenfalls 3x solange gedauert hätte.

Kurz zuvor hatte ich mich dafür entschieden, die alten, kleineren Platten kleiner 12 TB im Array bis auf Weiteres nicht mehr zu verwenden und mir stattdessen zusätzlich 3x Seagate Exos 18 TB zu besorgen. Die Idee des diesbezüglichen Shuckings habe ich wieder verworfen, da ich keine Lust auf Gewährleistungshickhack wg. 20-30 € je Platte hatte. Leider verzögerte sich die Lieferung um etwa 2 Wochen, da ich für meine Workstation zwei 3,5" HDD auf 5,25"-Schacht-Adapter bestellte, der nicht auf Lager war.

Derweil habe ich die nachgelieferten 3x 16 TB Toshibas erfolgreich getestet und mich dazu entschieden, alle guten zu behalten und die 1 defekte der 1. Lieferung zu retournieren. So konnte ich ein (zunächst paritätsloses) 80 TB Array aufbauen, alle Daten meiner alten Festplatten zusammenführen, mit dem Sortieren beginnen und mit Unraid-Einstellungen sowie Dockern experimentieren. Dies funktioniert dank den Plugins "Unassigned Devices" und "Unassigned Devices Plus" innerhalb des Unraid-Servers (bspw. im Midnight Commander), so dass man nicht gezwungen ist, die Daten per Netzwerk zu übertragen.

Vor 3 Tagen sind dann auch die 3x 18 TB Seagate eingetroffen, deren Intensivtest nun ebenfalls abgeschlossen wurde. Davon habe ich nun 1 als Array-Disk und die anderen beiden als Paritäts-Disks hinzugefügt. Das Erstellen der Parität dauert dabei ca. 18-24 Stunden.

parity.png

Sobald dies abgeschlossen ist, werde ich zuguterletzt noch die 3x 12 TB HGST-Platten, auf denen momentan noch alte Daten liegen, ins Array einbinden und formatieren. Damit habe ich dann insgesamt 134 TB, wovon aktuell ca. 44 TB belegt sind.

Zusätzlich dazu habe ich noch die 500 GB SATA-SSD Samsung Evo über, bei der ich überlege, sie entweder als Cache-Drive, als VM-Drive oder doch als Work-Drive für meine Workstation zu verwenden.

Ansonsten habe ich auf Unraid mittlerweile eine MySQL-Datenbank mittels MariaDB- und phpMyAdmin-Docker eingerichtet. Ferner dienen ein DuckDNS- und SWAG-Docker (mittels Reverse Proxy) zum eigenen Webhosting. Experimente mit dem kodi-headless-Docker haben leider nicht gefruchtet (er aktualisiert die Library nicht). Dahingehend werde ich die Anbindung an die zentrale Datenbank jeweils an den lokalen Kodi-Clients ohne kodi-headless vornehmen. Emby scheidet aus, da ich dort für jedes einzelne Medium die Sperre der Metadaten vornehmen müsste, was praktisch ewig dauern würde. Zuguterletzt läuft noch ein SABnzbd-Docker für Usenet-Downloads (wobei die Automatisierung mittels radarr, sonarr, headphones usw. mangels deutschem Indexer leider flachfällt).

Darüber hinaus habe ich auf dem Server S3-Sleep sowie WakeOnLan eingerichtet und mir auf der Workstation ein kleines Shell-Script zum "Wecken" des Servers erstellt.

Die Zugriffszeiten von der Workstation empfinde ich sehr gut (ca. 50-180 MB/s, je nachdem ob viele kleine oder wenige große Dateien übertragen werden). Es gibt lediglich hier und da mal eine 1-sekündige "Denkpause" beim Wechseln der Verzeichnisse. Obendrein musste ich einen "rootshare" einrichten, damit zwischen Shares, die auf den gleichen Disks liegen, die Daten nicht physisch kopiert, sondern direkt bewegt werden (also lediglich der Pointer auf die Dateien geändert wird).

Den Stromverbrauch werde ich dann messen, sobald das Array vollständig eingerichtet ist.

Achja - die drei 3-Pin-Lian-Li-Lüfter habe ich nun doch auch mit drei Noctuas ersetzt, da ich ansonsten ein Lüftersteuerungs-Plugin, das auf PWM-Steuerung basiert, nicht hätte nutzen können. Somit war das Ganze wieder etwas leiser und die Platten besser gekühlt. Insgesamt fiel mir auf, dass vor allem die größeren Platten etwas wärmer wurden. Aktuell schlimmstenfalls 41-43° bei Dauerlast, wobei die Lüfter erst ab 45° komplett hochdrehen würden. Die kleineren Platten wurden bei Dauerlast schlimmstenfalls etwa 35° warm.
 
Zuletzt bearbeitet:
welches plugin zur lüftersteuerung verwendest du?
 
welches plugin zur lüftersteuerung verwendest du?
Dynamix Auto Fan Control - zur Einrichtung habe ich mich neben das offene Servergehäuse gesetzt, um zu erkennen, welche PWM controller relevant sind.
 
funktioniert bei mir leider nicht :/ etwas glücksache mit den boards. Wobei die lüfter in den Cases doch recht hoch drehen müssen, damit die temps der platten nicht richtung 50C gehen...
Hab da 3 Noctua industrial drinnen...
 
funktioniert bei mir leider nicht :/ etwas glücksache mit den boards. Wobei die lüfter in den Cases doch recht hoch drehen müssen, damit die temps der platten nicht richtung 50C gehen...
Hab da 3 Noctua industrial drinnen...
Bevor ich das Plugin fand, habe ich versucht, das hier einzurichten und bin auch recht weit gekommen - nur scheiterte es dann an der PWM Kontrolle, da ich da noch die 3-Pin-Lüfter drin hatte. Du kannst ja mal versuchen, ob du damit die einzelnen Sensoren und Controller auf deinem Board auslesen und per Script einrichten kannst.
Hab da 3 Noctua industrial drinnen...
Ich habe auch überlegt, die Industrial zu nehmen, mich aber dann doch wieder für die NF-A12x25 PWM entschieden. Zusätzlich dazu habe ich die ungenutzten Platten in die ansonsten leeren Schächte gehangen (dabei nicht ganz reingeschoben), damit der Luftzug auch über die Platten und nicht durch die komplett leeren Schächte erfolgt. Du kannst dafür auch passenden Schaumstoff nehmen.
 
Zuletzt bearbeitet:
Update:

Mittlerweile habe ich einen dt. Indexer gefunden und Radarr sowie Sonarr halbwegs eingerichtet. Hier und da gibt es einige Hürden, falls man bspw. Titel, Sets und Tags manuell angepasst hat, da Radarr einfach alle alten Files bei einem Update löscht (auch .nfo-Dateien). D.h. es sind dahingehend weitere manuelle Eingriffe oder Scripte notwendig. Aber das wäre ein eigenes Thema.

Der Stromverbrauch bewegt sich zwischen ca. 50 Watt (Leerlauf) und 130 Watt (Volllast), was bei 24/7-Aktivität einem Jahresverbrauch von ca. 450-1200 kW und entsprechenden Kosten von ca. 150-400 € entspricht. Da Volllast in Unraid nur bei Erstellung oder Änderung des Arrays erreicht wird, dürfte sich das daher bei Dauerlauf wohl bei etwa 200-250 € einpendeln.

Die Nutzung von SSD-Laufwerken als Cache für die System- & Dockerdateien sowie für Downloads wäre hier ebenfalls anzuraten. D.h. bei den Shares "appdata", "domain" und "system" den Cache auf "Only" stellen, beim Download-Share auf "Yes". Zusätzlich das Plugin CA Backup einrichten, um "appdata" regelmäßig zu sichern.

Nach Abschluss aller Einrichtungen den USB-Stick mittels Main -> Flash -> Flash Backup irgendwo lokal sichern. Die erzeugte .zip-Datei dient als Restore, falls der USB-Stick flöten gehen sollte, um Unraid wieder herzustellen.
 
Nach etwa 5 Jahren mehr oder weniger reibungslosen Betriebs war ich nun gezwungen, das 13 Jahre alte Netzteil auszutauschen, bevor es irgendwas beschädigt. Dahingehend habe ich hin und her überlegt, ob ich direkt ein größeres Update vornehmen sollte.

Dazu hatte ich mir folgendes herausgesucht:
- Mainboard: MSI PRO B760-P DDR4 II (ca. 140 €)
- CPU: Intel Core i5-14600 (ca. 300 €)
- CPU-Kühler: Noctua NM-M1-MP83 Mounting Kit (für den vorhandenen Noctua NH-U9B SE2) (ca. 25 €)
- RAM: Kingston FURY Beast UDIMM 32GB Kit (ca. 250 €)

Ohne Netzteil wäre ich da schon bei 715 € gelandet. Der einzige wirkliche Vorteil wäre hierbei jedoch gewesen, Plex mit Videotranscodierung nutzen zu können. Aber das nutze und brauche ich derzeit und auf absehbare Zeit gar nicht. Also überlegte ich, ob es sinnvoll wäre, Hardware meiner Workstation auf den Server umzuziehen und die Workstation auf AM5 zu heben. Doch da landete ich letztlich irgendwo bei 2.400 € (alleine 64 GB DDR5-RAM sind ja momentan jenseits der 700 €) und hätte dadurch trotzdem kaum einen in der Praxis sichtbaren bzw. nutzbringenden Vorteil gespürt. Vor allem, weil ich derzeit kaum noch zocke und ob im Alltag eine Videokonvertierung nun 3 oder 6 Minuten braucht, interessiert mich im Grunde nicht.

Also hab ich weiter überlegt. Es musste ja definitiv ein neues Netzteil für den Server her. Nach einigem Hin und Her und weil ich für die Workstation ein neues Gehäuse eingeplant hatte, habe ich mich dann dazu entschlossen, ein neues Netzteil für die Workstation zu besorgen und deren bisheriges in den Server umzuziehen. Es war/ist ein Corsair AX850 - qualitativ 2 Stufen über dem bisherigen be quiet.

Gleichzeitig schaute ich mich nach einem Ersatzboard um, weil das vorhandene ja nun ebenfalls schon 13 Jahre auf dem Buckel hatte. Fündig wurde ich beim recht günstigen und unbenutzen ASUS P9D-M - ein waschechtes Server-Board. So brauchte ich lediglich eine frische CR2032-Batterie und konnte CPU, CPU-Kühler und den RAM weiternutzen (dachte ich zumindest).

Da ich schon mal dabei war, fand ich beim Analysieren heraus, dass mein Server gar nicht in die tieferen C-States kommt, weil die SAS-Karte dies nicht zulässt. Grundsätzlich verbraucht die SAS-Karte selbst im absoluten Festplatten-Leerlauf permanent 10 bis 15 Watt nur für sich. Da ich nun aber "nur" 12 Slots der 24 HDD-SATA-Plätze des InterTech-Gehäuses belegte (und in den nächsten Jahren die Anzahl der Platten weiter reduzieren möchte), brauchte ich lediglich 6 weitere SATA-Anschlüsse am (neuen) Mainboard. Genau die bekam ich durch eine ASMedia ASM1166 PCIe 3.0 x4-Erweiterungskarte. Um die korrekt anschließen zu können, brauchte ich "nur" noch ein weiteres passendes Reverse-Kabel. Die vor 5 Jahren gab es nicht mehr, aber ich fand das StarTech mini SAS x4 [SFF-8087] auf 4x SATA Kabel (Link). Dieses Konstrukt dürfte sich bereits in 1-2 Jahren amortisieren. Ich muss lediglich die HDDs auf exakt 3 Backplane-Reihen aufteilen.

Ferner wollte ich auch die 13 Jahre alte 500 GB große Samsung 840 Evo SSD ersetzen, die ich als Cache genutzt hatte (wie es der Zufall wollte, war darauf auch eine einzelne größere Datei nicht mehr lesbar, also war mein Instinkt richtig). Dafür holte ich mir eine GLOTRENDS PA09-HS NVMe zu PCIe 4.0 X4 Adapter-Karte und eine Kingston KC3000 PCIe 4.0 NVMe SSD 1TB. Das Board hat zwar nur 3.0 x8, 3.0 x4 und 2.0 x4, aber es gab keine bessere/günstigere SSD mit DRAM. Mit dem Wechsel der SATA-SSD auf PCIe-NVMe wurde auch ein HDD-SATA-Slot frei.

Zuguterletzt wollte ich gleich noch ein wenig Ordnung in die ganze Kabelage bringen und bestellte mir dafür ein Noctua NA-SC1 Sx2 3-Wege-Lüfterverteilerkabel für 4-Pin PWM.

Beim Umbauen stockte ich das erste Mal beim Montieren des CPU-Kühlers, bis mir klar wurde, dass das Bracket hinten am alten Board gar nicht zum Board selbst gehörte, sondern eben zum Kühler und ich genau das brauchte. Es war jedoch dermaßen fest, dass selbst Anföhnen nicht half. Erst nachdem ich wenige Minuten sanften seitlichen Druck ausgeübt habe, löste es sich endlich. Dann kamen mir allerdings Bedenken, da der CPU-Kühler doch recht nah an den RAM-Bänken saß. Es waren ca. 2 mm Abstand. Das war aber dann gar nicht das Problem, sondern dass das Board ausschließlich mit ECC-RAM betrieben werden konnte. Die Angabe auf geizhals.de ist folglich falsch! Nachdem ich kurz mittelschwer ausgeflippt bin, habe ich mich dann damit abgefunden, nochmal 60 € für 32 GB DDR3-ECC-RAM in die Hand nehmen zu müssen und diesen kurzerhand bei Ebay geschossen. 3 Tage später durfte ich dann weitertüfteln, die ganzen überflüssigen Kabel und Adapter verschwanden - endlich herrscht eine wunderbare Ordnung.

Aber ach! Der alte NEC Monitor wollte nicht mehr. Geräuschlos schied er einfach dahin. Eigentlich hat das Board ja auch Fernwartung... aber ACH!² - Natürlich geht die nicht einfach so! Man braucht hier erst noch einen kleinen Fitzel-Adapter (ASMB7-iKVM), den man auf's Board stecken muss, damit der hintere Management-Port überhaupt aktiv geschalten wird. Natürlich gibt es diesen Stecker nur noch in chinesischen Gefilden (ca. 20 €) ... die Lieferung dauert halt 1-2 Monate. So lange wollte ich nun nicht noch warten. Glücklicherweise hatte ich mir vor 5 Jahren für 20 € ein aktives VGA-HDMI-Adapterkabel (neben VGA einfach USB mit anschließen) besorgt. ABER ACH!³ - Die Übertragung war dermaßen träge. Erst dachte ich, meine uralte PS2-Tastatur sei auch hinüber, doch nein... das BIOS baute sich tatsächlich deutlich sichtbar zeilenweise auf. Beim Navigieren (bspw. Pfeil runter auf neue Zeile) aktualisierte sich eben diese in den nächsten 5 Sekunden. Beim Wechsel des Bildes (oder Sprung auf eine überlaufende Zeile, so dass alles 1 Zeile nach unten rutschte) baute sich das gesamte Bild neu auf, was gut und gerne 1-2 Minuten dauerte. Ich hab mir das für 30 Minuten angetan (musste ja nur 1x da durch und alles einstellen... dachte ich) bis ich den Unraid-Stick mal absteckte (wollte die Datei fürs BIOS-Update draufknallen) und plötzlich alles ganz normal flutschte. Also was war denn nun los!? Das InterTech hat lediglich USB 3.0-Front-Anschlüsse. Das Board/BIOS kam jedoch mit dem Stick nur in USB 2.0 klar. Selbst das Aktivieren des EHCI- & XHCI-Hand-offs im BIOS lösten das Problem nicht. Ich musste den Stick in einen USB 2.0-Port stecken - entweder direkt aufs Board oder an einen der beiden hinteren Anschlüsse. Damit wurde die Videoübertragung nicht mehr gestört und ich konnte wunderbar alles einstellen bzw. das BIOS updaten. ABER A-C-H!²³ Damit ich letztlich auch vom USB-Stick booten konnte, musste ich ihn zwingend von UEFI auf Legacy umstellen und die Boot-Einstellungen (CMS) im BIOS ebenso. Mit gemischten Einstellungen kam er überhaupt nicht klar, so dass er dabei sogar das Videosignal nicht mehr korrekt ausgab und nur ein CMOS-Reset half.

Nach all diesen kleinen Hürden, die das Leben so reizvoll machen, hat letztlich aber alles funktioniert: der RAM wurde sofort reibungslos erkannt, das Piepen verschwand, die PCIe-Karten funktionierten, das BIOS ließ sich updaten und sinnvoll einstellen. Er bootete schließlich automatisch in Unraid. Doch da erwartete mich der nächste Schock: 2 Platten wurden nicht mehr erkannt. Nachdem ich diverse Platten hin- und hergetauscht hatte, war ich insofern beruhigt, dass die Platten schon mal nicht kaputt waren, sondern irgendwas mit der Verbindung nicht stimmte. Ich habe kurzerhand alle Molex- & SATA-Kabel nochmal kurz fest in die Anschlüsse gedrückt und dabei zwar keinerlei Veränderung bemerkt, aber plötzlich ging dann alles.

Alle Platten wurden erkannt. Die NVMe als neuer Cache eingerichtet. Die Docker auf die neue SSD geschoben (sie mussten danach via Vorlagen neu hinzugefügt/installiert werden - dabei wurden aber alle Einstellungen und Daten beibehalten/wiedergefunden).

Schließlich habe ich noch die Lüfter im BIOS und in Unraid eingestellt, d.h. in der boot/config/go die Sensoren angepasst:

Code:
modprobe coretemp
modprobe nct6775

... und danach in Einstellungen -> Fan Auto Control die Lüfter-Steuerungsfunktion einstellen. Dabei am Besten neben den Server setzen und beobachten, ob sich die richtigen Lüfter schneller/langsamer drehen.

Netzwerk war übrigens überhaupt kein Problem. Einfach im Lancom-Router die MAC der IPv4-BOOTP-Station umgestellt und alles wurde wie gehabt angewandt (Firewall, Routings, whatever). Wenn irgendwann der kleine Fernwartungsstecker eintrifft, braucht es dann ein separates Netzwerkkabel mit separaten Einstellungen für den Management-Port.

Zusammengefasst habe ich das besorgt:
- Mainboard: ASUS P9D-M (39 €)
- ECC-RAM: Micron/Crucial 32 GB DDR3-1600 PC3L-12800E-11-11-E3 2Rx8 1.35V (4x CT102472BD160B) (60 €)
- Fernwartungs-Modul: ASMB7-iKVM (22 €, Lieferung dauert noch)
- SATA-Karte: ASMedia ASM1166 PCIe 3.0 x4-Erweiterungskarte (32 €)
- SATA-Reverse-Kabel: StarTech mini SAS x4 [SFF-8087] auf 4x SATA Kabel (SAS8087S4R50) (24 €)
- PCIe-NVMe-Karte: GLOTRENDS PA09-HS NVMe zu PCIe 4.0 X4 Adapter (16 €)
- NVMe SSD: Kingston KC3000 PCIe 4.0 NVMe SSD 1TB (164 €)
- 3er-Lüfterverteiler: Noctua NA-SC1 Sx2 4-Pin PWM (10 €)
- Wärmeleitpaste: ARCTIC MX-6 (8g) (8 €)
- Reinigungsalkohol: 750 ml Isopropanol (99,9%) (7 €)

So habe ich insgesamt 382 € ausgegeben, aber sinnvoller und trotzdem für die nächsten Jahre Ruhe. Zumindest habe ich bis auf Weiteres keinerlei Druck mehr, akut etwas umstellen/updaten zu müssen.
 
Zuletzt bearbeitet:
Da hast du was erlebt ^^

Hast du ein Strommessgerät am Server?
Verbrauch er jetzt effektiv weniger Strom?
Irgendwie wag ich das zu bezweifeln.
 
Joa, mal g'schwind umbasteln sieht anders aus :LOL:

Aber allein der Tausch der SAS-Karte zur SATA-Karte sollte im Leerlauf 9-14 Watt und unter Volllast 12,5-18,5 Watt einsparen.


Wichtiger aber ist, dass mit der SATA-Karte nun auch C3 erreicht wird. C6 und C7 "nur" auf Core/CPU-Ebene:


c-states.jpg


Sobald das Fernwartungsmodul da ist, schau ich nochmal ins BIOS, ob ich irgendwo noch ASPM aktivieren muss, damit C6/C7 im Package laufen (könnte vielleicht nochmal 10 weitere Watt einsparen, C3 war wichtiger). Die Lieferung dauert aber noch ca. 2-3 Wochen. Dann wäre auch eine Messung sinnvoll.

Wenn man ganz verrückt wäre, könnte man das Corsair AX850 (80 PLUS Titanium) mit einem "perfekt" abgestimmten, kleineren Netzteil ersetzen und ca. 5 Watt einsparen. Dass sich das nicht lohnt, sollte einleuchten.
 
Mich hats grad gepackt und ich hab noch etwas getüftelt und dabei den alten, halb defekten Monitor im Abstellraum aufgestellt, angeschlossen und nochmal das BIOS durchgecheckt:

- Advanced -> CPU: "Package C State Limit" stand auf "C3", habs auf "C6" erhöht ("C7" oder "No limit" gibt es leider nicht)
- Advanced -> PCI Subsystem -> PCI Express Settings: "ASPM Support" habe ich von "Disabled" auf "Auto" umgestellt
- Advanced -> PCI Subsystem -> PCIe Slot: Alle Option Roms habe ich deaktiviert
- Advanced -> ACPI -> "Hibernation" und "ACPI Sleep State" habe ich deaktiviert
- Advanced -> Serial Ports: deaktiviert
- Advanced -> Onboard LAN: die OpROMs auch hier deaktiviert
- Advanced -> APM: "Power On By PCIe", "Power On By RTC" und "EuP Ready" deaktiviert
- Advanced -> NICs: WakeOnLan deaktiviert
- Monitor: Fan Speed Control auf "Low Speed Mode" gesetzt (und bei den 3-Pin-CPU-Lüftern einen Noctua-Low-Noise-Adapter dazwischengeklämmt, damit das BIOS die Drehzahl von 1650 RPM auf 1250 RPM reduziert)

Dann Monitor & Keyboard wieder ab- und ein Energiemessgerät dazwischen geklemmt.

Kurz nach dem Start von Unraid und Hochfahren des Arrays rödelte er ein wenig umher (liest Pfade ein, Docker laden, etc.). Alle Platten laufen, aber keine Volllast. Verbrauch: ca. 106 Watt.

Nach etwa 5 Minuten hat er sich beruhigt. Keine Last, aber alle Platten sind wach, Verbrauch: 98-106 Watt.

Nach etwas mehr als 30 Minuten versetzt er die ungenutzten Platten in den Tiefschlaf. Keine ist mehr wach. Verbrauch: 40-52 Watt.

Laut powertop kommt er leider immer noch nicht in den C6 Package State. Vermutung: die SATA-PCIe-Karte verhindert das (da könnte ein Firmware-Update helfen... oder die Karte zerschießen 😁) oder die NVMe-SSD-Karte oder gar die SSD selbst. Was meint ihr?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh