[Sammelthread] HomeServer Vorstellung - Bilder + Kommentare

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Trambahner :
Ich finde Dein Setup spannend und überlege auch einen neuen „Server“ auf der Basis eines DeskMeets aufzubauen.
Allerdings würde ich eher auf den B660 gehen, da hier drei SATA-Anschlüsse vorhanden sind und ich damit auch drei HDDs anschließen kann.

Nun habe ich noch folgende Fragen:
  1. Meinst Du, dass der Wechsel auf ein Gold-Netzteil bei drei HDDs sinnvoll wäre - und welche Leistung macht Sinn? Sind 500W weiterhin richtig oder kann/ soll es weniger sein?
  2. Eine Frage zum OS-Setup. Du setzt auf ESXI. Ich benötige eigentlich nur einen Windows Host und mehrere Docker-Container, die aktuell über einen RasPi (unter OMV/ Portainer) laufen. Aktuell denke ich über zwei Szenarien nach: Entweder eine Windows 1–Instanz mit Hyper-V oder einen Windows Server mit zwei virtualisierten Instanzen: einmal Windows und einmal Linux für die Docker-Container… Welchen Weg kannst Du empfehlen?
Grüße

Connor
 
Zur 2. Frage:
Ich persönlich habe bei mir Hyper-V am laufen mit einigen Windows VMs und einer Debian VM für Docker - fluppt einwandfrei :-)
 
Hat jemand zufällig ein NAS mit dem Jonsbo N1 (5x3,5", 1x 2.5") gebaut und kann ein paar Bilder posten bzw. etwas zum Gehäuse/Temps/Verarbeitung sagen?
 
Ich sehe, in diesem Thread herrscht ein Sommerloch - das müssen wir beheben 8-)

Kurz zum Projekt:

Mein altes Home Lab, bestehend aus drei 19" Rack-Server mit je 16 Core Ivy Bridge Xeon E5 CPU's und 128 GB RAM, war mir einfach zu gross.
Weder dass ich diese Leistung gebraucht hätte noch war der Stromverbrauch vernünftig. Die Server waren zwar Eigenbau und entsprechend nicht all zu laut, jedoch schlicht zu gross.

So habe ich mich entschlossen, möglichst viel Leistung in unter 20 Liter Volumen zu verpacken.
Die Auswahl an kleinen Motherboards, welche meine Anforderungen erfüllen (ECC RAM, >16 Cores, Remote Management) ist nicht gross und sie sind teuer und schwer zu bekommen.

Im Januar 2022 hatte ich dann per Zufall ein Asrock EPC612D4I sehr günstig ersteigert.
Somit war schnell klar, es wird wieder ein Server mit XEON CPU Server Sockel :banana:

Die Hardware-Konfiguration sieht wie folgt aus
  • Xeon E5-2698v4 (20-Core @2.7GHz)
  • 2* 32 GB DDR4-2666 ECC SO-Dimm (Kingston KSM26SED8/32ME)
  • Asrock EPC612D4I ITX Motherboard
  • Corsair SF650 SFX Netzteil
  • Coolermaster NR200 Gehäuse
  • Noctua NH-U12DX i4 CPU-Kühler (einer der wenigsten Kühler für Narrow-ILM Socket)
  • 2x Noctua NF-F12 industrialPPC-3000 PWM Gehäuselüfter

  • Datengrab:
    4x Samsung PM863 1.92TB SATA

  • VM-Storage:
    2x Samsung PM1725 3,2TB NVME U.2 (5DPW, 29'200TBW Endurance)

  • Netzwerk:
    OCe14102B-NX - Dual 10Gbe NIC

  • PCIe Riser Card: C_Payne PCIe 16x ->8x, m.2, m.2

  • Host-Betriebssystem: Proxmox

Lassen wir mal die Bilder sprechen - das System ist noch im Zusammenbau
1660113348932.jpg
1660058592669.jpg



Und so sieht es fast fertig aus (SSD nur probehalber im Gehäuse platziert, am Boden noch kein Lüfter):
1660058592658.jpg



Vorgängig wurde die Hardware natürlich überprüft - weder der RAM wird als kompatibel gelistet (32GB SO-DIMM Module mit ECC gibt es kaum) noch steht irgendwo dass es eine PCI-Express Bifurcation Funktion gibt.
Beides sind für mich ganz wichtige Kriterien gewesen. Letzteres mit der Bifurcation habe ich mittels BIOS File in einem BIOS-Editor verifiziert.

Und tatsächlich, alles OK:
1660114216395.jpg
1660114216379.jpg



Wie gehts weiter?
Als nächstes steht der Einbau der SSD's an - hierzu müssen Halter vom 3D Drucker erstellt werden von m.2 2260 auf m.2 2280 oder grösser?
Die Adapter von m.2 auf OCULink sind leider zu kurz - es gibt offenbar auch keine im 2280er Format oder länger.
1660115822307.jpg

Ein erster 3D Entwurf vom m.2 Halter (noch ohne Aussparung für den IC welcher im Weg ist).
2022-08-10 09_01_34-Surprising Fyyran _ Tinkercad.png



Obschon Google meint, dass der Noctua NH-U12 in das Coolermaster NR200 passt, ist dies leider NICHT der Fall.
Habe vorher sogar Personen die das NR200 UND den Noctua NH-U12 besitzen gefragt ob's passt... Deckel lässt sich zwar schliessen, aber die Heathpipes haben Kontakt zum Blech...
-> Ne Beule mit dem Hammer wird es richten :d

1660116168908.jpg
 
Zuletzt bearbeitet:
Die 3 Rackserver habe ich schon im Winter verkauft. Wollte grundsätzlich nur mein NAS ersetzen - ist dann in viele andere Ideen ausgeartet (Terminal Server, PiHole, Webserver, Gitlab etc.).

Mein Büro ist leider relativ klein, daher ist das neue Gehäuse (18.25 Liter) eine Wohltat.
 
Danke @Gohst_oc! :d Bei mir ist zurzeit (leider) auch kein Handlungsbedarf mehr. Ich bin wirklich aktuell nahezu wunschlos happy, was man schon daran sehen kann, dass ich nicht einmal ein paar Schönheitskorrekturen angehe, zu denen ich den Server einmal herunterfahren und aufmachen müsste (zwei SSDs umstecken und bisserl Passthrough neu optimieren)…
 
Dann sind alle Lanes sinnvoll verteilt
Bis auf die 24 verbleibenden Lanes von der CPU 😉. Bei ner richtigen Serverplattform wie 2011-3 würde ich mindestens auf FlexATX oder yATX gehen.
 
ich hatte mich schon gefragt was es mit dem PCIe-Adapter aus sich hat.
Was es nicht alles gibt :eek:
 
Bis auf die 24 verbleibenden Lanes von der CPU 😉. Bei ner richtigen Serverplattform wie 2011-3 würde ich mindestens auf FlexATX oder yATX gehen.

Genau das wollte ich ja nicht mehr. Im ITX Faktor ist eben was spezielles.
Mein Büro ist ein Raum von ca. 2.5x5m (wenn überhaupt).

Wäre es nicht mein Arbeitszimmer, so hätte ich die 3 Rack-Server belassen.
Da wäre mir sogar mATX zu klein - wenn richtig, dann richtig Richtig (SSI-EEB und Gehäuse mit HotSwap Einschüben, redundantes PSU etc.).

Einer meiner Server war sogar wassergekühlt (Watercool MoRa-2 Radiator und 4x 18cm Lüfter).
Da wäre noch eine Armada an HBA's, RAID Controller und SAS Festplatten bei mir rumliegen - die lassen wir mal schön in der Schachtel....

Immer wenn ich sowas in den Händen habe, artet es aus - darum ITX und sub 20L - da passt kaum was rein also sind die Grenzen klar :d

Zudem, je mehr Bauteile - desto höher der Energieverbrauch. Ad Absurdum hat das mal jemand mit einem Thin-Mini ITX Mainboard von Intel geführt (so ein Exemplar habe ich auch noch rumliegen).
Jeder IC zählt, ebenso jeder Zentimeter Leiterbahn.

Mit dem aktuellen Mainboard sollten trotz Serverplattform und iKVM anständige Werte möglich sein.

Wegen dem Riser: ja eben der wird speziell in Kleinserie gefertigt. Besonders gefällt mir, dass direkt eine Half-Height PCIe Karte montiert werden kann - ohne Kabel.
 
Zuletzt bearbeitet:
Das Coolermaster NR200 hatte ich auch lange aufm Schirm, bin dann aber doch zum Intertech IM01. Ein paar Millimeter mehr und man bekommt ein µATX-Board unter, was die Auswahl in Sachen Board, PCIe Karten und Ram doch sehr erleichtern kann.
Momentan hab ich das mit einem SFX-Netzteil gepaart und bin immer noch sehr zufrieden
 
Genau das wollte ich ja nicht mehr. Im ITX Faktor ist eben was spezielles.
Mit 2011-3 wärst du mit yATX in einem dieser sub 20l Cases aber besser aufgehoben gewesen:

Weil in deinem jetzigen Case hast du 3x PCI Slotblenden und verschenkst 24 PCIe Lanes von der CPU. Aber wenn du damit glücklich bist ist ja super :). Mir ist das Build für ITX zu groß, ITX Boards sind imho eher für sub 10-15l Cases geeignet.
 
Hätte ich ein  Serverboard zum vernünftigen Kurs gefunden in mATX wärs vielleicht eine Option gewesen.
Was soll ich sagen? Ich hab das ITX Board für 130€ bekommen, wie kann man da widerstehen?

Dafür bezahlt man halt für die SO-Dimm Module mit ECC mehr (ca. 5€ pro GB).
Immerhin, Sockel 2011-3 CPUs werden ja geradezu verschleudert in der Bucht und beim freundlichen Ali.

Die Überlegung war sowieso eine andere, die Anforderungen von Anfang an klar:
  1. >16 Cores
  2. 128GB Ram
  3. VM Storage mit NVME SSD (min. Raid 1)
  4. Datengrab mit >4 TB
  5. Möglichst klein
  6. iKVM
  7. Volumen möglichst klein (>20L)
  8. Budget: <1000€
Alle Anforderungen sind 100% erfüllt oder erfüllbar. Auch im ITX Formfaktor.

Die Alternativen wären Sockel AM4, SP3, LGA3647 gewesen.
Da kriegt man kein Brett unter 400€ von AM4 mal abgesehen. Fast wär es ein Asrock X470DU geworden, das war mir dann aber doch nicht sympathisch genug.
 
Zuletzt bearbeitet:
Ich hätte hier noch ein Supermicro ATX X11SPi mit Xeon Silver 4108 und auf Wunsch Wakü-Block im Angebot… ;)
 
Wenn du das Angebot nirgendwo postest, muss auch niemand grübeln, ob diese unnötige Ausgabe nicht vielleicht doch ganz dringend sein muss :fresse:
 
Was würde denn heutzutage jemand für sowas ausgeben wollen? Hab keine Vorstellung. Da der bei mir jetzt echt monatelang aus war, brauch ich den wohl nicht mehr…
 
Ich seh schon, ich mach nen Thread auf, 50 Euro Startpreis…
 
Mein Proxmox-Zwerg: 5600X @ B550M Tuf Gaming Plus (non-Wifi), 64GB ECC-Ram, 1x 970 Evo Plus 1TB fürs System, 2x WD SN850 2TB als Datastore (im x16 Slot per Bifurcation). Pure Rock 2, BQ 400W Pure Power 11, Fans 2x Arctic p12 120mm (einblasend und CPU), 1x Noctua (ausblasend). Ein zusätzlicher Billo-Sata-Controller steckt im PCIe x1 Slot, damit man alle 2,5"-Schächte nutzen könnte (die Backplanes sind derzeit aber nicht bestückt). Gehäuse Chieftec Ci-01b-op mit ein bissl Seitendämmung. Idle etwa 23W, mit der primären Datenbank-VM up und Idle etwa 23-25W.
Mit 5950X ebenso getestet, der steckt derzeit aber im ESXI-AIO drin.
Für ein mATX-Build mit viel M.2 oder 2,5" SSD ein sehr nettes Gehäuse finde ich, unten ist ja auch noch jede Menge Platz (Stock: Schächte für 2x2,5" und 2x3,5" unten sowie unter dem Laufwerkskäfig ist auch noch ein 2,5"-Schlitten. Nachteil: Kühlung für 3,5"-Laufwerke ist meeehh.

ci1.jpg
ci2.jpg
ci3.jpg
ci4.jpg
 
Zuletzt bearbeitet:
Ist jetzt meine neue Testbench :fresse2: IMG_20220824_010029.jpg

Hab aktuell ne 118GB Optane als Boot Device, ne 480er Optane für die VMs/Container und nen Perc H310 der auf IT-Mode umgeflasht ist an dem ne 6TB SAS HDD hängt.

Hab die Chance mal genutzt um TrueNAS Scale auszuprobieren, aber spätestens als ich mich mit der Truecharts Community für Aftermarket Apps auseinandersetzen, war ich stark abgeneigt. Da bleibe ich lieber bei Proxmox und rüste die fehlenden Funktionalitäten selbst nach.
 
Nice!

Mein Proxmox-Zwerk könnte noch bisserle Kabelmanagement vertragen, auch den braunen Propeller könnte man noch durch nen Chromax ersetzen. Dann wäre die innere Optik noch etwas runder; eigentlich wars mal ein schneller Versuchsaufbau. Aber: wozu, er tuts.

Auch den Billo-Sata könnte man noch durch nen HBA ersetzen (einer liegt noch rum), dann könnte man auch den Sata-Kabelwust mit schönen 4x Kabeln ersetzen. Aber mir gings in erster Linie um einigermaßen niedrige Lautstärke und Idle-Leistungsaufnahme und trotzdem PCIe gen4. Daher kein LSI und auch keine 10G Karte drin.

Die SN850 sind übrigens ziemlich gut Linux/BSD und damit "home ZFS"-tauglich bzgl. Durchsatz. Natürlich kein PLP, aber sehr hoher Durchsatz bei QD1 mit 128KB Blöcken.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh