Eigenbau Server

Beizer1989

Neuling
Thread Starter
Mitglied seit
06.12.2022
Beiträge
3
Guten Abend beisammen,

um ehrlich zu sein habe ich den NAS/Server Hardwareguide 2020 gelesen, bin aber gerade beim Thema Mainboard/CPU/RAM noch etwas überfordert.
Was ich will:

- Eigene Cloud
- NAS
- Emby als Medienserver
- Back-up
- Eigener TS Server und ähnliche Dockeranwendungen
- Zukunftssicherheit (keine Ahnung, was noch kommen wird, wenn die Kiste mal läuft) auf jeden Fall sollen viele externe 3,5 Zoll Schächte mit Hot-Swap Fähigkeit zur Verfügung stehen. Ich dachte hierbei speziell an ein solches Gehäuse: 2486_fantec_src_4080x08 oder an das hier: 2488_fantec_src_4120x08. Damit möchte ich auch gleich sagen, dass es auf jeden Fall ein 19 Zoll Gehäuse werden soll.
- 10GBit LAN (ggf. nachrüstbar per PCIe Karte da ich noch kein 10GBit Lan habe und somit auch etwas warten kann bis die Technik günstiger wird)
- Die Möglichkeit die 12 3,5" Slots auch mit Platten versorgen zu können. Damit sind genügend SATA Anschlüsse auf dem Board bzw. die Möglichkeit diese mit PCIe Controllern (ohne einen Konflikt mit der eventuell vorhandenen 10GBit LAN Karte zu erzeugen) nachzurüsten gemeint.
- 2NVMe Steckplätze für SSD Chaching


Als Betriebssystem will ich aktuell Unraid nutzen, sodass sich meine Fragen hauptsächlich auf die Hardware beziehen.

Da ich bei Desktop Hardware wegen einer kürzlichen Neuanschaffung eines Gaming-PC´s so ziemlich auf dem aktuellen Stand bin, würde ich als allererstes gerne Wissen, ob sich für den Privatgebrauch bzw. bei den von mir erwähnten Einsatztzwecken auch Desktophardware anbieten würde? Immerhin läuft die Kiste ja 27/7. Mit anfänglich nur 2 HDD´s komme ich da in etwa auf 1600€ mit einem I5 10600k und passendem Desktop Mobo.
Zudem wäre interessant wie ihr gerade die Situation von Medienserver (Emby) und CPU integrierte GPU einschätzt. Ist diese auf Dauer leistungsstark genug oder sollte lieber eine dedizierte Grafikkarte her (eine 3060ti wird in meinem Gaming PC bald ausgetauscht, sodass diese zur Verfügung stehen wird)? Falls ja, muss diese natürlich auch noch auf dem Mobo Platz finden.

Sofern die Desktop Hardware nicht für meinen Einsatzzweck ausreichend ist, habt Ihr Hardwarevorschläge mit der ich das Projekt realisieren kann, ohne einen Goldesel zu benötigen?

Zur Orientierung habe ich mal einen Screenshot meines aktuellen Mindfactory Warenkorbs hier angehängt.

Achja: Fertige NAS Systeme wie die von QNAP oder Synology sind mir zu unflexibel und bezogen auf die reine Hardware auch mit zu schlechtem Preis-Leistungsverhältnis behaftet und somit raus.

Ich hoffe daher auf kreative Vorschläge ;-)

Grüße
Beizer
 

Anhänge

  • 2022-12-06 22_30_05-Warenkorb _ Mindfactory.de.jpg
    2022-12-06 22_30_05-Warenkorb _ Mindfactory.de.jpg
    76,2 KB · Aufrufe: 182
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Moin!

Die Frage nach dem Mainboard ist m.E. am Ende eine Frage der Plattform und dafür ist häufig vor allem die Frage "wie viele Steckkarten brauchst Du und wie schnell wollen die angebunden werden". Und dann kommen ggf. bei der Abwägung noch Sonderfeatures dazu, die es auf Consumer-Mainboards bisweilen gar nicht oder nur selten gibt (z.B. Fernsteuerung/IPMI), RAM Bedarf oder eben spezielle Anforderungen wie Bifurcation-Support usw.

Zu den Lanes: Bei den Consumer-Plattformen ist spätestens bei 3 Steckkarten Schluss, wobei davon bestenfalls zwei mit 8 Lanes angebunden werden können, für die dritte Steckkarte stehen meist nur 4 Lanes zur Verfügung. Das nur mal ganz grob, mehr als 20 Lanes für Steckkarten ist im Consumer-Regal halt nicht.

12 SATA Anschlüsse bieten von Haus aus wenn überhaupt auch nur wenige Mainboards, in der Regel ist bei 8x Schluss. Da rüstet man also gerne einen sogenannten Host Bus Adapter (HBA) nach, der gerne schonmal 8 Lanes in Anspruch nimmt. Moderne HBAs, mit denen sich z.B. auch NVME SSDs betreiben lassen, krallen sich aber bisweilen sogar 16 Lanes (logisch: bei z.B. 8 NVMEs unter Dauerfeuer muss ja u.U. auch einiges über den PCIE-Bus).

Für eine 10gbit-Netzwerkkarte gehen grds. auch mal mindestens 4 Lanes drauf, gerne auch mal 8, je nach Karte. Das Problem: ältere Karten - die in der Anschaffung als gebraucht z.T. deutlich günstiger sind als aktuell & neu - hätten häufig gerne mehr Lanes, weil sie bisweilen nur ältere Standards sprechen (z.B. PCIE 2.1) und die halt noch nicht so flott sind um mit wenig(er) Lanes auszukommen.

Natürlich kann man theoretisch fast alle Karten auch unter ihrer elektrisch möglichen Maximalanbindung verwenden - das kann (nicht muss!) sich praktisch dann aber negativ auf die Performance auswirken.

RAM ist heutzutage auch kein großes Kriterium mehr: wer mehr als 128GB RAM braucht, weiß warum und greift entweder nicht oder ganz bewusst ins Consumer-Regal. Hier ist die spannende Frage: willst Du ECC-RAM nutzen oder bist Du da entspannt?

CPU ist eigentlich auch fast egal. AMD oder Intel tun sich da m.E. nix mehr im Consumer-Bereich. Tendenziell würde ich persönlich für einen Server allerdings bei der Abwägung eher nur "echte" Kerne berücksichtigen - wie das mit den E-Kernen bei Intel funktioniert, ist im Zweifel vom OS abhängig und bei Server-Betriebssystemen noch mit dem ein oder anderen Fragezeichen verbunden, wie sich das dann je nach Last auf die Performance auswirkt.

Lange Rede kurzer Sinn: für das, was Du so vorzuhaben scheinst, brauchst Du aktuell voraussichtlich einen HBA (würde ich wenn möglich gebraucht kaufen) und ggf. irgendwann mal eine 10Gbit NIC. CPU-seitig sollte ein echter 8-Kerner (mit HT bzw. SMT) locker reichen, egal mit welchem Takt. Wenn keine ausgefalleneren Wünsche dazu kommen (Grafikkarte, mehr NVMEs als m.2 Steckplätze des Boards), reicht eigentlich jedes Mainboard mit min. 4 SATA-Anschlüssen (8 kommen vom HBA)...

ICH persönlich würde allerdings irgendwas von Supermicro oder ggf. noch AsrockRack nehmen. :d
 
Wow Danke für die ausführliche Antwort. Also so wie ich es verstehe, würde eine Consumer-Platform ausreichen. Mit 3 Steckkarten komme ich ja super hin. 1x GPU (sofern diese auch "nur" 8 Lanes benötigt) 1x HBA mit 8 Lanes und 1x 10gbit-Netzwerkkarte mit 4 Lanes. Sofern das so zutrifft, was hältst du von dem, was ich in dem anhängenden Screenshot des ersten Posts gezeigt habe? Was würdest du verändern?

Sollte allerdings eine Consumer-Platform doch vielleicht nicht für den 24/7 Betrieb geeignet sein, was würdest du an Server-Hardware empfehlen?
 
Ich würde keine GPU nehmen, sondern eine CPU mit integrierter Grafik. Spart Lanes und Steckplätze und Strom und in einem Server braucht man eh nix Großes.

Alternativ ein Board mit IPMI, das hat nen minimal-Grafikchip drauf, der für den Desktop-Kram (wenn überhaupt benötigt) reicht. Dann braucht man nichtmal ne CPU mit Grafik.
 
Ich würde schon ne Grafikkarte nehmen, kann man ja nach dem einrichten ausbauen.
 
Ausgebaut transkodiert die Grafikkarte aber nicht mehr so effizient, falls man es mal braucht.:unsure:
Ich würde auch immer eine supportete iGPU nehmen.
 
Jo, würde mich auch mal interessieren wo ein Vorteil einer dedizierten (und dann ausgebauten) GPU gesehen wird. Stromsparen? Halte ich für vernachlässigbar.
 
Die Frage ist, braucht man transcoding wirklich. Ich habe es bis jetzt nicht einmal gebraucht, trotz das ich immer meine config dafür ausgelegt hatte.
 
Ich brauch Transcoding nicht. Find's aber irgendwie beruhigend, jederzeit 'nen Monitor dran- und anmachen zu können (insb. "wenn mal was ist"), ohne direkt das ganze Ding umbauen zu müssen. Daher haben und hätten meine Server immer zumindest "minimal-Grafik" fest eingebaut.

Aber das kann natürlich jeder für sich selbst optimieren. Bin immer interessiert, andere Sichtweisen zu hören, wird man ja nicht dümmer von. Ich bin halt bisweilen auch einfach faul...
 
Naja, der TE hat immerhin in seinem Startpost Emby erwähnt. Die andere PLEX und Jellyfin profitiert Emby auch von einem Hardwarencoder. Ob das QVC, AMF oder NVENC ist egal. Auch abhängig von Videomaterial und Client hat so ein Stream eines Films ziemlich Last auf einer CPU bewirken. Mit Hardwarebeschleunigung hingegen bleibt alles entspantn auf der CPU.

Getestet auf einer 4350G und Jellyfin und 4k Filmen.
 
Also ich nutze auch Jellyfin, früher immer Plex mit Premium, damit halt Hardwaretranscoding überhaupt geht.
Bin dann aber von Plex weg, weil es hat nicht immer alle Folgen gefunden oder hat Serien falsch erkannt. Bei Jellyfin funktioniert das jedenfalls bei mir alles besser und ist kostenlos.
 
Danke für die vielen Antworten. Das mit dem nachträglichen ausbauen verstehe ich nicht. Was bringt denn bitte eine ausgebaute Grafikkarte?

Also Transcoding wird bei mir schon genutzt. Beispielsweise habe ich aktuell Emby auf einer Vu+ Duo 4K SE laufen. Mit meinem Handy (Galaxy S21+) kann ich mit der Emby App damit ohne Probleme schauen da mein Handy problemlos das gestreamte Format 1 zu 1 ausgeben kann. Mit dem Handy meiner Freundin geht das allerdings leider nicht (IPhone). Hier muss Emby transcodieren, nur ist leider die Vu+ zu schwach dafür... Auch au feinem Fire TV würde mit der Emby App Transcoding notwendig werden.
 
Danke für die vielen Antworten. Das mit dem nachträglichen ausbauen verstehe ich nicht. Was bringt denn bitte eine ausgebaute Grafikkarte?
Eine Grafikkarte ist ein Stromfresser. Und das in einem System, das primär Headless genutzt wird. Außer eben für Encoding. Aber hier wärst du bei einer CPU mit integrierter GPU eben besser beraten.
Außer du möchtest die GPU an eine VM durchreichen oder sonst was.
 
Ich habe eine AM4 Plattform und neben der Anzahl der PCIe Steckplätze sind auch die Anzahl der Lanes zu beachten.
Ich habe 20 Lanes und musste wirklich planen (16 Lanes für die M.2 PCIEe Karte mit 4 SSDs + 4 lanes für die PCIe 10 Gbit NIC. HBA im dritten PCIe Slot nutzen, falls ich auf zwei SSDs verzichte...

Alter Threadripper, oder Intel 2011-3 Plattform (E5 26xx V1/2/3/4) bieten mehr lanes
 
Brauchen aber auch viel mehr Strom. Und für das was er machen möchte sind die mega übertrieben.
AMD's AM4 brauch schon mehr Strom als die Intel Plattform im Idle und Lanes spielen denke ich eher weniger ne Rolle.
Ich denke nicht das er 4x M.2 verbauen mag, ich wüste auch keine Anwendung wofür man 4x M.2 NVMe braucht.
 
AMD's AM4 brauch schon mehr Strom als die Intel Plattform im Idle
Das ist pauschal so nicht richtig, es kommt immer auf die Konfiguration an. Ein Deskmini X300 6-7W mit nem Renoir zieht 6-7W unter Windows Idle (mit 1 SSD und 16-32GB Ram) und manchen Linuxoiden.

Ein B550 und X570 mit Non-APU braucht natürlich mehr. Aber auch das kann relativ moderat für die gebotene Leistung laufen. Siehe meine Signatur.
 
Ich denke nicht das er 4x M.2 verbauen mag, ich wüste auch keine Anwendung wofür man 4x M.2 NVMe braucht.
nur als Idee:
ich nutze 2x NVME im Mirror für VMs + 2x NVME Mirror als special vDev für Metadata (ZFS mit TrueNAS Scale).
Alles was I/O kritisch ist, möchte ich auf NVME SSDs laufen lassen aufgrund der signifikant höheren IOPS Perfomance. Und wenn kritisch: natürlich im Mirror...

Ich komme auf 55-60W idle mit Ryzen 2700X, 64GB ECC RAM, X470D4U, 6x NVME, 4x 3.5 HDD, Intel X710-DA2 10GBe NIC
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh