[Sammelthread] NAS/Server Hardwareguide/Bauvorschläge/Diskussion 2024

Moin, share so einstellen das es auf dem Cache liegt und secondary storage ist das array. Im Standard wird glaube ich jede Nacht um 3 der mover angeschmissen der alles vom Cache aufs array soll verschiebt. Mit den boardmitteln kann man die shares nicht unterschiedlich behandeln. Aber ich meine es gibt ein pluging "mover tuning" oder so ähnlich. Damit könnte man alles auf Standard lassen und für den share Dokumente eine Frist von einer Woche setzen oder so. Oder den share direkt cache only machen. Dann wird er gar nicht verschoben und ist immer schnell verfügbar.


Okay dann habe ich es grade genau richtig gemacht, was ich im Edit beschrieben habe. Vielen dank dir!
Man muss erst einmal richtig durch blicken. Aber wenn man es dann geschafft hat, dann ist es echt einfach :d

Jetzt muss ich nur noch raus finden, wieso meine Shares dann ein Gelbes Ausrufezeichen haben, nach der Umstellung, dass zu erst der Cache benutzt werden soll, satt alles immer direkt auf das Array zu packen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich glaub das Ausrufezeichen kommt wenn keine Sicherheit vorhanden ist. Im Pool kein raid/ im array keine parity.
 
Okay verstehe.
Pool hat kein Raid. Ist nur eine einfache NVMe SSD.
Array hat aber eine Parity.

Danke dir auf jeden fall!
 
Hier mein "kleiner" Unraid Server.
Ich betreibe ihn ca 12 Monat basierend auf Unraid 6.12. Das Ding hat auch einige Kameras dran und läuft deshalb 24/7.
Weiters laufen noch 13 Dockers und 2 VMs. Verbaut sind folgende Teile:

Intel Core i3-13100, 4C/8T, 3.40-4.50GHz, boxed
GIGABYTE B760M Gaming X DDR4 mit 64GB
SilverStone Case Storage CS351, schwarz (SST-CS351)
BeQuiet 400Watt NT
Intel X710 Dual 10GB NIC
3 x Exos HDD 16TB
1 x Toshiba N300 HDD 14TB
1 x Samsung 980pro NVME 2TB für den Cache

Festplatten Array & Gehäuse Lüfter werden durch eine Lüftersteuerung von aquacomputer gesteuert. Also nur wenn wirklich Wärme produziert wird, laufen sie an bzw erhöht sich die Drehzahl

Mit dem Stromverbrauch bin ich zufrieden.
Das Gehäuse ist supotimal für die HDD Belüftung. Hier musste ich einiges optimieren. Die Exos sind definitiv nicht leise aber PReis/Leistung finde ich gut
Ansonsten läuft das Ding super stabil & recht leise. Da ich auch viel Videoschnitt betreibe, kommt mir die 10GB Anbindung für Projekt Files auf der NVME ziemlich zu gute.
Ich finde für meinen kleinen "Hausgebrauch" die Idee des Unraid Systems hervorragend.
Gruß aus Österreich
IMG_0591.jpeg




Bildschirmfoto 2024-01-24 um 07.58.23.png
 
Zuletzt bearbeitet:
Schickes Teil, gefaellt mir :d
 
Nett sparsam, die Gurke. Meine AM4 Gurke braucht irgendwie mehr (ist auch mehr drin... dafür kein 10g)
Wie heiß wird das Ding denn, bzw. kannst du sagen, wie viel Unterschied das im Verbrauch macht, idle wie Zugriff?
Wäre interessant, wie die gleiche Verbrauchs-Kurve mit Onboard-LAN ohne der Karte aussehen würde.
 
Nett sparsam, die Gurke. Meine AM4 Gurke braucht irgendwie mehr (ist auch mehr drin... dafür kein 10g)

Wie heiß wird das Ding denn, bzw. kannst du sagen, wie viel Unterschied das im Verbrauch macht, idle wie Zugriff?
Wäre interessant, wie die gleiche Verbrauchs-Kurve mit Onboard-LAN ohne der Karte aussehen würde.
Ich habs ehrlich gesagt nie mit der Onboard Realtek probiert. Im aktuellen 6.12.6 gehen Realteks scheinbar auch nie in tiefere C States und 10GB war mir immer wichtig.

Hab mal 5min iperf3 von einem PC zum Unraid laufen lassen. Flir Cam von aussen zeigt knapp 40 Grad der Karte. Die USV springt dabei um etwa 5 Watt nach oben. Das aber ohne Gewähr.

Korrektur: ich hatte mal eine x540, aktuell ist nun aber eine Intel x710 drinnnen (sollte noch sparsamer als die Intel x540 sein; schon der Kühlkörper ist deutlich kleiner)

20240124T171540.jpg
 
Zuletzt bearbeitet:
Wie weit verträgt sich truenas eigentlich mit 40g oder 100g NICs?

Nein, ich frage nicht für einen Freund.
 
Wird Kostspielig solche NICs auszureizen :d Es vertraegt sich genauso gut / schlecht wie jedes andere BSD auch mit solchen Karten.
 
Mal so ne Frage in die Runde.
Gibts irgendwo ne Ansammlung an Daten wo verschiedene Server in verschiedenen Situationen Stromverbrauch auflisten?
 
Mal so ne Frage in die Runde.
Gibts irgendwo ne Ansammlung an Daten wo verschiedene Server in verschiedenen Situationen Stromverbrauch auflisten?

Ist allerdings nur Idle und Last
 
Hi,
ich möchte mein altes Zyxel NAS auflösen und eine VM hinstellen, welche per Freigabe mit Nutzerverwaltung Files im Lokalen Netz anbietet. (Fotos, Videos der Klassiker eben.)
Dazu soll ein gespiegelter Raid zum Einsatz kommen, welcher aus 2x EXOS x20 besteht und mit an den LSI Controller gehangen wird.
Aktuell bin ich noch vor- und Nachteile abzuwägen, eigentlich reicht eine Platte, Backup wird von allen VMs per veeam gezogen.
Gefühlt habe ich keinen Mehrwert, außer das alle Dienste im Ausfall einer der beiden Platte weiter laufen.

Hinzu kommt noch der Plan, die GPU loswerden und auf einen 5700G zu wechseln, damit die 8 Kerne weiterhin vorhanden sind + eben der APU Unit.
Der Server um den es geht, ist ein reiner Virtualisierungshost, mit esx7 als Hypervisor, welcher VMs und Container als Dienste bereit stellt.

  • Prozessor (CPU): Ryzen 2700X im Bios auf 75W beschränkt
  • Arbeitsspeicher (RAM): 32 GB Ram Cruncial CT32G4DFD8266.C16FE (bald noch mal 32GB mehr, die sind schon bestellt)
  • Mainboard: B450 TOMAHAWK MAX II
  • Netzteil: BQ-750W, Generation kann ich gerade nicht sagen
  • Gehäuse: Sharkoon VS4
  • Grafikkarte: Geforce 460
  • HDDs/SSDs:
    • LSI Controller DELL PERC H710 im Admin Modus, an dem 3x 512 GB Desktop SSDs hängen (Samsung 850 - 500 GB) --> stellt über Raid-Z1 NFS LUNs bereit
      • mir ist bewusst, dass die Sorte SSDs nicht optimal sind, aber auf dem ganzen System ist so dermaßen wenig Last, dass es aus meiner Sicht egal ist
    • an SATA Port0 hängt eine 1TB 860, welche ESX bereit stellt und Speicher, der nur noch von einer TrueNAS VM verwendet wird
Eigentliche Frage?
Nun ist aber die Frage, ob ich nicht gleich das Board mit dem B450 Chipsatz tauschen sollte, weil evtl. noch irgend ein Flaschenhals vorhanden ist, an den ich evtl. gerade nicht denke.
Sollte ich noch an irgendwas denken, wenn ich schon am Aufrüsten bin?
 
Mittlerweile hab ich fast alles zusammen... :unsure:

Thermaltake Level 20 VT
Thermaltake GF1 650W
Supermicro X13SEM-TF
Xeon Gold 5416S
Noctua NH-U12S DX-4677
4x Samsung RDIMM DDR5 4800MHz 64GB
SSD wird wohl KC3000 4 TB

Mir graut's schon vor dem Zusammenbasteln, :cautious: aber alle paar Jahre muß das halt mal sein. :rolleyes2: Der "Alte" ist jetzt bald 5-jährig.
 
Das wuerde ich auf keinen fall kaufen.
Lieber den Kram aus meiner Signatur oder aehnliche Komponenten.

(Board: AsrockRack B650D4U-2L2T/BCM ; Ram geht pro Stick max. 48GB.)
Sollte aber deutlich guenstiger UND performanter sein als dein Vorschlag.

Außer du brauchst natuerlich over9000 PCI-E Lanes und die ganzen Slots. Dann kommst um ne 'richtige' ENterprise-Plattform nicht herum.
 
Zuletzt bearbeitet:
@p4n0 was hast du für die Board+CPU+RAM Kombination bezahlt?
 
So geht's mir mit Deinem Vorschlag.
CPU kann scheinbar nur 128 GB... https://www.amd.com/en/product/13496
Board 192 GB...
Mir ist das zu wenig für 'n Server, der ein paar Jahre reichen soll. :-)
Hast du solch eine hohe RAM Anforderung denn wirklich oder handelt es sich eher um Basteltrieb-Befriedigung? Selbst mit den lausigen 64GB fliegt meine ZFS appliance foermlich. Keine Anzeichen von Performanceproblemen.
Die Moehre liegt so bei deutlich unter 100w. Bei dir wirds sicher doppelt soviel Strom fressen bei halber Leistung.
Beitrag automatisch zusammengeführt:

@p4n0 was hast du für die Board+CPU+RAM Kombination bezahlt?
Ram = 463,60€
Board = 550,54€
CPU = 445€

Der vorgeschlagene Xeon samt SM Bord schlaegt schon mit > 2k zu Buche.
Ohne RAM wohlgemerkt. Macht wirklich nur sinn wenn du die ganzen Lanes brauchst und WIRKLICH soviel Ram im Homelab benoetigst.
 
Zuletzt bearbeitet:
@p4n0 was hast du für die Board+CPU+RAM Kombination bezahlt?
RAM ca. 800
Board ca. 800
CPU 950
Hast du solch eine hohe RAM Anforderung denn wirklich...
Ich arbeite mit VMware. Muss mich aber auch mit Hyper-V auseinandersetzen, manche Kunden haben das. Ich will nur eine physische Maschine, aber darin sollen dann verschiedene Cluster laufen. Dann Veeam (B&R, One) auf allen Clustern. Etliche VMs natürlich. Und Proxmox möcht ich halt auch mal probieren. Da es für den Job ist, kommt's auf 1k mehr nicht drauf an. Es soll lieber ein paar Jahre reichen. Mit dem SM-Board und der CPU kann ich die 256 GB RAM auch noch erweitern.
Bei dir wirds sicher doppelt soviel Strom fressen
Das ist mittlerweile schon ein Ärgernis. Aber wenn ich da so die Kollegen anseh, die daheim zocken mit ein oder zwei KW... :sneaky:
 
Verstehe deinen UseCase nicht so ganz. Dann kaufst dir neue enterprise HW fuer teuer Geld wegen 'bisschen' mehr RAM und hast im endeffekt trotzdem nur 256GB?
Wenn das das Argument fuer so ein Boot ist - wieso dann nicht irgend ne HP Gen10 Kiste gebraucht organisieren?
Da stecken gern mal 512GB RAM und mehre CPUs fuer nen Appel und n Ei drinnen.
Stromverbrauch scheint bei dir ja kein Thema zu sein :d
Weil P/L Technisch halte ich das fuer total gaga was du da vor hast. Zumal VMWare mit ESX sowieso essig ist. Single Node um Cluster zu testen? Macht vielleicht fuer ein bisschen Bastelei sinn.
Wenn das Telefon nachts um 3 Klingelt weil beim Kunden die Bude steht hilft dir das idR nicht viel, denn dort stehen richtige Cluster mit verteilten Storagesystemen herum...
 
Nett, aber wenn man richtig ECC haben will wirds arg teuer. DDR5 ECC SO-DIMM….
Und der PCIE4 Port ist auch „nur“ mit x8 angeschlossen.
 
erstes AM5 NAS board von cwwk oder?

Hab ich den Filter falsch gesetzt oder gibts wirklich nur 10 Riegel DDR5 So-Dimm mit ECC?


Die 2x NMVME M2 Slots sind übereinander?
Da steht auf einem Bild PCI-E 3.0 X4 und beim anderen PCI-E 4.0 X2.
Also wird der bei 3.0 auch nur mit x2 angebunden sein?
Jedenfalls sollte man da wohl nix verbauen das sehr heiss wird.^^

Bin aber sehr auf den Stromverbrauch gespannt.
Irgendjemand wird's schon kaufen und dann testen.

USB 4.0 ist jedenfalls cool kann man direkt Verbindung zu zweitem PC mit USB 4.0 für 40Gbit/s link erstellen.
Dann kann man die NVME SSDs auch richtig auslasten.

ansonsten 430$ für das Board... + 2x 30.- für ne SFF-8643 zu Sata Adapter.
 
Zuletzt bearbeitet:
Ein 7840HS/8840HS hat keinen ECC-Support. AMD Spec => "ECC-Support: no"
Ferner ist das Board kein AM5, sondern die CPU aufgelötet. => SoC-Board.

Vergleichbar, wenn auch vmtl. etwas sparsamer, also mit einem 8700G.
 
Stimmt... die alte generation 5825U hatte ja noch ECC, aber die neue HS haben das nicht.
 
Verstehe deinen UseCase nicht so ganz.
Das macht ja nix.
... wieso dann nicht irgend ne HP Gen10 Kiste gebraucht organisieren? Da stecken gern mal 512GB RAM und mehre CPUs fuer nen Appel und n Ei drinnen.
Der ist laut, verbraucht viel Platz, hat alte RAM-, CPU-, und Sonstnoch-Technik, die mich nicht interessiert. "Alt und billig" ist mein Use Case jedenfalls nicht, sondern: DDR5, PCIE 4 NVME und eine CPU, welche deutlich mehr als 128 GB kann und erst in vier Jahren wieder zum alten Eisen gehört. Also sagen wir mal etwas anders rum: virtualisierungstüchtige, aktuelle PC-ähnliche Server-Hardware, die dadurch auch wohnungsgeeignet und ehefrauverträglich ist.
Zumal VMWare mit ESX sowieso essig ist.
Hier nicht. Haben weiterhin neue Projekte. Ich seh auch net, daß sich das bald ändert. Es gibt ja keine sinnvollen Alternativen.
Hyper-V ist unbrauchbar. Weil Windows. Hab da bei Kunden, die nicht von uns beraten wurden, noch keinen Server gesehen, der länger als 90 Tage lief bis zum Infarkt. Meist deutlich weniger. Bei ESXi dagen 450+ Tage. Auch wenn das überhaupt nicht sinnvoll ist, aber können tun die das. Und mit Open Source braucht man hier auch niemand zu kommen, da hat hier kein Kunde Bock drauf. Das geht vielleicht bei Forschungseinrichtungen, die kein Geld verdienen müssen, sondern welches verbrauchen.
 
Welche denn? Daß man in Zukunft einen gültigen Supportvertrag braucht? Das haben wir ja bisher auch schon so gemacht. Jetzt ist es halt "Zwang", wie bei Veeam. Da regt es ja auch niemanden auf. :coffee2:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh