Eigenbau NAS im Test - Eine Leidensgeschichte in mehreren Akten

@mgutt
Das ist ja interessant.
Das heißt, der spreizt einfach den Test weiter? Sprich bei einer 40GB HDD könnte ich damit quasi dann die Spurenbereiche testen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja aber CDM testet nicht die komplette Datei. Daher sage ich, dass CDM lügt.
Nein, aber CrystalDiskMark testet immer das Maximum, also gibt dann halt den Best-Case wieder. Für die von dir genannten Zwecke hilft das freilich wenig. In unseren SSD-Reviews nutzen wir dazu den SSDStresstest, AIDA64 kann mit einem leeren Laufwerk praktisch das selbe.
 
Hallo zusammen,

Also als erstes finde ich persönlich Synology, QNAP und co einfach nur klasse, da haben sich Entwickler was bei gedacht und was tolles auf den Markt gebracht.für einen leihen oder solche die keine Zeit und Lust haben, sich ewig Linux/Unix auseinander zu setzen völlig ausreichend und akzeptabel.

Ich persönlich hab mir für den privaten Bereich eigenes NAS zusammengestellt, man könnte sagen zusammengebastelt.

Meins besteht aus:
OS: centOS auf ssd, kein raid
24x7 Mainboard
8core
4x4TB 24x7 HDD'S (leider sehr laut für das Wohnzimmer), da es nur das Backup-Ziel ist, ist es ok
2x SSD raid 1 Cache
2x10GB Netz failover (überdimensioniert)
Und RAID 5 (Software RAID) write-back
60 Watt

Warum eigentlich diese Bastelei? Mir macht es Spaß mit Linux bzw. auf der Konsole zu hacken/arbeiten und so ein Raid Kontrolle kostet ohne Batterie pack 500$ aufwärts.

Ich weiß für das gleiche Geld hätte mir auch Synology und co. (SW Raid) leisten können, aber leider vertraue ich keinem Anbieter und keinem Mensch dieser Welt, aber das ist selbstgemachtes Problem und das ist mir bewusst.

Opensource ist zwar toll, aber bei manchen Tools, muss man einfach die Finger von lassen, aus meiner Sicht eignen sich nur bedingt.

Cockpit ist zwar auf meiner Mühle (default) installiert, eignet sich jedoch eher nicht zum administrieren, zum Monitor, ist es okay.

Möchte nur meine Erfahrung teilen und niemanden schlecht darstellen.

P.S.
Wenn man manch so ein Kommentar liest, verzweifelt man langsam an der Menschheit!

LG Locky
 
Ist mein NAS nun lahm wie Sau oder super schnell? Kommt drauf an. Wem 30GB zu wenig sind, dann ja (Wobei ich dazu sagen muss, dass ich für diesen Test meinen 1TB SSD Cache deaktiviert habe ;) )
Ich wuerde sagen, dass dein skizziertes Szenario eher in die Kategorie 'Brandgefaehrlich' faellt.
Ein NAS sollte nie ein Network-Attached-Trashbin sein, denn nichts anderes ist das Teil wenn man stupide in den RAM 'schreibt'.

No offense gegen dich, ich verstehe die Problematik hier. Es ist schwierig 'genormt' zu benchen.
Ich persoenlich halte Werte nur fuer Belastbar, wenn sie tatsaechlich weggespeichert wurden. d.h. plp-ssds als cache und von mir aus spinning rust.
Alles andere... Naja.

Grueße
 
Ich wuerde sagen, dass dein skizziertes Szenario eher in die Kategorie 'Brandgefaehrlich' faellt.
Ein NAS sollte nie ein Network-Attached-Trashbin sein, denn nichts anderes ist das Teil wenn man stupide in den RAM 'schreibt'.

20% Schreibcache und 30 Sekunden Haltezeit ist der Linux-Standard. Oder willst du damit jetzt sagen, dass es viel gefährlicher ist 30GB an Daten zu verlieren, statt "nur" 12GB?

Bei 1.3 GB/s der SSD ist der RAM übrigens in 23 Sekunden leer. Schafft die USV gerade so 😝

Ein definierte Testordner auf das NAS kopieren und dabei den Datenverkehr mittels Tool aufzeichen?

Ist vermutlich etwas Overhead dabei, sollte aber genauer sein als das was Windows selbst angezeigt.

Das heißt, der spreizt einfach den Test weiter? Sprich bei einer 40GB HDD könnte ich damit quasi dann die Spurenbereiche testen?

Wenn du auf einer 40GB HDD einen 40GB Test mit CDM fährst, dann schreibt der die ganze Platte voll und liest per Zufall von verschiedenen Positionen. Was du nun mit Spurenbereiche meinst, sorry keine Ahnung ^^
 
Zuletzt bearbeitet:
20% Schreibcache und 30 Sekunden Haltezeit ist der Linux-Standard. Oder willst du damit jetzt sagen, dass es viel gefährlicher ist 30GB an Daten zu verlieren, statt "nur" 12GB?

Bei 1.3 GB/s der SSD ist der RAM übrigens in 23 Sekunden leer. Schafft die USV gerade so :P
Ich will das hier jetzt nicht auf die Spitze treiben :d

Nutze daher auch einfach n FreeNas mit Syncwrites und fertig. Mag zwar nicht so 'schnell' sein, doch dafuer weiß ich sicher, dass meine Daten vollstaendig und konsistent sind.
 
Nutze daher auch einfach n FreeNas mit Syncwrites und fertig.

Wie viele Zufälle müssten da zusammen kommen. Wichtige Daten verschieben, die vorher noch in keinem Backup steckten, das NAS darf die Daten noch nicht auf die SSD geschrieben haben und dann muss der Strom ausfallen und die USV versagen. Murphys Law würde eher den Blitz einschlagen lassen und NAS und Client gleichzeitig töten ^^
 
Wie viele Zufälle müssten da zusammen kommen. Wichtige Daten verschieben, die vorher noch in keinem Backup steckten, das NAS darf die Daten noch nicht auf die SSD geschrieben haben und dann muss der Strom ausfallen und die USV versagen. Murphys Law würde eher den Blitz einschlagen lassen und NAS und Client gleichzeitig töten ^^

Geht doch einfach ums Prinzip. Ich brauche mir den ZFS Schuh doch nicht anziehen, wenn ich keinen Wert auf ein sauberes System lege.
Und so n ZFS Filer ergibt halt kaum Sinn, wenn man die Syncwrites deaktiviert.

Es reicht in deinem Szenario uebrigens aus, dass die USV tot umfaellt. Dann ist die Maschine aus und dein Dateisystem mit Pech brei. Nein danke :d
 
Zuletzt bearbeitet:
OpenMediaVault
- schlechtes Dashboard
- sehr niedrige Hardwareanforderungen
- wird häufig auf einem RPI installiert
- VM, Docker... lieber nicht ^^

Alle anderen OS halte ich für irrelevant.

Hast du OMV (OpenMedaVault) mal inder aktuellsten Version genutzt? Da gibt es ein komplett neues Dockermanagement, was echt sehr gut läuft.
Klar man bekommt es mal nich eben in 1min hin, aber prinzipiell find ichs gut.
Und wie oft guckt man ins dashboard... Kaum bis garnicht, ansonsten find ich OMV sehr gut und fahre damit seit Jahren aufm NAS sehr gut.
 
Hast du OMV (OpenMedaVault) mal inder aktuellsten Version genutzt? Da gibt es ein komplett neues Dockermanagement, was echt sehr gut läuft.
Klar man bekommt es mal nich eben in 1min hin, aber prinzipiell find ichs gut.
Und wie oft guckt man ins dashboard... Kaum bis garnicht, ansonsten find ich OMV sehr gut und fahre damit seit Jahren aufm NAS sehr gut.
Mir gefällt bei OMV das USB Backup Plugin ziemlich gut. https://www.openmediavault.org/?p=936
 
Hast du OMV (OpenMedaVault) mal inder aktuellsten Version genutzt? Da gibt es ein komplett neues Dockermanagement, was echt sehr gut läuft.

Nein, ich kenne nur einige Youtube-Videos von dem netten Mann mit Brille ^^ (Techno Dad Life)

Oder aktuelle Anleitungen wie diese:

Also wenn das jetzt nicht gerade erst vor ein paar Wochen eingeführt wurde, sehe ich da keinen nennenswerten Fortschritt. Bei Unraid geht das so: Apps-Tab öffnen -> Container suchen -> Download-Icon anklicken -> Pfade prüfen -> Starten. Und das komplett ohne den Overhead irgendeiner VM.

Ich muss scheinbar auch meine Angabe zu FreeNAS ändern. Laut seiner Aussage geht es nur noch mit Portainer in einer VM:

Das wäre ein gewaltiger Rückschritt in meinen Augen, denn man will ja als Container Nutzer gerade eben keine VM. Ich habe zB einen Debian Container im Einsatz, damit ich gerade keine VM dafür anlegen muss.
 
Ich empfehle einfach Linux oder FreeBSD zu lernen und die Maschine fernab jeglicher fertiger Lösungen zu konfigurieren, wenn man wirklich von einem Bastelprojekt sprechen will.

Hoher Lerneffekt, maximale Flexibilität, extrem effizient bzgl. System-Ressourcen. Dann ist man auch nicht auf OMV, TrueNAS etc. angewiesen und kann sein System so formen wie man möchte.

PS: Die Hardware-Auswahl ist fernab jedes Verständnisses eines Bastelprojekts meiner Meinung nach. Wenn ich basteln und spielen will schnappe ich mir ein billigen Intel i3, dann habe ich auch Transcoding per iGPU mit drin. Und kein Xeon-Brett.
Beitrag automatisch zusammengeführt:

Transcoding, sofern es unterstützt wird z.B., mehrere VMs parallel laufen lassen, usw. Wenn für dich da ein Celeron reicht, ist das doch gut. Muss aber nicht für jeden Anwender ausreichend sein.

Pauschal immer zu sagen "mehrere VMs parallel laufen lassen" benötigt eine hoch potente CPU ist eine Milchmädchen-Rechnung. Auf meinem Heim-Server laufen 4 VMs, 3 Container und das Host-System hat noch emby, cifs etc. am laufen.

Betrieben auf einem i3 6100. Auslastung des Systems im Durchschnitt auf die letzten 30 Tage 20%, auf die 365 Tage 16%. Die Anzahl der VMs, Container etc. sagt überhaupt nichts darüber aus, wie potent eine CPU sein muss :)
Beitrag automatisch zusammengeführt:

zum schluss, wer braucht 6x8TB datengrab?

Das ist ja eine rein persönliche Sache. Ich kann deine restliche Kritik verstehen und stimme ihm zu aber hier verstehe ich nicht, was dich stört.

Es gibt Leute die Sammeln ihre Musik im FLAC-Format, frisst viel Speicher. Es gibt Leute die rippen ihre eigenen Blu-rays um nicht aufstehen zu müssen. Es gibt Leute die Filmen gerne und haben ein riesiges Archiv an Urlaubsmaterial.

Ich kenne genug Anwendungsfälle, wo man mit 1 TB nicht weit kommt.
 
Zuletzt bearbeitet:
Die Anzahl der VMs, Container etc. sagt überhaupt nichts darüber aus, wie potent eine CPU sein muss :)

Wenn man VMs im Einsatz hat, die nichts tun, warum dann uberhaupt die VM? Mal davon abgesehen, dass man dadurch RAM blockt. Sicher, dass du davon nichts in Container auslagern kannst?
 
Wenn man VMs im Einsatz hat, die nichts tun, warum dann uberhaupt die VM? Mal davon abgesehen, dass man dadurch RAM blockt. Sicher, dass du davon nichts in Container auslagern kannst?
Container machen nicht immer Sinn, insbesondere wenn man experimentelle Software oder Projekte von Github nutzt. Da reicht ein Panic im Container und der ganze Host ist gleich mit weg. RAM ist so billig wie nie, und auch eine VM braucht nicht so viel RAM, jedenfalls nicht unter ESXi.
 
Wenn man VMs im Einsatz hat, die nichts tun, warum dann uberhaupt die VM? Mal davon abgesehen, dass man dadurch RAM blockt. Sicher, dass du davon nichts in Container auslagern kannst?

Weil die VMs nur punktuell etwas tun müssen. Ich habe z.B. eine FreeBSD-VM (daher mit dem Container), welche nur in gewissen Momenten 100% der zugewiesenen Leistung benötigt. Die sind selten, jedoch existent.

Dann habe ich einige Software in VMs, welche ich nicht in Containern laufen lassen kann oder will. Manche Software funktioniert nicht in unpriviligierten Containern oder ich habe hier Software, welcher ich nur bedingt vertraue und daher zur besseren Isolation in einer VM vorziehe. Auch kann ich die VMs besser überwachen als die Container.

RAM blocken die übrigens nur bedingt. Dazu hat die Maschine 48 GB. Davon sind nur 16 GB den VMs zugewiesen. Im Schnitt sind auf dem Server auch noch 40% frei. Auch hier wird der RAM von punktuell mal stärker ausgelastet.
 
Moin!
Der "Test" ist insgesamt ziemlich halbgar und oberflächlich hingerotzt!

1. IPMI: das Mainboard hat einen AST2500 BMC Controller der grundsätzlich volle Remote-KVM Unterstützung bietet - wobei AsRockRack diese im ggs. zu Asus diese auch von vornherein ermöglicht (bei einigen Boards von Asus muß hierfür ein Tochterboard mit Netzwerkschnittstelle erworben werden.)

Wenn die volle Remote-KVM Unterstützung nicht genutzt werden kann wäre also zu (er)klären, warum nicht.


2. TruNAS 12.1
Warum nicht die freigegebene 12.0 Release oder zumindest die 12.0RC1 - falls der "Test" vor dem 20.10. begonnen wurde??
Die 12.1 erscheint mir eine Entwicklerversion zu sein!


3. "In der großen Anzahl an Suchmaschinentreffern zum Thema Do-It-Yourself-NAS könnte man glauben, man schnappt sich einfach die Hardware, schiebt mal fix die Software auf den Stick, installiert ein wenig, macht ein paar Einstellungen und kann dann mit den großen namenhaften Herstellern mithalten oder sogar diese in der Funktionalität oder Leistungsfähigkeit überbieten. "

Das kann schonmal nicht klappen, da die FertigNasen insgesamt weitaus mehr Dienste/Funktionen integriert haben als die NAS-Distris - selbst mit zuladbaren Plugins (z.B. bei OMV).
Wer also z.B. die Fotostation von QNAP als KO-Kriterium sieht, wird mit keiner NAS-Distribution glücklich, (Selbst wenn man die zu Grunde liegende Anwendung finden würde, so müßte diese händisch installiert und eingerichtet werden - als VM, Jail oder Docker)
Ansonsten macht es durchaus Sinn sich die NAS-Distribution nach den gegebenen Erweiterungen/Möglichkeiten auszuwählen, hier unterscheiden sich FreeNAS/TruNAS, XigmaNAS(NAS4Free), OMV und andere zum Teil erheblich.


4."Dem ist aber leider nicht so. Wenn man keine fundierten Kenntnisse bei der Software hat – und dabei ist es erstmal egal, ob man irgendeine der unzähligen Linux / FreeBSD-Versionen und Add-Ons oder auf Windows-Server setzt. Der Nutzer muss wissen, was und wie er es macht. "

Auch bei FertigNasen muß man wissen was man macht, sowie es über die "Standardeinrichtung" hinausgeht.
Bei FertigNasen erfolgt die Standard-/Ersteinrichtung i.d.R. Assistentengesteuert
Bei FreeNAS/TruNAS (und XigmaNAS) benötigt man im Prinzip ersteinmal überhaupt keine Kenntnisse von darunterliegenden FreeBSD, da alles über die WEBGUI einzurichten ist.
Dazu kommt bei FreeNAS/TruNAS, daß alles was auf der Konsole eingerichtet wird geht spätestens beim Update verloren.


5." Denn selbst wenn man etwas auf den klickbaren Oberflächen bedient, heißt es noch lange nicht, dass es auch übernommen wurde und funktioniert.

Siehe Punkt 2!!!!


6."Hier sei zum Beispiel die Rechteverwaltung unter TrueNAS genannt. Dies funktionierte erst, als man in der Konsole die Befehle erneut eingegeben hat, obwohl auf der Weboberfläche alles richtig eingestellt wurde. "

Welche Rechteverwaltung? UNIX/Posix oder Windows-ACLs?
Windows-ACLs verwaltet man bei ZFS am besten via Windows - z.B. via WinSCP.
ZFS ist hier in der Tat etwas anders als die sonst üblichen Dateisysteme von FertigNASen (EXT3/4, UFS usw.)
Dazu kommt, daß alles was auf der Konsole eingerichtet wird geht spätestens beim Update verloren - in wie weit das auf erteilte Unix/Posix Dateisystemrechte zutrifft, kann ich nicht sagen.


P.S. bei Windows heißt es "nutze nie ein OS vor dem 1. Servicepack"!
TruNAS ist noch recht neu und im Prinzip ein neues "Majorrelease" von FreeNAS.
FreeNAS11.x läuft Rockstable und ist ausgereift!


P.P.S.: Die verwendete Hardware ist deutlichst überdimensioniert - aber wie heißt es so schön im Luxx "Besser haben als brauchen" - und würde andererseits viel "Raum" für Spielereien ermöglichen :-)
 
Zuletzt bearbeitet:
In der großen Anzahl an Suchmaschinentreffern zum Thema Do-It-Yourself-NAS könnte man glauben, man schnappt sich einfach die Hardware, schiebt mal fix die Software auf den Stick, installiert ein wenig, macht ein paar Einstellungen und kann dann mit den großen namenhaften Herstellern mithalten oder sogar diese in der Funktionalität oder Leistungsfähigkeit überbieten
Da kommt es drauf an was man erreichen will. Ich hatte fast 10 Jahre verschiedene Synology NAS Modelle. Irgendwann hatte ich so viele HDDs, dass mich der Stromverbrauch nervte. Dank dem bescheuerten Konzept von Syno, dass auf wirklich jeder HDD das DSM und Pakete hinterlegt werden (und nicht zB nur auf dem ersten RAID Pool), war es unmöglich einzelne Pools oder gar alle HDDs schlafen zu schicken. Es gab nur die Option das ganze NAS schlafen zu schicken. Anfangs habe ich mir mit 3x DS213+ beholfen. Die kannten noch einen DeepSleep. Das Konzept wurde aber von Syno verworfen und so sparsam war das durch die Menge an NAS auch nicht mehr, da ich noch zwei gebraucht hätte. Mal abgesehen von dem hohen Wartungsaufwand und dem hohen Speicherplatzverlust (jedes mit RAID1). Als die DS1618+ zu klein wurde war ich es dann leid und der Wechsel zu Unraid war entschieden.

Und viel machen musste ich da nicht. Ich habe Unraid auf dem USB Stick installiert, in den Server gesteckt und gebootet. Installieren muss man erstmal nichts. Dann habe ich die Festplatten in einem Dropdown ausgewählt, die zum "Array" gehören sollen und ich habe einen Share "Filme" angelegt und einen passwortgeschützten User. Also genauso wie bei Syno. Dann fehlte mir noch Plex. Ich musste den "Apps" Tab bei Unraid hinzufügen, in dem man unter "Plugins" eine URL einfügt. Also wie bei Syno, wenn man Drittanbieter-Pakete nutzen will. Danach kann man unter "Apps" nach Plex suchen und installieren. Und der Rest ist dann ebenfalls gleich (über die Plex WebGUI die Einrichtung machen).

Bis hier hin ist der Aufwand und die Recherche die selbe. Denn eine Syno brauchte beim ersten mal auch Recherche. Habe ich erst letztes Jahr gemerkt als ich das erste mal ein QNAP NAS in Betrieb genommen habe.

Was dann allerdings stark abweicht ist die Backup und Datei-Explorer Funktionalität, denn beides ist von Haus aus nicht (wirklich) bei Unraid vorhanden. Ich selbst trage bei der Community mit passenden Skripten bei und überlege den Datei-Explorer zu verbessern, da ich es über Docker Container blödsinnig finde.

Wenn aber die Onboard Backup Funktion von einem PC ausreicht also zB die Windows Dateiversionierung und man ausschließlich Dateien über die SMB bewegt, dann braucht man ja nicht mehr. Und wenn man nicht mal sowas wie Plex benötigt, dann sollte es denke ich mit jedem NAS OS in kurzer Zeit laufen.

Gut, dass mit der NVMe SSD ist natürlich dumm gelaufen. Hätte ich auch nicht erwartet, dass es da bei FreeNAS so eine blöde Einschränkung gibt.
 
Soviel Beträge hier der Marke "Was mein limitierter Horizont ist muss auch der des anderen sein"
Es gibt genug NAS Nutzer, die das NAS nur einmal am Tag anwerfen um Dateien vom PC wegzusichern oder sich Mediafiles auf den Rechner packen, dann das NAS wieder abstellen. Also ein besserer Ersatz (mit Plattenausfallsicherheit) für externe USB Backupplatten. 24/7 / Hochverfügbarkeit / Ultrasicherheit über Raid5 hinaus und perfekte UIs braucht man in den Fällen eher wenig. Und genau für sowas ist so ein Bastelprojekt 1a. Macht bock und erledigt das nötige.
 
Das Teuerste bei einem NAS sind halt die Platten. Von daher sind 2600€ eigentlich noch ok.
 
Das Teuerste bei einem NAS sind halt die Platten. Von daher sind 2600€ eigentlich noch ok.
So viel hat mich damals etwa mein Epyc AiO Server gekostet, inkl. Platten.
Und der steckt dieses vorgestellte NAS hier sowas von in die Tasche.
 
@sch4kal
hast du den dann gebraucht bekommen? Oder warum so 'billig'?
 
Schade, dass einige hier nicht verstehen, worum es in dem Artikel gehen soll. Schließlich haben die Redakteure doch beschrieben, dass sie das mal versuchen wollten und mal aufzeigen möchten, dass es eben nicht getan ist mit Nachklicken von Tutorials. Das gleiche stelle ich allzu oft fest. Es klappt dann halt doch nicht und dann ist man aufgeschmissen.

Mal abseits des ganzen Hates: Ich habe auch mit dem Gedanken gespielt, mir ein solches NAS selber zu bauen und bin auf die exakt gleichen Probleme gestoßen.
  • UI funktioniert nicht zu 100%.
  • Plugins nicht nur per UI installierbar und wartbar, man muss in die Shell.
  • Man muss für allen möglichen Mist in die Shell.
  • Die Betriebssysteme sind zum Teil nicht wirklich ausgereift.
Das alles hat mich in Summe dann auch zum Synology greifen lassen, mit dem ich rundum zufrieden bin. Ich werde vielleicht irgendwann nochmal auf ein schnelleres Modell mit 10G upgraden, aber so eine TrueNAS/FreeNAS/etc-Kiste kommt mir nicht in's Haus, dafür ist mir meine Zeit zu schade.
 
Schade, dass einige hier nicht verstehen, worum es in dem Artikel gehen soll. Schließlich haben die Redakteure doch beschrieben, dass sie das mal versuchen wollten und mal aufzeigen möchten, dass es eben nicht getan ist mit Nachklicken von Tutorials.
Warum ist dann eine Auflistung der Komponenten inkl. Gesamtsumme interessant? Darum ging es in dem Artikel doch gar nicht?

Und hätte der Autor -wenn es darum ja gar nicht geht- dann nicht erwähnen können, dass die Config crap ist, da es darum ja auch gar nicht geht?
 
Warum ist dann eine Auflistung der Komponenten inkl. Gesamtsumme interessant?
Davon und der Stromverbrauchsmessung wurde ich auch angetriggert. 😅

Mir fehlte auch etwas Input wie die IPMI Situation. Aber warum kein Reboot. Nächsten Build bitte mit OMV oder Unraid. Die Redaktion hat doch sicher noch so einiges rumfliegen 😁
 
Warum ist dann eine Auflistung der Komponenten inkl. Gesamtsumme interessant? Darum ging es in dem Artikel doch gar nicht?
Weil sonst sicher andere Trolls angekommen wären und sich darüber beklagt hätten. 😃

Und hätte der Autor -wenn es darum ja gar nicht geht- dann nicht erwähnen können, dass die Config crap ist, da es darum ja auch gar nicht geht?
Crap liegt sicher im Auge des Betrachters. Sie haben geschrieben, dass sie das verwendet haben, was eh gerade da war. Wo ist das Problem?
 
Bei zfs sollte man ca. 1 GB RAM pro TB einplanen, bei 48TB sind 32GB tendenziell zu wenig, was zu Problemen geführt haben könnte und das Einbrechen der Leistung erklären könnte. Bei meinem zfs on linux füllt er schön immer den Speicher in etwa bis zu dem Wert (wäre in diesem Fall wohl 48 GB) als Cache. Einfach noch mal mit 64 GB RAM testen ;)
 
Bei zfs sollte man ca. 1 GB RAM pro TB einplanen, bei 48TB sind 32GB tendenziell zu wenig, was zu Problemen geführt haben könnte und das Einbrechen der Leistung erklären könnte. Bei meinem zfs on linux füllt er schön immer den Speicher in etwa bis zu dem Wert (wäre in diesem Fall wohl 48 GB) als Cache. Einfach noch mal mit 64 GB RAM testen ;)
IRRTUM!
Diese Aussage trifft nur zu, wenn auf einem Pool Deduplikation genutzt werden soll und auch nur für diesen Pool - wirklich ausschließlich nur dann!!
Ansosnsten gilt - "je mehr Ram desto Bums"!
Der RAM, der nicht vom OS und ggf. weiteren Diensten (z.B. Plex) belegt/benutzt wird, wird als Filecache genutzt - für das OS kann man i.d.R. 2-4 GB einplanen, je nach NAS-Distri.
 
Diese Aussage trifft nur zu, wenn auf einem Pool Deduplikation genutzt werden soll und auch nur für diesen Pool - wirklich ausschließlich nur dann!!
Bei deduplikation brauchst du eher noch mehr


Die truenas Doku sagt dazu:

Deduplication depends on an in-RAM deduplication table with a suggestion of 5 GB per TB of storage.

Edit:
Die Doku sagt auch:

In general, if there are more clients connecting to the FreeNAS system, it will need more RAM. A 20 TB pool backing lots of high-performance VMs over iSCSI might need more RAM than a 200 TB pool storing archival data. If using iSCSI to back VMs, plan to use at least 16 GB of RAM for reasonable performance and 32 GB or more for optimal performance.

Ein Lasttest ist wohl eher nicht der Archiv Fall sondern geht eher in Richtung high-performance, da wäre es schon gut wenn das System schon mal soviel Cachen kann wie es mag. Bei meinen zfs Umgebungen kommt der angemeldete Eigenbedarf von zfs ziemlich genau auf das 1GB per TB. Ich habe eine Zeit lang einen Server mit 24 3TB Platten also 72TB betrieben mit 128 GB RAM, die 64GB waren dann auch minimum belegt. (Das war ein Setup mit 4 * 6 RAIDZ2 stripped pools) Jetzt habe ich runter skaliert auf zwei mal mirror stripped mit 4 * 3TB da nimmt er sich eher nur 5GB. Wobei wenn ich so schaue bezieht es sich wohl eher auf den "nutzbaren" Speicher. Aber zfs hat viele Parameter wo man optimieren kann und je nach Anwendungsfall macht die eine Optimierung mehr Sinn als die andere. Nur eins ist sicher zfs braucht RAM und lieber genug als zu wenig.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh