• Hallo Gast!
    Noch bis zum 20.07. kannst Du an unserer Umfrage zum Hersteller des Jahres teilnehmen! Als Gewinn verlosen wir unter allen Teilnehmern dieses Mal eine Grafikkarte Eurer Wahl für bis zu 1.000 EUR - über eine Teilnahme würden wir uns sehr freuen!

OS für mein Selbstbau-NAS

dstockm

Enthusiast
Thread Starter
Mitglied seit
12.12.2014
Beiträge
73
Hallo,

ich hoffe ich bin hier trotz "Hardware"-Forum nicht ganz falsch...

Ich habe mir vor einiger Zeit einen Homeserver zusammengebaut:
4 Seagate IronWolf NAS HDD 10TB, SATA 6Gb/s (ST10000VN0004)
1 Intel SSD 600p 128GB, M.2 (SSDPEKKW128G7X1)
1 Intel Pentium Gold G4600, 2x 3.60GHz, boxed (BX80677G4600)
2 Samsung DIMM 16GB, DDR4-2400, CL17-17-17, ECC (M391A2K43BB1-CRC)
1 Fujitsu D3417-B2/D3417-B21 (S26361-F5110-V140)
1 Fractal Design Define R4 Black Pearl, schallgedämmt (FD-CA-DEF-R4-BL)
1 Seasonic G-Series G-360 360W ATX 2.3 (SSR-360GP)

Außerdem wären noch 2x 4TB WD red verfügbar, die schon ein wenig auf dem Buckel haben und im Moment in der Schublade schlummern.

Ursprüngliches Thema bzgl. der Hardware war:
https://www.hardwareluxx.de/community/f101/heimserver-selbstbau-1177699.html#post25857687

Die damaligen Software Anforderungen haben sich nicht geändert:
  • zu 98% Fileserver (aktuell 9 GB Enigma-Aufnahmen + 3 TB "echte" Daten (Dokumente, Fotos, Videokamera-Aufnahmen, Musik, etc.))
  • Web-Proxy (ohne Filter und Cache) - privoxy o.ä.
  • Plex o.ä.

Rein aus fehlender Einarbeitungszeit läuft die Kiste aktuell mit Windows 10. Das war nur als Übergangslösung geplant und nun will ich das Thema mal angehen.
Ich habe bereits ein wenig mit OMV herumexperimentiert, was mir soweit auch gefiel. Alleridngs kommen dann im Testbetrieb doch schnell Details ans Licht, die einem dann auch wichtig sind.

Was mir da bisher eingefallen ist:
  1. Automatisiertes Backup auf einen anderen Server (mit WOL und Shutdown des Backup-Servers). Das sollte sich wohl mit jedem Betriebssystem/Oberfläche bewerkstelligen lassen. Wichtig - sehe ich aber als gegeben an.
  2. Snapshots die sich in die Windows Vorgängerversionen einfügen. Hier ist nun mein Punkt, dass ich sehr ungern den Plattenplatz für eine vollständige Kopie verschwenden möchte. Bei meinen bisherigen Recherchen bin ich zu dem Schluss gekommen, dass ich das mit ext4 nicht hinbekomme und somit bei ZFS oder BTRFS lande.
  3. Datensicherheit/-verfügbarkeit mit Augenmaß: Ich brauche aus reiner Verfügbarkeitssicht kein RAID. Aber wo ich nun schon mal ECC-RAM habe, tendiere ich doch dazu auch gleich ein Dateisystem mit Prüfsummen zu nutzen. Und dann komme ich um eine RAID-Variante wohl doch nicht herum.
  4. Festplattenstandby. Mag in der Server-Welt befremdlich klingen. Aber ich komme damit einfach nicht klar, dass die Kiste manchmal tagelang absolut nichts zu tun hat und einfach nur Strom verbraucht. Dann sollen von mir aus die HDDs ein Jahr früher den Geist aufgeben. Ob sich das finanziell rechnet sei mal dahingestellt.

Also schwanke ich gerade zwischen btrfs und ZFS. Als Distro denke ich dann entweder an OMV oder ein "Desktop"-Linux ala Ubuntu für btrfs bzw. FreeNAS/NAS4free bei ZFS.
Meine Erfahrung bzgl. Linux würde ich mal auf erweitertem Einsteigerniveau einordnen. BSD? Ja, schon mal davon gehört.
Bei meinen Recherchen bzgl. ZFS hat es mir das professionelle Umfeld sehr angetan. Ich frage mich nur ob es zu professionell für mich ist (in erster Linie Einarbeitungszeit). Andererseits habe ich bspw. OMV mit btrfs, Snapshots und Samba mit vfs shadow_copy2 testweise recht zügig zum Laufen bekommen. Andererseits rät ja der eine oder andere derzeit noch von btrfs für den Produktivbetrieb ab und ich habe nichts passendes gefunden was btrfs von Haus aus mitliefert (Rockstor hat wohl kein HDD-Standby).

Ich bin im Moment dennoch ein wenig gehemmt meine Daten einem System anzuvertrauen, dass ich (zumindest anfangs) nicht wirklich im Griff habe. Andererseits muss nicht alles über das GUI möglich sein, solange man im Netz genügend Infos findet. Und das scheint mir bei beiden Varianten der Fall zu sein.

Lösungen mit verschiedenen virtualisierten Servern scheinen mir im Moment zu kompliziert bzw. erkenne ich da für meinen speziellen Fall den Nutzen (noch) nicht, weswegen ich in die Richtung nicht weiter geforscht habe.

Also was mient Ihr: Bin ich da in die richtige Richtung unterwegs? Und falls ja, ich welche Lösung sollte ich weitere Zeit investieren?

Ich muss gestehen, dass ich erst vor kurzem festgestellt habe dass Synology mit der DS218+ eine Lösung im Angebot hat, die mir wahrscheinlich auch gereicht hätte. Der Vorteil der fertigen Software gewinnt für mich gerade an Bedeutung gegenüber der flexibleren Varinate mit dem Eigenbau. Aber gut, nun steht die Hardware hier und ich ziehe das jetzt durch. Das Endergebnis wird (hoffentlich) ja deutlich über dem DS28+-Niveau liegen...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ZFS an sich ist nicht kompliziert, sobald man ein gewisses Grundverständnis für den Aufbau entwickelt hat. Ich setze es seit ~ 2013 auf BSD-Basis ein, zuvor hatte ich keine Ahnung von BSD.
Über Nas4free bin ich dann ran und hab mich auch mit den wichtigsten Befehlen auf der Konsole vertraut gemacht, um nicht voll auf eine GUI angewiesen zu sein. Mittlerweile mach ich die Pool-Administration grundsätzlich von der Konsole und nutze die Nas4free-GUI nur für die restliche Administration. Manchmal war die Nas4free-Gui etwas zickig, aber sie braucht weniger Ressourcen als FreeNAS und lässt damit mehr RAM für ZFS übrig. Ausserdem hatte das damalige FreeNAS bei mir rumgezickt und war nicht stabil. Mittlerweile sollte das kein Thema mehr sein, der größere Ressourcenverbrauch von FreeNas bleibt aber natürlich.
Ggü. btrfs ist ZFS sehr ausgereift und hat sich auf Solarish und BSD-Basis als extrem stabil herausgestellt. Btrfs entwickelt sich erst langsam.

Nas4free und ESXI haben mir quasi die Tür in die Serverwelt aufgestossen. Btw, Nas4free läuft bei mir als VM mit für ZFS an die VM durchgereichten Controllern (Stichwort vt-d, Passthrough).

OmniOS (oder das echte Solaris, ist für non-commercial Einsatz kostenfrei) solltest Du dir ggf. auch ansehen, zusammen mit napp-it als Oberfläche. Auch ne ziemlich tolle Kombi.
 
Zuletzt bearbeitet:
ZFS an sich ist nicht kompliziert, sobald man ein gewisses Grundverständnis für den Aufbau entwickelt hat. Ich setze es seit ~ 2013 auf BSD-Basis ein, zuvor hatte ich keine Ahnung von BSD.
Über Nas4free bin ich dann ran und hab mich auch mit den wichtigsten Befehlen auf der Konsole vertraut gemacht, um nicht voll auf eine GUI angewiesen zu sein. Mittlerweile mach ich die Pool-Administration grundsätzlich von der Konsole und nutze die Nas4free-GUI nur für die restliche Administration. Manchmal war die Nas4free-Gui etwas zickig, aber sie braucht weniger Ressourcen als FreeNAS und lässt damit mehr RAM für ZFS übrig. Ausserdem hatte das damalige FreeNAS bei mir rumgezickt und war nicht stabil. Mittlerweile sollte das kein Thema mehr sein, der größere Ressourcenverbrauch von FreeNas bleibt aber natürlich.
Ggü. btrfs ist ZFS sehr ausgereift und hat sich auf Solarish und BSD-Basis als extrem stabil herausgestellt. Btrfs entwickelt sich erst langsam.

Nas4free und ESXI haben mir quasi die Tür in die Serverwelt aufgestossen. Btw, Nas4free läuft bei mir als VM mit für ZFS an die VM durchgereichten Controllern (Stichwort vt-d, Passthrough).

OmniOS (oder das echte Solaris, ist für non-commercial Einsatz kostenfrei) solltest Du dir ggf. auch ansehen, zusammen mit napp-it als Oberfläche. Auch ne ziemlich tolle Kombi.
Wofür nutzt Du denn die Virtualisierung? Mir ist noch nicht so recht aufgegangen wofür man den zusätzlichen Aufwand betreibt. Doch sicherlich nicht nur um eine Neuinstallation des NAS-OS bei einem Hardwaretausch zu vermeiden.
Oder wirklich ein zweiter Server (z.B. Mail) den man lieber getrennt vom Storage laufen lässt?

Gesendet von meinem SM-G930F mit Tapatalk
 
Man kann entweder ein Betriebssystem nach Wahl nehmen und alle Dienste darauf installieren.

Problem dabei: Das neigt dazu relativ kompliziert zu werden. Wenn sowas mal abstürzt kann es sehr aufwändig werden das erneut aufzusetzen. Man brauch also ein genau geplantes Backup/ Crash recovery Konzept. Gefahr gibt bei jedem einzelnen Update. Läuft dieser Service oder das Gesamtsystem anschliessend noch stabil oder wie mache ich das Update ungeschehen.

Andere Option
Man nimmt einen Type 1 Virtualisierer wie ESXi. Der liegt wie eine Firmware mit Webmanagement unter allen Betriebssystemen. Damit kann man Dienste aufteilen, hat aber immer eine stabile Basis für die zwei Kerndienste Virtualisierung und Storage. Andere Dienste wie Plex oder Proxy haben ihre eigene Umgebung und das am besten geeignete OS.

Restore nach Crash ist für ESXi und eine reine minimale Storage VM (besonders mit ZFS und da nochmal mit Solarish Systemen) banal. Restore und Versionierung der anderen VMs ebenso.
 
Ich hab eh ein paar verschiedene VMs (verschiedene Betriebssysteme) am laufen, das kann dann wundervoll alles all-in-one effizient auf einer Maschine laufen. Ausserdem haben die VMs dann die Vorteil, die Virtualdisks auf dem ZFS-Storage (und damit Kompression, Snapshots, Backupmöglichkeiten, etc.) zu haben. Und das ganze noch ziemlich performant, da der Netzwerkverkehr dann auch über die virtuellen Switches geht und damit nur durch die CPU limitiert wird und auch die Storage dafür genug Power hat (hab 3 ZFS-Pools: 1*Raidz2 (6*6TB) für Medienfiles und Software-/Datenarchiv, 1*SSD-Pool (derzeit aus 2*2SSD (Mirror-Pärchen), im Aufbau und 1*NVME-SSD).

In eine Storage-Installation selbst gehört nichts drauf, damit da nichts Amok laufen kann. Storage immer schön isolieren.
In so einer All-in-one Maschine kann dann wunderbar alles laufen (gerade ESXI ist da sehr flexibel bzgl. Gast-OS) und ist trotzdem isoliert voneinander und hochflexibel verschiebbar. Und wie gea schreibt, leicht wartbar.
 
Zuletzt bearbeitet:
Mal weg von den Grundsatzfragen ein paar Erwägungen drumrum:

Virtualisierung macht m.E. vor allem bei Einsatz eines Solarish für Storage Sinn. Grund: Solarish ist was einen Filer angeht so ziemlich perfekt. Aber: „alles andere“ ist mit Solarish eher nicht so prall. :)

Was nicht heißen soll, dass nicht mit Solaris noch viel mehr geht, aber das gilt halt eher für die Profi-Anwendungen (Enterprise Serverdienste), die Daheim gewünschten Features gehen dann manchmal/eher nicht oder nur mit viiiiiiel Einlesen.

Darum greifen eben viele zur Virtualisierung: Solaris bekommt was es als Fileserver braucht (das muss nicht viel sein) und der „Rest“ des Systems kann eben für andere Späße genutzt werden. Zum Beispiel ein Linux für Media-Server, eine (Software)Firewall, VPN, Heimautomation oder was man sonst so gerne auf nem Raspi (als „Server“) hat... undundund. Da sind die Möglichkeiten dann quasi offen wie als wäre das System ansonsten „nackig“ - weil eben die Solarish-/Fileserver-VM nicht den ganzen physischen Rechner „blockiert“.
 
Das leuchtet mir ein: Aus beiden Welten das Beste kombinieren. Ich werde mal ein wenig lesen.
napp-it habe ich als Stichwort hier schon ein paar Mal gesehen, aber ich konnte damit auf den ersten Blick nicht viel anfangen (i.S.v. wozu brauche ich das).

Gibt's eine gute Adresse oder einen Thread hier im Software-Bereich wo man sich grundlegend schlau machen kann? Die Dinge die hier diskutiert werden, sind ja oft schon sehr speziell bzw. muss man da schon einen guten Background haben.
Auf Hardwareluxx bin ich auch er zufällig gestoßen und ich war echt überrascht dass ich an so einer Profi-Ecke noch nicht früher vorbeigekommen bin. Im Grunde bin ich ja über ganz normale PC-Hardware (-Fragen) erst auf den Trichter mit ESXi, FreeNAS o.ä. gekommen. Das steht ja nicht mal eben als Coverstory in der c't.

Bzgl. Hardware:
Ein extra Controller würde dann ja wohl noch fällig. Da habe ich bisher nicht die geringste Ahnung von. Wo fangen empfehlenswerte Controller preislich für 4-6 SATA-Ports an?
Und reichen meine 16 GB RAM für eine ESXi-Lösung mit 2 VM's ? Sagen wir mal ein FreeNAS mit 14-20 TB netto und ein Linux-Server oder -Desktop mit Kleinkram (Proxy, Plex ohne Transcoding)?
 
Napp-It ist - vereinfacht (Gea möge mir verzeihen) - eine Web-Oberfläche zur Administration der vor allem „Fileserver-relevanten“ Funktionen von Solarish, gerne allem für die freien Versionen OmniOS und Illumos(?).

Wenn du ernsthaft über ZFS nachdenkst, lohnt es sich m.E. sehr, Solaris und Napp-it einmal auszuprobieren. Ist vielleicht nicht so hübsch wie Windows, Synology oder Qnap GUIs, tut aber. :)

Preiswerte gebrauchte HBAs fangen so bei 50 Euro an. Dell h200 oder h310 bekommt man inzwischen recht günstig und bieten 8 Ports.

Mit 16GB kann man schon einiges machen. Aus dem Bauch würde ich für die Storage-VM mal davon 6-8GB einplanen. Ca. 2GB solltest Du für ESXi im Hinterkopf behalten und bleiben also 6-8GB für VMs. Je nach Anwendung gibt sihöch Linux ja gerne mit recht wenig zufrieden.
 
Napp-It ist - vereinfacht (Gea möge mir verzeihen) - eine Web-Oberfläche zur Administration der vor allem „Fileserver-relevanten“ Funktionen von Solarish, gerne allem für die freien Versionen OmniOS und Illumos(?).

Ist schon richtig.
Allerdigs genau so wie FreeNAS eine Web-Oberfläche für Free BSD ist oder OMV oder Synology eine Benutzeroberfläche für Linux. Diese haben allerdings eher den Homeuser als Ziel und bieten erheblich mehr Funktionen und Apps jenseits von Storage für den Home-Bereich während napp-it im Wesentlichen "nur" Storage pur bietet (FC/iSCSI, NFS, SMB + ZFS).

Kommt noch hinzu dass diese auf eine bestimmte Version ihrer jeweiligen Distribution festgelegt sind und diese mitliefern. Das macht vieles einfacher da nicht ständig neue OS Features oder Änderungen angepasst werden müsen.

Napp-it ist eine Weboberfläche mit vielen Automatismen und Bedienideen für Oracle Solaris 11.3/11.4 (Originales ZFS) und die freien Solaris Forks OmniOS und OpenIndiana mit Open-ZFS. Im Wesentlichen läuft napp-it direkt auf diesen normalen Enterprise Betriebssystemen (keine spezielle NAS Distribution) und kann unabhängig von diesen upgedated werden. Wenn eine neue OS Version wie aktuell Solaris 11.4 oder OmniOS 151026 kommt (im Mai, enthält lange erwartete Funktionen wie vdev Removal, omnios-build/ReleaseNotes.md at r151026 · omniosorg/omnios-build · GitHub muss man allenfalls kurz warten bis die angepasst ist oder neue Funktionen in der GUI sind.

ps
Illumos ist keine Distribution sondern das gemeinsame Entwicklerprojekt für alle freien Solaris Forks wie Delphix, Nexentastor, OmniOS, OpenIndiana oder SmartOS um die wichtigsten zu nennen. Das Verhältnis Illumos zu OmniOS ist fast wie Linux zu Debian.
 
Zuletzt bearbeitet:
Hoppla, bzgl. Napp-It bin ich hier ja wohl direkt an der Quelle :) Klingt durchaus interessant. Ich werde das testen, auch wenn ich noch einen ziemlichen Respekt davor habe. Werde versuchen vorher die Threads einigermaßen zu sichten...

Eine Frage noch: Wie sieht es mit dem Stromverbrauch aus? (HDD Standby, Link Power Management auch bei zusätzlichen HBA's, Prozessor) ? Da Napp-It ein professionelles Serverumfeld adressiert, dürfte Stromsparen ja sicherlich kein besonderer Schwerpunkt sein.
Wobei ich dann schon wieder überlege ob ich den zusätzlichen HBA überhaupt brauche. Wenn ich es richtig verstanden habe kann ich mit Napp-It auch quasi direkt installieren, so dass die Onboard-SATA's benutzt werden können!?
Zurzeit wäre eine zusätzliche VM in erster Linie nur für den Proxy (u. evtl. Plex) und da kommt mich mein vorhandener Raspi günstiger. Man muss ja nicht gleich alles auf einmal machen...
 
Die Rahmenbedingungen setzt nicht napp-it sondern ESXi wenn man alles inkl Storage virtualisieren möchte bzw. das OS wenn man direkt auf Hardware installiert. Den Extra HBA braucht man nur für viele Ports, SAS oder bei Virtualisierung damit die Storage VM direkten Zugriff auf Platten hat.

Bei Oracle Solaris spielt Energiesparen eine geringe Rolle und Platten schlafen lassen gar keine, entsprechend groß der Aufwand das einzurichten. Bei den freien Solaris Forks wie OmniOS oder OpenIndiana klappt das ganz gut und man kann das einfach im System > Powermanagement einrichten, muss aber alles abschaltet was regelmäßig auf Platten zugreift. Dazu gehört dann aber auch die Überwachung ob die Platten noch sauber laufen und email Alerts .

Viel sparsamer und ohne Einschränkung der Funktionalit ist einfach aus/ einschalten. Wenn man IPMI hat geht Einschalten auch remote. Man spart auch die Hochlaufzeit der Platten. Kann schonmal eine Minute dauern bis alle Platten wach sind und das System online.
 
Zuletzt bearbeitet:
Ich werfe mal unraid in den Raum [emoji3]

Nutze ich seit geraumer Zeit und bin sehr zufrieden [emoji12]

Gesendet von meinem CLT-L09 mit Tapatalk
 
Die Rahmenbedingungen setzt nicht napp-it sondern ESXi wenn man alles inkl Storage virtualisieren möchte bzw. das OS wenn man direkt auf Hardware installiert. Den Extra HBA braucht man nur für viele Ports, SAS oder bei Virtualisierung damit die Storage VM direkten Zugriff auf Platten hat.

Bei Oracle Solaris spielt Energiesparen eine geringe Rolle und Platten schlafen lassen gar keine, entsprechend groß der Aufwand das einzurichten. Bei den freien Solaris Forks wie OmniOS oder OpenIndiana klappt das ganz gut und man kann das einfach im System > Powermanagement einrichten, muss aber alles abschaltet was regelmäßig auf Platten zugreift. Dazu gehört dann aber auch die Überwachung ob die Platten noch sauber laufen und email Alerts .

Viel sparsamer und ohne Einschränkung der Funktionalit ist einfach aus/ einschalten. Wenn man IPMI hat geht Einschalten auch remote. Man spart auch die Hochlaufzeit der Platten. Kann schonmal eine Minute dauern bis alle Platten wach sind und das System online.

Danke. Bzgl. HBA lag ich dann ja richtig: Verzichte ich auf ESXi, weil ich erstmal keine weiteren VMs installiere, kann ich mir den sparen. Powermanagement klingt für mich erstmal gut. Die Details muss ich dann mal austesten. Mein Enigma könnte mir eine zu lange Anlaufzeit der Platten krumm nehmen und die Aufnahme canceln.

- - - Updated - - -

Ich werfe mal unraid in den Raum [emoji3]

Nutze ich seit geraumer Zeit und bin sehr zufrieden [emoji12]

Gesendet von meinem CLT-L09 mit Tapatalk

In der Tat interessant wegen der Felxibilität. Ausfallsicherheit spielt bei mir allerdings keine besondere Rolle. Als Btrfs-Variante aber mal zu bedenken.

Ich kämpfe mich gerade durch den ZFS-Stammtisch... Dann bin ich hoffentlich schlauer was das angeht.
 
Zuletzt bearbeitet:
Hallo,

nach einigen Tests unter VirtualBox (Esxi, FreeNas, napp-it) und ca. 60 Seiten aus dem ZFS-Stammtisch steht zumindest der Plan mal fest: Esxi + Napp-it. Klingt einfach zu gut :-)
In dem Zusammenhang doch noch eine Frage bzgl. der Hardware:
Ich habe ja eine M.2 SSD mit PCIe (dachte die ganze Zeit es wäre eine SATA gewesen). Das müsste doch bedeuten, dass ich dort die Storage-VM installieren und den SATA-Controller trotzdem komplett durchreichen kann?
Macht es dann trotzdem noch Sinn Esxi auf USB-Stick zu installieren? Ich könnte doch Exsi und die Storage-VM (und evtl. sogar weitere VMs) direkt auf die SSD packen!?
Erscheint mir einfacher. Einfach mal ein Image von der SSD gezogen und das gesamte System ist gesichert.

Gruß
Dirk
 
Ich installiere ESXi immer auf einer lokalen Bootplatte zusammen mit dem lokalen Datastor. Ist einfacher und bootet um Größenordnungen schneller. Ist aber letztendlich egal. Da ESXi und das minimale napp-it Storage Template in wenigen Minuten ganz einfach neu aufgesetzt und konfiguriert sind und die VMs importiert - selbst nach Totalcrash - ist Backup nicht soo wichtig. Man muss nur die VMs sichern.
 
Hallo,

erstmal vorneweg: Die napp-it Doku finde ich sehr gelungen! Selten mal eine Doku von vorn bis hinten durchgelesen :coffee:

Der Testbetrieb läuft jetzt - nachdem ich nochmal schnell HDDs und RAM shoppen war...

ESXi 6.5a auf der 128GB NVMe installiert. Bei der gerade frisch erschinenen Version 6.7 hat es mit dem Whitelisting für den SATA-Controller nicht geklappt. Bei dem Fujitsu D3417-B2 ist das aber notwendig:
Code:
etc/vmware/passthru.map
# Intel Sunrise Point-H AHCI Controller
8086  a102  d3d0     false

Dann napp-it-san024-jan2018.ova importiert, 24GB des vorhandenen RAMs und den AHCI-Controller zugeweisen. Hochgefahren, Grundeinstellungen gemacht und meinen Windows-Benutzer angelegt.
Pool erzeugt:
Code:
	NAME        STATE     READ WRITE CKSUM      CAP            Product /napp-it   IOstat mess
	tank        ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    c3t0d0  ONLINE       0     0     0      10 TB          ST10000VN0004-1Z   S:0 H:0 T:0
	    c3t2d0  ONLINE       0     0     0      10 TB          ST10000VN0004-2G   S:0 H:0 T:0
	  mirror-1  ONLINE       0     0     0
	    c3t1d0  ONLINE       0     0     0      10 TB          ST10000VN0004-1Z   S:0 H:0 T:0
	    c3t3d0  ONLINE       0     0     0      10 TB          ST10000VN0004-2G   S:0 H:0 T:0

Dateisysteme erzeugt:
"Daten" (comp=lz4, recordsize=128k smb=yes)
"TV" für Enigma-Aufnahmen (comp=off, recordsize=1M, smb=yes)

Kurzer Test in Windows ergab: Hä? Das funktioniert ja schon! Super!
Die meiste Zeit hat mich das mit dem vergeblichen Versuch des Passthru beim ESXi 6.7 gekostet. Mit 6.5a funktionierte es sofort. Das Web-GUI des ESXi ist bei mir ein wenig buggy. Fängt schon mit dem Login an, bloß nicht Enter drücken Bei der Konfiguration der napp-it VM kommt immer mal eine Fehlermeldung bzgl. RAM-Reservierung oder RAM-Grenzwert. Firefox, Edge, Chrome überall das gleiche Spiel. Manchmal geht's...
Wichtig: In ESXi den NTP-Client konfigurieren, sonst kommt da irgend etwas mit den Zeitzonen durcheinander (+2 Stunden auf den SMB-Shares).
Mit ESXi muss ich mich demnächst auch mal näher beschäftigen.

Mittlerweile liegen schon knapp 10 TB Daten auf den Platten. Ich glaube jetzt brauche ich auch noch 10 GBit LAN :)

Der Anfang ist also gemacht und nun kann ich ans Feintuning gehen. Da gibt es ja noch viel zu entdecken.


HDD-Spindown funktioniert grundsätzlich, aber irgend etwas scheint noch häufig auf die Platten zuzugreifen. Bei einem Timer von 300s gehen sie gar nicht mehr aus.
Hat jemand Ideen was das sein könnte?


Im napp-it habe ich leider die E-Mail noch nicht zum Laufen bekommen. Ich glaube es war nicht gut, dass ich ein " in meinem SMTP-Passwort hatte :cool:. Im Seitenquelltext war es jedenfalls nicht escaped.
Nun kann ich keine Settings mehr speichern :-( Ich habe darauf hin per WinSCP in /var/web-gui/_log/napp-it.cfg das Passwort rausgelöscht, aber es geht immer noch nicht.
Code:
(367 autocreate default action) write-error: /var/web-gui/data/napp-it/zfsos/03_System and network=-lin/02_settings/action.pl
package 	file 	subroutine 	line
main 	admin.pl 	main::error 	358

Besten Dank!



P.S.: Auf der Seite Downloads Napp-in-one
read these manuals
how to setup napp-it
how to setup napp-In-One


sind die Links zu den beiden Pdfs vertauscht.
 
Bei ESXi hatte ich das gleiche Problem. Du kannst eine VM nur einmal bearbeiten. Dann musst du die Seite einmal neuladen. Dann kommt auch der RAM Grenzwertfehler nicht mehr.
 
Für den UI-Bug (der sehr nervig ist) gibt es einen Patch, den man installieren kann. Oder einfach auf 6.5U1 updaten.
 
Bei ESXi 6.5 hatte ich mir angewöhnt grundsätzlich vor dem Bearbeiten einer VM F5 (reload) zu drücken.

zum RAM bei pass-through.
Nachdem man pass-through für ein HBA aktiviert hat muss man in die RAM Settings gehen um den RAM exklusiv zu reservieren. Man schaltet damit die dynamische Speicherzuordnung von ESXi für die Storage VM ab. Im Falle einer ZFS VM ist das ein extrem wünschenswertes Verhalten da man damit exakt definieren kann wieviel RAM diese VM zur Verfügung hat.

zm Spindown
300s klingt danach dass Mail Alert mit Check alle 5 Minuten aktiviert ist. Das vielleicht auf einmal täglich stellen.

Andere Dienste die regelmäßig auf die Platte zugreifen:
- Echtzeit Statistik (mon, neben logout: ausschalten)
- Solaris Fehler Management Dienst fmd, eventuell deaktivieren
 
- - - Updated - - -

Bei ESXi hatte ich das gleiche Problem. Du kannst eine VM nur einmal bearbeiten. Dann musst du die Seite einmal neuladen. Dann kommt auch der RAM Grenzwertfehler nicht mehr.

Das funktioniert. Danke!

- - - Updated - - -

Für den UI-Bug (der sehr nervig ist) gibt es einen Patch, den man installieren kann. Oder einfach auf 6.5U1 updaten.

Alles klar. Ich war davon ausgegangen, dass die Images auf dem neusten Stand sind.

- - - Updated - - -

Bei ESXi 6.5 hatte ich mir angewöhnt grundsätzlich vor dem Bearbeiten einer VM F5 (reload) zu drücken.

zum RAM bei pass-through.
Nachdem man pass-through für ein HBA aktiviert hat muss man in die RAM Settings gehen um den RAM exklusiv zu reservieren. Man schaltet damit die dynamische Speicherzuordnung von ESXi für die Storage VM ab. Im Falle einer ZFS VM ist das ein extrem wünschenswertes Verhalten da man damit exakt definieren kann wieviel RAM diese VM zur Verfügung hat.

zm Spindown
300s klingt danach dass Mail Alert mit Check alle 5 Minuten aktiviert ist. Das vielleicht auf einmal täglich stellen.

Andere Dienste die regelmäßig auf die Platte zugreifen:
- Echtzeit Statistik (mon, neben logout: ausschalten)
- Solaris Fehler Management Dienst fmd, eventuell deaktivieren

"Reserve all guest memory (All locked)" ist aktiviert. Das meintest Du, nicht wahr?

Spindown:
Mail alert: Oh ja, ich dachte die Alerts laufen nicht von Haus aus (autoservice hatte ich noch nicht aktiviert).
Zumal ich ja noch keine Mails senden kann, weil ich beim Speichern der Settings immer den o.g. Fehler bekomme.
Habe die Alerts jetzt mal auf manuell gestellt. Im Moment läuft sowieso ein scrub....

Der Solaris FMD, schreibt der auf den Daten-Pool? Ich dachte der schreibt auf den rpool und der liegt ja in der VM-Platte, die wiederum auf der SSD liegt.


Ich kann noch nicht einmal eine Testmail versenden, wenn ich dort geänderte Zugangsdaten (=neue, ohne Sonderzeichen) eingebe:
Code:
send error to [email]xxx@gmx.net[/email] 
main, /15_Jobs and data services/03_Email/09_smtp-test/action.pl, line 79 
main, /15_Jobs and data services/03_Email/09_smtp-test/action.pl, line 19 
main, admin.pl, line 48

Ich befürchte ich habe durch die Sonderzeichen im SMTP-PW in eine der Config's Datensalat eingeschleust. Hast Du einen Tipp, was ich überprüfen könnte?
 
Zuletzt bearbeitet:
Der FMD Dienst schreibt zwar nur auf rpool, er prüft/ liest aber von den Datenpools.

Zu GMX
Ich vermute mal dass GMX keine unverschlüsselten Mails auf Port 25 akzeptiert.
Man muss also verschlüsselte TLS/SSL Mails benutzen.
 
FMT - Ok!

TLS habe ich bereits nachinstalliert.
Aber auch smart-mail.de unverschlüsselt versucht.

Im Moment ist halt blöd, dass ich die Settings gar nicht speichern kann. Auch ohne Mail.
Ich werde mir die nappit.cfg mal genauer anschauen.
Kann ich sie notfalls löschen oder gibt es Abhängigkeiten zu anderen Einstellungen?

Gesendet von meinem SM-G930F mit Tapatalk
 
nappit.cfg ist eine einfache Textdatei.
Kann man editieren oder löschen (und per About > Settings neu anlegen)

Wenn man beim Editieren per WinSCP die Dateirechte ändert z.B. root only, dann einfach napp-it Logout + Login machen. Dadurch werden die Rechte erneut korrekt gesetzt.
 
Ok, bin einen Schritt weiter:

Gehe ich über About --> Einstellungen funktioniert das Speichern.

Gehe ich über System --> Settings kommt beim Speichern der Fehler:
(367 autocreate default action) write-error: /var/web-gui/data/napp-it/zfsos/03_System and network=-lin/02_settings/action.pl
müsste es da nicht auch 90_settings heißen?

Egal, nun kann ich speichern. Mails versenden kann ich aber noch nicht... Ich werde mal weiter probieren.
 
System > Settings speichern geht im aktuellen napp-it.
About > Settings macht aber das gleiche.

TLS Mails
Napp-it unterstützt nur den TLS Standardport 587. Manche Mailer nutzen 465
der heute nicht mehr für SSL/TLS Mail vorgesehen ist.

25, 465, 587... What port should I use?
 
Was muss ich eigentlich dafür genau tun?
Oder nur in einem bestimmten Verzeichnis ausführen?

TLS email on OmniOS 151014 not working due a compiler error with SSLeay
This can be fixed with a (Thanks to Michael)
perl Makefile.PL CCCDLFLAGS='-DOPENSSL_NO_MD2 -fPIC'


P.S.: Spindown funktioniert hervorragend!
 
Zuletzt bearbeitet:
Die Info beschreibt wie man TLS Unterstützung in OmniOS 151014 installierte.
Aktuell ist 151024/26

Wenn aber Jobs > TLS Email > Test keinen Programmfehler bringt sondern lediglich die Mail nicht ankommt, so liegt das nicht mehr an napp-it oder den TLS Modulen im OS sondern z.B. einer Firewall, einem Passwortproblem oder der fehlenden Unterstützung des TLS Standardports im Mailserver.

GMX nutze ich nicht, eventuell mal Google Mail testen.
 
Ok, wer lesen kann 151014 <-> 151024...

TLS mit GMX soll zwar auch Port 587 nutzen, aber ich hab's nicht hinbekommen. Unverschlüsselt habe ich es weder mit aspmx.l.google.com noch mit smart-mail.de zum Laufen gebracht.
Das ist mir jetzt aber egal, denn mit smtp.gmail.com , App-Passwort und TLS geht's.
 
Zuletzt bearbeitet:
Hallo,

nun ist der Backup-Server dran und da würde ich jetzt gern eine kostengünstigere Lösung umsetzen. Die vorhandene Hardware ist schon recht betagt.
Gigabyte Mainboard mit Athlon 64 X2 5050e 8 Gb non-ECC RAM OmniOSce und Napp-IT auf OCZ Agility3 120GB installiert und läuft.
Vorhandene alte Platten:
2 x WD Green 2 TB
1 x Seagate 2 TB
1 x HGST 3 TB
2 x WD Red 4 TB (eine davon hat einen angeknacksten und mit Heißkleber fixierten SATA-Anschluss und macht jetzt arge Probleme)
1 x Seagate Archive 8 TB (lief ca. 2,5 Jahre in einer Dreambox)

Da das Hauptsystem effektiv so um die 15 TiB Platz hat (2x2x10TB - davon noch 6 TiB frei), wäre das auch ungefähr meine geplante Zielmarke fürs Backup. An wirklich wichtigen Daten, die auf keinen Fall verlorgen gehen dürfen, sind es aber nur kanpp 3 TB. Trotzdem würde ich gern auf Komplett-Backup (inkl. der ganzen TV-Aufnahmen) setzen um nicht wieder mit vielen Teil-Backups herumhantieren zu müssen.

Daher bisher folgender Plan: Die alten Platten werden größtenteils nur noch in die Schublade gepackt. Für die wichtigen Daten gibt es zusätzlich eine relativ neue externe 4 TB WD MyBook als Backup.

Neuanschaffung von 1-3 Seagte Archive 8 TB und dann entweder
- Basic vdevs 2-3 Seagate Archive 8TB
- RaidZ1 3 x Seagte Archive 8TB + Mirror WD Red 4TB/ HGST 3TB ergibt vermutlich irgend etwas um die 14 TiB nutzbar
- RaidZ1 4 x Seagate Archive 8 TB ergibt ca. 18-20 TiB

Nun die spannenden Fragen:
Bringt RaidZ1 mit den SMR-Platten überhaupt einen brauchbaren Vorteil? Oder wenn dann zwingend RaidZ2? Kostet mich halt nochmal 190 extra...
Ganz ohne Raid, da macht mir dann die alte 8TB etwas Bauchschmerzen - obwohl sie bisher fehlerfrei ist.

Performance-Problmeme zu beachten (2-3 Basic vdevs vs. Raid mit nur 1 vdev)? Jetzt nur in dem Sinne, dass das neu Einspielen des Backups aufs Hauptsystem so lange dauert, dass auch der Backup-Pool die Grätsche macht. Ich denke ich würde selbst bei einem degradeten Backup-Pool eher (weiterhin) das Backup zurückspielen als dann erst den Pool zu resilvern....

- - - Updated - - -

Vorab: Sorry passt nun wirklich nicht mehr so gut hier in das Unterforum, gehört aber immer noch zu meinem Gesamtkonstrukt....

Bzgl. der Software noch etwas: Sehe ich das richtig, dass ich rein für die Replikation eigentlich nur 1 Extension für den Backup-Server bräuchte?
Ich habe mich mit den ganzen Extras bisher noch nicht auseinandergesetzt und verstehe vieles davon noch nicht. Gibt es da noch ein erweitertes Handbuch mit mehr Details für Solaris-Anfänger?

Bei den Investitionskosten kommst's darauf eigentlich nicht mehr darauf an bzw. wäre der Teil m.E. am besten investiert. Aber wenn ich davon nachher so gar nichts nutze - weil keine Ahnung und so ....
Aber die eingebaute Replikation möchte ich unbedingt nutzen. Das ist ja auch ein großes Plus der ganzen Lösung und klingt für mich viel besser als rsync.
 
Regel 1: SMR Platten sind ungeeignet für Raid
Regel 2: SMR Platten sind ungeeignet für ZFS.

Auf einer ZFS Developer Konferenz in Paris wurde das mal diskutiert. Das Risiko beim Schreiben geht bis zum Timeout/ Datenverlust Die also nur als Single Disk Backup nutzen (Pool aus basic vdev)

Für Netzwerk Replikation braucht man nur auf dem Backup Server die Extension


Erweitertes Handbuch für Solaris/OmniOS, vieles in deutsch, siehe z.B. Oracle Handbücher für Solaris 11.2
Oracle Solaris 11.2 Information Library (Deutsch) Updated: 2015-05-13
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh