[Sammelthread] ZFS Stammtisch

Ich weiss ja, dass ZFSonLinux von Napp-it nicht 100%ig supportet wird. Aber ich bilde mir ein, die Funktion "Poolinfo" im Menü "Pools" ging früher einmal auch unter Linux. Bei mir steht da jetzt leider ewig: "zdb -C pool, please wait.. " und es wird nichts angezeigt.

"running version : 0.9f5 May.22.2015"
EDIT: gleiches Thema mit der "running version : 0.9f6 Aug.05.2015"

Lokal/ssh in der Console funktioniert der Befehl manuell (Ausgabe siehe Spoiler).

$ sudo zdb -C
ZFSdata:
version: 5000
name: 'ZFSdata'
state: 0
txg: 4
pool_guid: 2043566027357716216
errata: 0
hostid: 8323329
hostname: 'REDACTED'
vdev_children: 1
vdev_tree:
type: 'root'
id: 0
guid: 2043566027357716216
create_txg: 4
children[0]:
type: 'raidz'
id: 0
guid: 1410443299676277034
nparity: 1
metaslab_array: 34
metaslab_shift: 37
ashift: 12
asize: 16003087990784
is_log: 0
create_txg: 4
children[0]:
type: 'disk'
id: 0
guid: 11494638830225213203
path: '/dev/sdb1'
whole_disk: 1
create_txg: 4
children[1]:
type: 'disk'
id: 1
guid: 15772865214999795089
path: '/dev/sdc1'
whole_disk: 1
create_txg: 4
children[2]:
type: 'disk'
id: 2
guid: 3613999214349237042
path: '/dev/sdd1'
whole_disk: 1
create_txg: 4
children[3]:
type: 'disk'
id: 3
guid: 7117381933648169543
path: '/dev/sde1'
whole_disk: 1
create_txg: 4
features_for_read:
com.delphix:hole_birth
com.delphix:embedded_data

Hab ich etwas kaputt gemacht oder haben andere das auch?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
gibt es irgendeinen "Fahrplan" wann denn nun endlich SMB2.1 mal kommen soll?

Meinen nächsten Server/NAS werde ich nicht mehr mit OmniOS betreiben solange sich da nicht jetzt endlich mal was tut, und ich denke mit der Haltung stehe ich nicht alleine da. Hat man keine Angst davor dass die User abwandern? Ewig werden die das wohl nicht mehr mitmachen.

Und wielange muss man dann auf SMB3 warten (geschätzt) ? 5 oder 10 Jahre?

Neben Solaris 11.3 hat das momentan nur Nexenta im Kernel-Server. Ich vermute dass die mit dem nächsten Nexentastor 5 auch SMB3 liefern. Da Nexenta auch am Upstream von SMB2 in Illumos arbeitet (das wird ja nicht in OmniOS sondern in Illumos eingebaut) wird Nexenta wohl zunächst an SMB3 im nächsten Nexentastor bringen wollen bevor SMB2.1 im freien Zweig kommt.

Zur Not gibt es aber (z.B. Maawi Uni Ulm) auch Samba4 für OmniOS.
 
In der jüngeren Vergangenheit kam doch zuletzt öfter die Idee auf, mit irgendwelchen Raid-Controllern, bei denen AHCI bzw. IT mode nicht geht, einfach für jede HDD am Controller ein Raid0 Array anzulegen und darauf dann ggf. ZFS zu nutzen.

Ich bin gerade zufällig darüber gestolpert, warum das zu Problemen führen kann:

  • If multiple RAID arrays are formed by the same controller and one fails, the identifiers provided by the arrays exposed to the OS might become inconsistent. Giving the drives directly to the OS allows this to be avoided via naming that maps to a unique port or unique drive identifier.
  • e.g. If you have arrays A, B, C and D; array B dies, the interaction between the hardware RAID controller and the OS might rename arrays C and D to look like arrays B and C respectively. This can fault pools verbatim imported from the cachefile.
  • Not all RAID controllers behave this way. However, this issue has been observed on both Linux and FreeBSD when system administrators used single drive RAID 0 arrays. It has also been observed with controllers from different vendors.
 
Hallo,

eine Frage zu ZFS in Kombination mit zwei SMR-Festplatten (genauer gesagt: 2x 8TB Seagate Archive V2):

Die HDDs unterstützen TLER (oder wie diese Funktion bei den anderen Herstellern auch immer heisst) nicht. Soweit ich das verstanden habe, ist das für ZFS auch nicht wichtig, da es selbst kein Timeout für eine IO-Anfrage definiert.

Gibt es noch einen Grund, der gegen einen ZFS-Mirror aus zwei dieser SMR-Platten neben der Performance spricht? Es ergibt sich Speicherplatz, welcher checksummengeprüft wird und gegen den Hardwaredefekt einer HDD abgesichert ist. Dass im ungünstigen Fall, dass eine HDD nur mit 30MB/s schreibt, da sie innerhalb eines SMR-Blocks schreiben muss (= HDD ziemlich voll), dürfte doch nur dazu führen, dass die Leistung auf eben diese 30MB/s abfällt. Beim linearen Lesen müssten diese HDDs doch circa die zweifache Performance einer HDD erreichen, also 180-300MB/s.

Einsatzgebiet wäre günstiger Speicherplatz für Videos/Aufnahmen. Um ein Backup wird sich je nach Wichtigkeit der Daten separat gekümmert, ist also mit bedacht.

Danke für Eure Anmerkungen.
 
Ich kann nichts dagegenhalten.
Mein System aus 19x 8 TB im Raidz3 lauft seit nunmehr 4 Monaten stabil ohne eine einzige Auffälligkeit und ist auch schon zur Hälfte gefüllt.

Ich habe aber auch keine Workload von 700 MB/s sondern allenfalls das, was GBit LAN hergibt also um die 100 MB/s und i.d.R. auch nur single Task bzw. User Zugriff - evtl. kommt mal ein 2. Transfer dazu. Dazu kommt, daß sich die Last bei 19 Platten noch weiter auf die einzelnen Platten aufteilt als bei 2 Platten. Der Kollege bei obigem Link hat aber wiederum noch mehr Platten drin gehabt (300TB) und ein gänzlich abweichendes Lastprofil.

@gea
Gibt's eigentlich Neuigkeiten in Bezug auf SMR-Aware ZFS? Man leist da irgendwie nichts ausser den bereits seit 2014 kursierenden Präsentationen.
 
@gea
Gibt's eigentlich Neuigkeiten in Bezug auf SMR-Aware ZFS? Man leist da irgendwie nichts ausser den bereits seit 2014 kursierenden Präsentationen.

Es gab auf der kürzlichen OpenZFS Konferenz in Paris dazu einen Beitrag/ Diskussion.
Tenor: Sehr aufwändig, Platten sind nicht wirklich für Raid geeignet. Derzeit noch nicht geplant. HGST bietet Unterstützung an.

Publications - OpenZFS
 
Ich kann nichts dagegenhalten.
Mein System aus 19x 8 TB im Raidz3 lauft seit nunmehr 4 Monaten stabil ohne eine einzige Auffälligkeit und ist auch schon zur Hälfte gefüllt.

Ich habe aber auch keine Workload von 700 MB/s sondern allenfalls das, was GBit LAN hergibt also um die 100 MB/s und i.d.R. auch nur single Task bzw. User Zugriff - evtl. kommt mal ein 2. Transfer dazu. Dazu kommt, daß sich die Last bei 19 Platten noch weiter auf die einzelnen Platten aufteilt als bei 2 Platten. Der Kollege bei obigem Link hat aber wiederum noch mehr Platten drin gehabt (300TB) und ein gänzlich abweichendes Lastprofil.

Ich hatte nen Bench gesehen da haben die Dinger beim Rebuild nur noch etwa 10MB/s gemacht (pro Platte). Jetzt kannst du dir ja ausrechnen wielange das dauern würde bei nem vollen oder halbvollen Pool.

Und dann kannst du dich fragen ob du die Hand dafür ins Feuer legen kannst dass die Platten es schaffen über solange Zeit 100% Busy betrieben zu werden.

Bei 10MB/s und 8000GB sind das wenn sie randvoll gefüllt sind gut 10Tage Dauerlast. Bei 50% immer noch gut 5Tage. Würde mal schätzen du hast bei 19 Platten schon gute Chancen dass dir mehr als 3 Platten bei der Prozedur aussteigen dann.

Aber Versuch macht klug. Ich mein was die Platten leisten wenn sie kaum gefordert werden ist jetzt eher weniger von Interesse.

Würde warscheinlich mehr Sinn machen sie mit Unraid oder Snapraid zu betreiben.
 
Zuletzt bearbeitet:
Ich habe seit April auch einen Raid Z3 aus 11x 8 TB laufen ohne irgendwelche Probleme.
Allerdings voll verschluesselt und dank des Prozessors nur ca. 100 MB/s schreiben und 170 MB/s lesen.

Selbst unter dauerlaust war es bei mir stabil zumindest habe ich zum start ca. 30TB am Stueck auf den neuen Pool geschrieben ohne dass etwas passiert ist.
Sollte dort mit dauerlast gemeint sein dass dort alte Daten ueberschrieben werden, dann ist klar dass es da Probleme gibt. Dafuer sind die Platten ja auch nicht gedacht.
 
Beim Rebuild wirste um Dauerlast aber nicht herumkommen, daher sind solche Erfahrungen nützlicher als dass irgendwer die Archives im RaidZ am idlen hat und alles toll läuft.
Zieh mal ne Platte raus, mache sie komplett platt und dann resilvern.
 
Hallo zusammen,

in welcher Größenordnung müsste ich denn Planen wenn ich 4 GBit (per Quad NIC) auslasten möchte? Derzeit wären 4 x 2 TB WD RED vorhanden und diverse SSDs. Es würde als zentrales Storage für virtuelle Maschinen genutzt werden. Entweder per iSCSI oder (wenn es schön geht) per SMB Multichannel.

Danke.
 
naja... mal grob überschlagen schaffen 4 HDDs im Raid5 ~200MB/s schreibend und ~300MB lesend. Skaliert halt mit jeder Disk etwas hoch.

Eine SSD kommt (im Netz) etwa auf ~300MB schreibend und ~400MB lesend.

Wenn man mal davon ausgeht, dass 4x1Gbit rechnerisch auf ca. 440MB/s kommen könnten (was aber in der realen Welt wohl nicht so ist, da teaming auch mehr Overhead bedeutet?).

Unter Windows (wg. Multichannel) hast Du bei Storagespaces mit Parity zusätzliche Performanceeinbußen im Storage. Lässt sich alles halt schlecht schätzen, der Teufel steckt im Detail. Kannst Dir auch mal diesen Thread dazu anschauen. Dort habe ich ein paar tests unter verschiedenen Szenarien gemacht.
 
Storage Spaces wären sicherlich auch eine Möglichkeit. Möchte aber auch links und rechts der MS Welt gucken. Daher extra die Frage hier im ZFS Threat.

Würde - so die Theorie - sicherlich noch eine oder zwei SSDs als Cache mit hinzufügen, dass auch die IOPS etwas hoch gehen.
 
Ich persönlich finde die Storage Spaces zurzeit von der Performance her eher mau (vor allem Parity, was wohl grob einem Raid5 entspricht).

Daher habe ich auch mit ZFS herum experimentiert und finde das schon ziemlich kewl. Wenn Du das aber vernünftig nutzen willst, schränkt das aber deine OS-Auswahl ziemlich ein. Linux unterstützt das zwar, aber ist viel fummeliger. Irgendwas auf Solaris-basis ist eigentlich das OS der Wahl, da Du damit in Kombination mit der web-oberfläche von Gea (napp-it) eigentlich fast alles einstellen kannst, was Du für den Anfang brauchst.

Alternativ glaube FreeNAS nutzt das auch, damit habe ich aber keine eigene Erfahrungen gesammelt.
 
Storage Spaces wären sicherlich auch eine Möglichkeit. Möchte aber auch links und rechts der MS Welt gucken. Daher extra die Frage hier im ZFS Threat.

Würde - so die Theorie - sicherlich noch eine oder zwei SSDs als Cache mit hinzufügen, dass auch die IOPS etwas hoch gehen.

Windows Server, Storage Spaces und ReFS als Dateisystem ist auf dem richtigen Weg. Damit übernimmt Microsoft die zwei wichtigsten ZFS Errungenschaften CopyOnWrite (Dateisystem Crashresistent) und Snapshots auf Basis von CopyOnWrite. Dazu Pooling. Insgesamt ist aber ZFS seit Jahren Produktiv im Einsatz, ausgereift, stabil und schnell. Bis MS soweit ist dauert das noch.

Wenn unter Windows virtualisiert wird, ist SMB3 die erste Wahl. Da ist ein Microsoft SMB Server erste Wahl. Man könnte SAMBA versuchen. Das macht es aber aufwändig und ist wohl auch nicht so schnell. Solaris mit dem multithreaded und kernelbasiertem Server steht momentan bei SMB 2.1 (Solaris 11.3 oder NexentaStor). Hauptalternative wäre da ZFS und iSCSI.

Unter ESXi wären NFS Shares das Mittel der Wahl

wg 4 x 1 Gb Karten:
Schon mal 10 Gbe überlegt. Das bringt auch bei einem Client Performance ohne Fummelei.

wg SSD Readcache
Das kann Performance beim wiederholten Lesen bringen. Viel schneller ist aber mehr RAM

wg SSD Schreibcache
ist meist unsinnig da damit anschliessendes Umkopieren notwendig ist. Unter Last eine Bremse. ZFS macht das sowieso und besser im RAM indem es mehrere Sekunden wahlfreies Schreiben im RAM sammelt und es dann als ein schnelles sequentielles Write schreibt. Zusmmen mit einem schnellen Logdevice (SSD oder Rambasiert mit powerloss Schutz) ist damit auch schnelles und sicheres Schreiben m
möglich - ähnlich einem Hardware Raid mit Cache und BBU nur halt bei ZFS ohne dessen Write Whole Problem.

zum Pool-Layout bei VM Datastore.
Hier zählt vor allem iops. Das ist am Besten bei Mehrfach Mirrors (Raid-10 bei 4 Platten)
 
Beim Rebuild wirste um Dauerlast aber nicht herumkommen, daher sind solche Erfahrungen nützlicher als dass irgendwer die Archives im RaidZ am idlen hat und alles toll läuft.
Zieh mal ne Platte raus, mache sie komplett platt und dann resilvern.

Habe ich ja in meiner Teststellung vor einigen Monaten gemacht (Raidz3 aus 7 Platten), habe ich ja auch in diesem Thread ( http://www.hardwareluxx.de/communit...er-250-nagelneu-wo-ist-der-haken-1049915.html ) dokumentiert.
Ja es dauer deutlich länger als mit "herkömmlichen" Platten am Raidcontroller - lief wenn ich mich recht entsinne ca. 5 Tage.
Es ist zwar auf der eine Seite eine Dauerlast, auf der anderen Seite aber deutlich unter der normalerweise möglichen Performance. Insofern kann man eigentlich nicht von Volllast sprechen, sondern es bleibt eigentlich bei einer moderaten Belastung der Platten.

- - - Updated - - -

Es gab auf der kürzlichen OpenZFS Konferenz in Paris dazu einen Beitrag/ Diskussion.
Tenor: Sehr aufwändig, Platten sind nicht wirklich für Raid geeignet. Derzeit noch nicht geplant. HGST bietet Unterstützung an.

Publications - OpenZFS

Schade eigentlich!
Letztes Jahr lautete der Tenor noch, daß ZFS eigentlich DAS Filesystem für die SMR Drives wäre.
Das bedeutet im Endeffekt, daß in näherer Zukunft wohl nur EXT4-SMR für SMR Drives optimiert wird.
Wobei ich zu NTFS eigentlich noch gar nichts gelesen habe, weder im positiven noch im negativen Sinne.

SMR ist wohl tatsächlich nur der Lückenfüller, bis HAMR produktionsfreif wird.
 
Zuletzt bearbeitet:
Digi-quick: wie kommst du darauf dass es nicht volllast ist? Bei der Platte kommt es drauf an welche Sektoren du in welcher Reihenfolge beschreibst daher liefert "volllast" nicht immer die gleiche Performance, dennoch wird die Hdd nicht weniger mechanisch belastet auch wenn deutlich weniger mb/s durchgehen. 5tage ist schon ne Hausnummer. Dafür sind die Platten einfach nicht konstruiert. Ich habe so meine Bedenken.

Besser wäre es man würde bei nem Hdd Ausfall einfach alles woanders hinkopieren dann müsste man nur lesend auf die Platten zugreifen.
 
Zuletzt bearbeitet:
Hi,

ich würde gerne, um den Platz optimal nutzen zu können, einen Pool erstellen. Auf meinem Server läuft win 8.1 prof und auf meinem Rechner auch. Ich habe mit Windows Storage Spaces ein wenig rumgespielt, finde es aber zu unflexibel, was das Austauschen von HDDs angeht...

Vorweg: ich möchte KEIN mirroring, da die Daten 1:1 extern (am besten in einem seperaten Pool in einem 4 Bay Gehäuse) gesichert werden. Parität gern, aber kein mirroring. Erstmal würde ich auch mit diesem Backup-Pool testen wollen, bevor es aufs Produktivsystem eingesetzt wird.

Nun, ich hab mich vor Jahren mal mit FreeNAS beschäftigt, auch mit Nas4Free. OMV lief bis vor 6 Monaten bei mir, habs aber runtergeschmissen, weil es an ein paar Ecken nicht rund lief. Ich möchte gerne Windows als Hostsystem weiter laufen lassen, und da ZFS darunter nicht läuft, bleibt wohl nur der Schritt zu virtualisieren. Wie macht man das am besten? wie die Festplatten durchreichen? Welches OS sollte man nutzen?

Ist ECC notwendig? mein Server hat einen A4-4000 und 8GB DDR3 Ram, der Rechner einen X4 630 und 8GB DDR2.

Oder gibt es andere Möglichkeiten? DriveBender und Drive Pool fallen leider raus.
 
Hallo MisterY,

du kannst auf deinem Win8.1 Pro das Feature Hyper-V aktivieren (wenn deine Hardware Virtualisierungsfeatures unterstützt). In Hyper-V gibt es die Möglichkeit Festplatten direkt an eine VM exklusiv durchzureichen.
Dazu musst du zunächst die betreffende Festplatte in der Datenträgerverwaltung offline setzen. Anschließend fügst du deiner Ziel-VM eine neue virtuelle Festplatte hinzu (physische Festplatte).
So bekommst du die HDDs in die VM. Ob das allerdings die Performance bringt, die du dir erhoffst kann ich nicht sagen. Auf jeden Fall ist es einen Versuch wehrt, das auszuprobieren. Du wirst in Hyper-V auch Probleme mit den Integrationstools für Illumous-basierte Systeme bekommen. In Debian mit ZFS on Linux sollte das allerdings kein Problem sein.
 
@MisterY: Als VM unter Windows ist Solaris nach meiner bescheidenen Meinung ziemlich mau. Du musst eine Gen1 VM nehmen und einen Legacy Netzwerkadapter, was bei mir zu der Geschwindigkeit eines 100mbit Netzes führte... Obwohl in Hardware 10gbit verfügbar waren...

Wenn Du mit ZFS auf Deinem Desktop rumspielen willst, nimm' unter dem Microsoft Hyper-V ein aktuell unterstütztes Linux (Debian, Ubuntu oder Redhat) oder versuch Dein Glück mit Oracle's Virtualbox. Wäre ja ein schlechter Witz, wenn das nicht Oracle's Solaris virtualisieren könnte.

Ich hab auf meinem Desktop auch Virtualbox und bin damit recht glücklich, aber noch nie mit Solaris probiert.
 
Hi,

ich würde gerne, um den Platz optimal nutzen zu können, einen Pool erstellen. Auf meinem Server läuft win 8.1 prof und auf meinem Rechner auch. Ich habe mit Windows Storage Spaces ein wenig rumgespielt, finde es aber zu unflexibel, was das Austauschen von HDDs angeht...

Vorweg: ich möchte KEIN mirroring, da die Daten 1:1 extern (am besten in einem seperaten Pool in einem 4 Bay Gehäuse) gesichert werden. Parität gern, aber kein mirroring. Erstmal würde ich auch mit diesem Backup-Pool testen wollen, bevor es aufs Produktivsystem eingesetzt wird.

Nun, ich hab mich vor Jahren mal mit FreeNAS beschäftigt, auch mit Nas4Free. OMV lief bis vor 6 Monaten bei mir, habs aber runtergeschmissen, weil es an ein paar Ecken nicht rund lief. Ich möchte gerne Windows als Hostsystem weiter laufen lassen, und da ZFS darunter nicht läuft, bleibt wohl nur der Schritt zu virtualisieren. Wie macht man das am besten? wie die Festplatten durchreichen? Welches OS sollte man nutzen?

Ist ECC notwendig? mein Server hat einen A4-4000 und 8GB DDR3 Ram, der Rechner einen X4 630 und 8GB DDR2.

Oder gibt es andere Möglichkeiten? DriveBender und Drive Pool fallen leider raus.


Die wichtigsten Optionen für den Server wären:
Statt Windows 8.1 eine ZFS NAS/SAN Appliance mit Web-UI direkt auf Hardware installieren

auf Basis von BSD: FreeNas, Nas4Free, ZFSGuru (OpenSource)
auf Basis von Oracle Solaris (Solaris 11.3 + optional meine napp-it GUI), kommerzielle Software,
frei für "Demo und Development" momentan ist Solaris 11.3 die leistungsfähigste Basis für ZFS
auf Basis von Illumos und OmniOS (OpenSource Solaris fork + optional meine napp-it GUI)
auf Basis von Illumos und NexentaStor CE (Basis: kommerzieller Storageserver, keine kommerzielle Nutzung, max 18TB)

aif Basis von Debian, Ubuntu (+ optional mein napp-it, Funktionen geringer als in der Solaris Version)

mein Tipp: Solaris 11.3 oder OmniOS
Darauf dann einen ZFS Pool erstellen: Basis ohne Redundanz, Mirror oder Raid-Z[1-3],
darauf dann ZFS Dateisysteme anlegen und als SMB, NFS oder iSCSI freigeben


Die Alternative wäre Virtualisierung der StorageVM
Storage selber zu virtualisieren ist aber Unfug, lediglich die Storage VM sollte man virtualisieren
Das betrifft Vmware Player oder Virtualbox

Die Alternativen
1. ESXi + pass-through eines Plattencontrollers samt Platten per vt-d (Die beste Option)
2. ESXi + physical RDM (Durchreichen einzelner Platten), die Option falls VT-d nicht verfügbar

Vorteil von ESXi: Es unterstützt von Apple OSX über BSD, Linux, Unix und Windows alle Gäste in bestmöglicher Weise mit virtuellen Grafik und Netzwerktreibern und Managementfunktionen.

3. Hyper-V + RDM (Durchreichen einzelner Platten)
Nachteil: Kein echtes Pass-through, am Besten für Windows Gäste geeignet

4. KVM mit Linux oder SmartOS (Solaris fork)
Am interessantesten wenn Linux oder Unix/Solaris Gäste im Vordergrund stehen.

mein Tipp:
ESXi 5.5U2 oder 6.00b als Basis
+ Solaris/OmniOS Storage VM mit pass-through oder physical RDM (biete ich als ESXi VM zum freien Download)
+ Windows VM, falls Windowsdienste auf dem Server nötig sind.


zu ECC
Was heisst notwendig. Ein Server läuft auch ohne.
Ohne ECC werden allerdings Speicherprobleme nicht erkannt und können damit zu korrupten Dateien oder Partitionen führen.
Ein Server sollte daher immer ECC haben (Eine gute Workstation aber auch)


8GB Ram ist für Virtualisierung recht knapp
2 GB gehen für Virtualisierung drauf (ESXi oder Hyper-V), + 3 GB für das Storage NAS und 3 GB für 32bit Windows wären aber OK
Ein reines NAS mit 8 GB + SMB oder iSCSI wäre aber erheblich schneller-


andere Optionen:
Keine man es mit ZFS Datensicherheit und Funktionalität vergleicht.
Irgendwann mal vielleicht Windows + Storage spaces + ReFS oder Linux + btrfs
 
Zuletzt bearbeitet:
Kritischer ZFS bug 6214

Es gibt einen kritischen Bug im neuesten OpenZFS im L2Arc Cache Modul
der zu Datenkorruption führen kann.

Betroffene Distributionen: aktuelle die auf OpenZFS/Illumos aufbauen

empfohlene Aktion:
- L2Arc entfernen
- Pool testen (scrub, dbd)


http://echelog.com/logs/browse/illumos/
OmniOS Discussion ()


Update
OmniTi hat ein Update für OmniOS 151014 bereitgestellt
ReleaseNotes/r151014

more: about how to handle the problem:
OmniOS Discussion ()

Das neue OVA template 15d (vorkonfigurierter ZFS Storage Server) enthält den Fix
https://napp-it.org/downloads/napp-in-one.html
 
Zuletzt bearbeitet:
danke für die Antworten.
Ich spiele gerade mit dem Gedanken, FreeNAS auf einem USB Stick zu installieren und mal zu testen. Wirkt auf den ersten Blick einfacher als OmniOS, wobei deine napp-it webgui auch ganz interessant aussieht. Wie muss ich da vorgehen um das zu installieren? Kann man omnios auch auf einem USB-Stick installieren (bei OMV wird ja davon abgeraten)?
wie sieht es performance-technisch aus?
Ich möchte gerne einen HDD-Pool haben, jedoch ohne mirroring (sind nur mediendaten und die sind nochmal 1:1 kopiert). Parity von mir aus, darf aber nicht so viel Platz belegen. kommt man auch anderweitig noch an die Daten ran? Wenn z.B. der Pool kaputt ist, eine HDD ausfällt, das Mainboard abraucht, omnios nicht mehr läuft etc pp? kann ich den Pool einfach erweitern? kann ich einfach eine HDD gegen eine größere austauschen?

kann ich auf Omni-OS auch omv-like pakete installieren? z.b. plex?

edit: okay, hab gesehen, OmniOS setzt einen 32GB stick voraus? ein bissle viel, oder? FreeNAS kommt mit 8GB klar.
Die Performance von OmniOS soll besser sein als Freenas und Parity wäre Raid-Z1, richtig? soweit so gut, auch serviio ist ok.

aber was ich gelesen hab, macht mich stutzig: "Napp-It does not have reports and graphs in the free version."

-> keine Graphiken über Auslastung, Temperatur, Takt etc pp in der Freeversion??
 
Zuletzt bearbeitet:
zur Installation

FreeNAS oder NexentaStor sind geschlossene Spezialdistributionen für den NAS oder SAN Bereich.
Napp-it geht da einen anderen Weg. Man installiert da zuerst ein Standard Server OS wie Oracle Solaris (derzeit State of the Art für einen ZFS Server) oder einen freien Solaris Fork wie OmniOS. Anschliessend startet man den napp-it Online-Installer der darauf einen NAS/SAN Storageserver mit Web-UI installiert und konfiguriert.

siehe http://www.napp-it.org/doc/downloads/napp-it.pdf
(Ist in Englisch, da 90% meiner Nutzer nicht aus DE kommen)

Man kann Solaris (Die Text-Edition mit napp-it aber ohne grafische Oberfläche) oder OmniOS mit napp-it auf einem guten USB Stick Installieren. OmniOS als "Just enough OS für einen Storageserver" ist sehr gut geeignet. Man sollte atime (protokolliert letzen Zugriff) aber ausschalten. Ich würde aber ein 32 GB Sata DOM bevorzugen. Super Micro Computer, Inc. - SATA DOM Solutions

Performance,
Solaris gilt als sehr schnell, insbesondere mit NFS und dem Solaris CIFS Server. Er ist multithreaded und in den Kernel und in ZFS integriert und bietet zudem die beste Windows Kompatiblität. Dazu ist iSCSI/ Comstar mit integriert.

siehe
https://b3n.org/freenas-vs-omnios-napp-it/

Redundanz
Ich würde niemals etwas ohne Redundanz machen (egal ob Mirror, Raid-Z oder Snapraid).
Platten sterben einfach zu oft.

Parity
Nur damit weiss man, ob die Daten noch in Ordnung sind. Für einen reinen Mediaserver vielleicht nicht ganz so wichtig aber der Extra-Platzbedarf ist gering.

Restore
ZFS ist Software Raid. Bei Problemen die Platte(n) einfach an einen anderen ZFS Server anschliessen und Pool importieren.


Software
Solaris ist ein auf den kommerziellen Bereich ausgelegtes OS. Home-Software wie Plex fehlt dann oft. Es gibt aber auch angepasste Installer z.B. von Chris (User hier im Forum), siehe z.B. serviio napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana, Solaris and Linux : Extensions oder napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana, Solaris and Linux : Downloads

alternativ:
ESXi all in one mit OmniOS als Storageserver und Apple OSX, Linux oder Windows für Serveranwendungen.


Pool erweitern.
Man kann bei ZFS kleine durch große Platten ersetzen oder einen Pool durch weitere Arrays erweitern.
Ein Raid um eine einzelne Platte erweitern geht aber nicht. Entwicklungsziel von ZFS ist halt nicht der Home-Mediaserver mit zwei Platten sondern Server mit vielen bis sehr vielen Platten mit Speicher bis in den Petabyte Bereich.


Insgesamt ist ZFS dann interessant wenn Datensicherheit absolut im Vordergrund steht. Da ist es konkurrenzlos. Als einfacher Homemediaserver wenn vor allem Komfort und Mediaserver zählt, kann z.B. Xpenology/Synology mehr (Linux mir ext4, kein ZFS).
 
Zuletzt bearbeitet:
hmm deshalb denke ich auch, dass ZFS nicht das richtige für mich ist, da ich nur im Home-Bereich damit bleibe. Ich hab einige Jahre OMV genutzt, jedoch hat es an mehreren ecken und kanten nicht einwandfrei funktioniert (wsa ich von einem OS erwarte, ist, dass wenn man per GUI einen Installer für ein Programm implementiert (z.B. Virtual Box, Pyload), dann sollte es auch laufen und nicht Fehlermeldungen am laufenden Band ausgeben. Deshalb bin ich zu Windows gewechselt, jedoch vermisse ich da ein bisschen das pooling und parity. Windows Storage Spaces sind mir zu heikel und Liquesce war auch nicht das wahre (8GB auf HDD1 noch frei, der wollte eine 32GB Datei aber nicht in den Pool kopieren, da angeblich kein Speicher vorhanden sei oder ich keine Berechtigungen hatte. die freien 1TB auf der zweiten HDD des Pools haben einfach nicht interessiert.
 
16gb Stick geht aber wird schon knapp. Sollte auch nen schneller sein. Hatte vorher nen Werbegeschenk usb Stick macht kein Spaß. Kann nen sandisk Extreme aber sehr empfehlen. Hat auch sehr gutes p/l.
 
Also ich bin schon der Meinung, dass ZFS etwas für den Home-Bereich ist. Es kommt dabei etwas auf die Herangehensweise an. Ich persönlich habe mir ein ZFS-NAS auf Basis OmniOS für Heim-Zwecke gebaut. Mini-ITX-Board mit Atom-Prozessor, schickes kleines Gehäuse und paar große HDDs besorgen, OmniOS und napp-it installieren > schon hast du ein Top Home-NAS. Mein Server ist dabei ausschließlich für die Bereitstellung von Daten im Netzwerk (NAS) für meine Windows-Geräte und Apple-Devices sowie für Mediastreaming auf meinen Fernseher konzipiert und funktioniert für diese Dinge sehr gut (Performance, Stabilität). Die Installation war sehr einfach. Habe das Ganze hier zusammengefasst (Hardware + Software):

zfs-server.de • Thema anzeigen - Mein NAS Teil1: Hardware
zfs-server.de • Thema anzeigen - Mein NAS Teil 2: Software

In Windows stecken einfach in der Grundausführung zu viele Funktionen, die für Instabilität sorgen. Ich selbst nutze auch sehr gerne Windows, man muss aber immer schauen zu welchem Zweck...
 
Zuletzt bearbeitet:
Insgesamt ist ZFS dann interessant wenn Datensicherheit absolut im Vordergrund steht. Da ist es konkurrenzlos. Als einfacher Homemediaserver wenn vor allem Komfort und Mediaserver zählt, kann z.B. Xpenology/Synology mehr (Linux mir ext4, kein ZFS).
In wiefern soll denn ZFS nichts für einen Medienserver sein? Meiner läuft damit aus dem Grund da ich nem ZFS mehr vertraue als nen Linux Raid mit ext4. Will nicht sagen dass letzteres nicht zuverlässig wäre aber mehr vertrauen tue ich da schon ZFS. Außerdem wenn ich Resilvern muss und der Pool nicht ganz voll ist hab ich mit ZFS doch auch ne Zeitersparnis wie ich bei ext4 und Linux Raid nicht hätte. Oder sehe ich da was falsch?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh