Wieviel ZFS steckt in Qnap ZFS ??

gea

Urgestein
Thread Starter
Mitglied seit
16.11.2010
Beiträge
5.674
Um nicht alles zu wiederholen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
About Qnap Raid Expand

https://www.reddit.com/r/qnap/comments/13yi3d5/quts_hero_raid_expansion/
(Qnap support member)

Da wird deutlich klargestellt dass Qnap Raid Expand nichts mit Open-ZFS Raid-Z Expansion zu tun hat
sondern Raid-5/6 Erweiterungen der Raid Gruppe unterhalb eines ZFS Pools meint.

Teil der unklaren Diskussion ist/war dass Raid-Z und Raid-5 nicht klar voneinander abgegrenzt werden. Manchmal steht dann da Raid 5 (Z1) was natürlich technisch betrachtet Blödsinn ist. Beide Begriffe beschreiben völlig unterschiedliche Verfahren mit unterschiedlicher Datensicherheit und unterschiedlichem Fehlerverhalten. Gemeinsam ist nur dass sie den Ausfall einer Platte verkraften.

Gerne denkt man bei Raid Expansion bei einem ZFS System an Raid-Z Expansion. Besser wäre es wenn man bei Qnap immer von Raid (5/6) Expand reden würde um das abzugrenzen, so heißt das Feature ja auch bei Qnap wenn man sich die Feautures listet,

Bleibt also im Wesentlichen:

Austauschbarkeit von ZFS Pools Qnap <-> Open-ZFS: nein
aktuelle OpenZFS Features in Qnap: nein
Sicheres Schreiben von Raid Stripes oder atomarer IO über ZFS Copy on Write: nein (Das ist ja das Problem von Raid-5 vs Z1)
(bei den großen Qnap gibts wohl eine BBU um das Problem zu verringern)
 
Ist bei Qnap nicht Raid5 = RAID z1 und RAID 6 gleich RAID z2? Mir wäre neu das man bei qnap raid z aussuchen kann? :unsure:
 
Raid-5 und ZFS Z1 sind nicht zwei Namen für das gleiche. Sun hat sowas extra Z1 und nicht Raid-5 genannt um klarzustellen dass Raid-5 Probleme nach Absturz beim Schreiben wie nur teilweise geschriebene Raid Stripes, teilweise geschriebene atomare Writes (Daten+Metadaten) oder ein verlorenes Raid 5 Array nach einem Lesefehler bei einem degraded Array eben mit ZFS Z1 nicht vorkommen können und das ohne dass man eine BBU bräuchte um das Raid abzusichern.

Üblicherweise sieht ein Pool mit einem Z1 vdev so aus
zpool1 ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
sda ONLINE 0 0 0
sdb ONLINE 0 0 0
sdc ONLINE 0 0 0

bei Qnap sieht ein Pool mit einem Z1 vdev so aus
zpool1 ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
qzfs/enc_0/disk_0x1_5000C500E5D7D6AC_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x2_5000C500E5D7D701_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x3_5000C500E5CB2C85_3 ONLINE 0 0 0

Sieht auf den ersten Blick gleich aus und ist es auch aus Sicht des ZFS Pool.
Bei Qnap besteht das vdev aber nicht aus Platten sondern aus qzfs Devices.

siehe https://docs.qnap.com/operating-sys...p-flexible-storage-architecture-A299E945.html
Das ist der Raid Group Layer auf dem das Raid 5/6 liegt, also ein Aufbau exakt so wie man es bei einem Hardwareraid 5/6 mit 3 Arrays unterhalb von ZFS auch hätte

Das Schaubild legt nahe dass Platten in kleine Partitionen aufgeteilt sind um daraus Raid Groups zu bauen was das Erweitern mit anderen Platten vereinfachen würde, Mangels genauer Dokumentation muss man da aber etwas spekulieren.
 
Hat ma da jetzt irgendwelche Nachteile?
 
Man hat wieder alle Raid-5 Nachteile die ZFS RaidZ eigentlich beseitigen wollte, halt nicht auf ZFS Pool/Vdev Ebene sondern auf den darunterliegenden Raid Array Gruppen bei denen ZFS weder mit seinen Prüfsummen was reparieren noch mit Copy on Write was absichern kann.

Man kann natürlich sagen, mit mehreren Raid 5/6 Arrays aus denen man ein Raid-Z vdev baut bei dem jedes Raid wie eine Platte arbeitet, ist man besser dran als wenn man überhaupt nur ein einziges Hardware Raid 5/6 hätte auf dem man einen Basic Pool macht. Nungut damit könnte ich leben. Platten fallen aus, hier halt dann ein ganzes Raid Array das ZFS als Platte ansieht. Die Einfachheit von ZFS ist aber auch futsch. Es haben schon manche ein Problem die normale Pool/Vdev Struktur zu verstehen, nun gibt es einen Pool auf einem oder mehreren vdevs wobei ein vdev aus einer oder mehreren Raid Gruppen besteht die aus einer oder mehreren Platten zusammengesetzt sind, eventuell noch mit mehreren Partitionen je Platte, na danke.

Das Nogo schlechthin ist für mich die Inkompatibilität zu Open-ZFS.
Qnap könnte seinen Fork genausogut QFS nennen, ist eben nicht mehr das ZFS aus Open-ZFS.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh