[Sammelthread] ZFS Stammtisch

A

A_H

Guest
Wer in diesem Forum, außer mir, wendet in irgend einer Form bereits ZFS an?
 
Zuletzt bearbeitet von einem Moderator:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke!!! Auf diese Site bin ich bisher noch nicht gestoßen - eine Menge Lesestoff.

ZFS scheint ein Dateisystem zu sein, wie ich es mir immer vorgestellt habe. Hier im Forum wird öfter im Zusammenhang mit ZFS rum geschwafelt. Momentan habe ich NexentaStor Developer (ist immer beta mit belanglosen Bugs) auf einem beliebigen Intel-PC mit 2 Festplatten. Der Download dauert 1,5 Std., die Installation 1 Std., die einmalige Registierung des PCs 10 Minuten, die Einrichtung über das Webfrontend 30 Min. bis 2 Std.. Danach hat man einen Dateiserver für CIFS/SMB, FTP, NFS, RSYNC, WebDAV, iSCSI - was will man mehr?

Für Linux gibt es ZFS nicht, wegen unterschiedlicher Lizenzmodelle.

Aber wenn 2 bis 3 Leutchen hier OpenSolaris lieber machten, wäre ich auch mit dabei. Die Wiederinstallation von NexentaStor dauert ja nur eine Stunde ;)
 
Zuletzt bearbeitet:
Les mal hier weiter:

http://www.forumdeluxx.de/forum/showthread.php?t=568664

Da sind auch ein paar sehr gute weiterführende Links (allen voran der von Simon's Blog ist überaus empfehlens- und lesenwert).

Ich werd mir demnächst selber nen Fileserver auf Opensolaris mit ZFS zusammenbauen. Eigentlich wollt ich schon seit langem sowas mit Linux und nem Software-RAID5 machen, aber seit die c't vor einiger Zeit über ZFS berichtet hatte, fand ich das mit Linux nimmer sogut ;).
In der c't 26/08 wurden dann Selbstbau-NASe (auf verschiedenen Grundlagen basierend) und Kauf-NAeS verglichen. Da war Opensolaris mit das schnellste von allen (Limit war eigentlich das Gbit-LAN). Den Aufbau ham sie mittlerweile auch online gestellt (Link findest Du im obigen Thread).
Hab das letzt mal mittels VMware nachgebaut und war recht begeistert, wie einfach das ging. Da konnt ich sogar mal ausprobieren, wie ZFS reagiert, wenn man eine virtuelle Platte "ausbaut" (also einen Defekt simuliert), trotzdem Daten draufschreibt und später die Platte wieder "einschiebt".

ZFS is beautiful ... kann man da nur sagen :d.

Mechkilla
 
Zuletzt bearbeitet:
. Da konnt ich sogar mal ausprobieren, wie ZFS reagiert, wenn man eine virtuelle Platte "ausbaut" (also einen Defekt simuliert), trotzdem Daten draufschreibt und später die Platte wieder "einschiebt".

das kann man mit einem normalen Raid 5 auch machen! Einer der Votreil von Opensolaris in Verbindung ist, dass du das System nach einem Platteneinbau nicht neustarten muss und das erweiterte Raid nicht formatieren musst.
 
ZFS beinhaltet ja quasi RAID5 und RAID6, heißt da nur RAIDZ1 bzw. RAIDZ2.
Allerdings geht es etwas drüber hinaus. Während bei RAID5/6 es in bestimmten Fällen (z.B. Powerloss) zu unerkannten Fehlern kommen kann (die sich nur durch teure RAID-Controller mit NVRAM vermeiden lassen), ist da ZFS wesentlich robuster. Weiterhin kann man im laufenden Betrieb auf Fehler testen um z.B. umgekippte Bits zu erkennen und sie dann korrigieren lassen, da ZFS jeden Block noch mittels einer Checksumme gegenchecken kann. War in einem der verlinkten Seiten (siehe dem Forumdeluxx-Thread oben) besser beschrieben, als ich das jetzt auf die schnelle gemacht hab.

Allerdings meinte ich mit "da konnte ich sogar mal ausprobieren ...", dass man den Fall "defekte Platte" einfach schön unkompliziert in einer VM testen konnte :).

Mechkilla
 
ich weiß was ZSF alles kann, haben 3 Maschinen damit auf der Arbeit und hab 2 Maschinen zuhause stehen.

Wollte nur vorhin sagen, dass deine geschrieben Tests nicht das ausmacht das ZFS alles kann.

Ein sehr geiles Feature hast du vergessen Snapshots und clones

Edit:

hat jmd schon mal einen SSD als Cache für ZFS eingesagt? Mich würde da mal die Performance interessieren.
 
Zuletzt bearbeitet:
ich wuerde bei zfs sowieso nicht auf redundantes raid gehen sondern auf mehrfache speicherung von dateien, sprich zfs soll von jeder datei 2 weitere kopieen halten. damit kannst du verschieden grosse hdds in einem storagepool nutzen ohne dass dir deshalb speicherplatz verloren geht.
 
Einer der "Nachteile" von ZFS ist die Tatsache das es eben alles über den/die CPUs geht. Datenbanken und Co machen auf Systemen die auf Performance ausgelegt sind da kaum Sinn. Aus diesem Grund machen wir @work derzeit noch nichts auf ZFS. ZFS kann arbeitet eben mit Pools und das kann schon von Nachteil sein. Wenn ich jetzt z.B. ein datenbanksystem auf einem Storage per Raid (im SAN z.B.) auf verschiedene Controller lege so habe ich die volle Kontrolle was hier wohin geht, in einem ZFS haben ich ausschließlich den Pool.Trotz meiner arbeit habe ich nicht die irre ZFS Erfahrung, man möge mich berichtigen. Weitere Nachteil den ich selber gespürt habe (Testsystem V880 mit 6 Platten), Crasht das ZFS-Rootsystem in einen Fehler ist Schulz. Wenn ZFS da nicht mehr mag dann krieg ich das System nicht zurück - OK, ich habe nicht viel in gesucht, war nur ein Test bei dem das passierte. Spiegel ich, wie üblich, per SVM meine Bootplatten komme ich an mein Dateisystem und krieg das wieder hin.
Wie gesagt, das kann so u.U. nicht stimmen wenn man sich weiter einliest - deswegen etwas vorsicht das könnte gefährliches Halbwissen sein.

Ein Kollege aus HH berichtet öfter über ZFS: http://c0t0d0s0.org
 
Weiß ich nicht mehr genau. Ichh ab div. tests gemacht, von der fehlenden Platte bis hin zur ausgefallenen Disk usw usw.. Der Fehler mag nicht typisch und sofort nachstellbar sein, aber er ist halt bei mir mal aufgetreten. Da ich das System so nicht wieder zum laufen gebracht habe hab ich an der stelle da auch erstmal aufgehört.
 
Ein sehr geiles Feature hast du vergessen Snapshots und clones

Nicht vergessen, nur noch zu unerfahren um es hier richtig zu erklären. Hab deshalb ja erwähnt, das in dem einem Thread ein paar gute Links sind (bzw. sind dort wiederum gute weitereführende Links enthalten), die das Teils schön erklären.
Die Sache mit den Clones (d.h. die Mehrfachkopien an unterschiedlichen Orten) fand ich genial. Selbst bei einem Totalcrash der Platte steigt die Wahrscheinlichkeit, dass prof. Datenretter noch an diese wichtigen Daten rankommen (falls sie mit ZFS überhaupt klarkommen ;)).

Edit:

hat jmd schon mal einen SSD als Cache für ZFS eingesagt? Mich würde da mal die Performance interessieren.

Auch dieses Feature ist mir letzt über den Weg gelaufen (auf die Idee kam ich selber mal, aber umsetzen konnt ich es ja net ;)). Find ich genial, falls es so funktioniert, wie ich es mir denke (was genau da gemacht wird, hab ich noch net weiterverfolgt). Erstmal muß mein Fileserver mit ZFS stehen, dann probier ich das mal aus (hab ja schon SSDs in meinem Hauptrechner).

@sun-man: die perfekte Lösung für alles wird es nie geben. Aber Du könnstet doch die Daten der DB über iSCSI an den DB-Server anbinden (iSCSI ist in ZFS implementiert). So liegt die CPU-Last für ZFS nicht mehr im DB-Server.
 
Ich kenne nicht alle Gründe, aber Iscsi wird auf keinem der uns unterstellten SUN Server (~400) gefahren. Im Vergleich zur HDS und anderen Storages zu langsam usw (ist aber eine Entscheidung des Kunden der es da einfach nicht will, hinterfrage ich nicht). Da wir es nicht einsetzen kommt es bei uns nicht zum Einsatz. Die Linuxjungs haben es, setzen es aber nur für die nicht dringend und hochperformanten Systeme ein.

Andererseits, woher weiß der iscsi Head was ZFS und die ensptrechenden Festures sind? Alle Brechungen, Kalulationen und Co kann das Target doch garnicht übernehmen - ODER ? Alle ZFS Features sollten doch beim Host liegen und nicht, wie z.B. bei einem Raid5 die Parity durch XY übernommen werden kann? Hier müssten die Iscsi-Heads ZFS können und nicht ZFS iscsi. Liege ich da falsch ?
 
Kann ich Dir nicht beantworten. Les mal den kurzen Artikel/Blog:

http://breden.org.uk/2008/03/12/home-fileserver-backups/

Da wird auf nem Backupserver mit ZFS dessen Volume(s) per iSCSI in den ZFS-Fileserver eingebunden.
Hab bis zu dem Artikel eigentlich nicht wirklich gewußt, was iSCSI ist, nur das es zum Anbinden von Netzwerkspeicher genutzt wird (hab's halt nie gebraucht und es hat mich nie interessiert).
 
Ich hatte iSCSI mal kurz von XP aus probiert. Der Initiator ist eigentlich für Server-Windows 2000 oder 2003. Man findet dann in der Dateiverwaltung von XP einen neuen Datenträger, den man wie eine Platte einrichten muss. Der Datendurchsatz lag irgendwo bei 30MB/s, sehr unregelmäßig. Man hätte da an einem TCP/IP-Parameter rumfummeln müssen, was eventuell nicht mit dem Internet harmoniert hätte. Das Ganze erschien mir aber momentan uninteressant.

NexentaStor kann Target und Initiator bereitstellen. Ein Target stellt den wirklichen Speicherplatz zur Verfügung.
 
Zuletzt bearbeitet:

Interessanter Link!

Das hätte ich nicht erwartet, dass in ZFS auch noch iSCSI Target und Initator Funktionalität steckt, wow! Und scheint recht einfach einzurichten...
Wobei das generell auch unter Linux nicht schwer ist, ähnliche Schreib/Lesewerte habe ich da im heimischen Aufbau auch hinbekommen...
Habe mir einige Benchmarks von iSCSI unter Linux angeschaut, es ist i.d.R. schneller als NFS, kann dafür mit simplem ext3 aber nur an einen Initiator exportiert werden.

Wie schaut das unter ZFS aus, enthält es irgendwelche Lockingmechanismen, die es erlauben würden das Dateisystem zB. auf 2 Rechnern gleichzeitig zu mounten? Wundere mich nur weil beim Target erwähnt wird "Connections: 1". Da könnte ja auch ne andere Nummer stehen, sonst wäre die Zeile ja überflüssig :d
 
Alles klar, Lesekompetenz und so... :rolleyes:
Danke für den Hinweis :d
 
Gerade mal ne evlt. unwissende frage: Ist der zpool wenn ich ihn nicht exportiert habe an das OS gebunden, also wenn ich das OS kille, komm ich nur *mit dem dort beschriebem* weg an meinen pool?
 
Ihr scheint hier ja relativ viel Plan zu haben, deshalb mal meine Frage:
Für welche Betriebssysteme gibt es ZFS mittlerweile?
Wird es demnächst hardware basierte ZFS Lösungen geben oder irgend etwas in diese Richtung?
Lohnt es sich ein ZFS über ein RAID5/RAID6 zu legen?

Und noch etwas: Würdet ihr ehr Solaris oder ehr OpenSolaris nutzen?
 
@E.v.o: Ich wuerde sagen du hast nicht verstanden was ZFS ist...
Warum sollte es Hardware basiert sein, bzw. es geben sollen? Das ist doch der Anspruch von ZFS, dass du keine teuren RAID-Ctrl. brauchst.

Willst du raidz1 in HW nimm nen RAID 5 Ctrl.
Willst du raidz2 in HW nimm nen RAID 6 Ctrl.

Und nein, es lohnt sich nicht das ueber ein vorhandenes RAID zu legen, ausser wenn du 3 RAID-x hast und das nochmal absichern willst.

ZFS gibts produktiv bisher nur unter Solaris. FreeBSD und Mac OS haben dev Versionen zum ausprobieren, produktiv wuerde ich es darunter nicht nehmen.
OS X 10.6 soll ZFS nativ implementieren.

Und ich wuerde Opensolaris nehmen, da die Netzwerkperformance out-of-the-box besser ist als bei Solaris.


mfg
 
also ich bekomme im iscsi mit mpio und 2 x gigabit so 210mb lesen und 70mb schreiben vom server. lokal auf dem server kann ich 550mb lesen und 340mb schreiben irgendwo ist beim schreiben der wurm drin da diese 70mb der raid6 reconstruct speed entsprechen. nervt mich aber ist nicht tragisch da ich nicht mehr leistung brauche.
 
Naja, es frisst ja ziemlich dicke CPU wenn ich das Recht verstanden habe.
Mein FileServer sollte aber verschlüsselt sein und da ist die Frage ob mein QuadCore (4x 3.2 GHz @ 400er FSB) ausreicht?
 
Um mal ein paar Zahlen in den Raum zu werfen:

Wenn ich so mit durchschnittlich rund 50MB/s transferiere, dann liegt mein ZFS-Server mit AMD X2 4850e (2x2,5GHz) auf einem nForce 570-Board bei max. 55% Gesamtlast (verteilt sich etwas unsymetrisch auf die 2 Cores). Mein Raidz1 besteht aus 4 640GB WD Caviar Green.
Allerdings schwankt die CPU-Last während der Transfers recht stark, zusammen mit der Netzwerkauslastung. Letztere pendelt im Zehntel-Sekundenbereich so zwischen 30-70MB/s vermutlich verursacht durch mein Vista, welches wohl immer im Wechsel Daten liest/schreibt und diese dann übers Netzwerk sendet/empfängt. Daher dürfte die durchschnittliche CPU-Last geringer ausfallen (schwankt halt auch sehr stark während des Transfers). Bottleneck war meine Platte auf jedenfall nicht, Testtransfers fanden von/auf einer (SLC-)SSD statt, die mit >100MB/s liest und mit rund 80MB/s schreibt.
 
Zuletzt bearbeitet:
Open Solairs hatte ich auch auf meinem Server nur ich habe mich beim Besten willen nicht zurecht gefunden ...

Packete wie Apache oder PostGresSQL musste man einzelnt installen und damit war ich iwie schon bissel genervt ^^. Obwohl ich mit Ubuntu Server zurecht komme. Wenn ich mal ein Server mit einem RAID5 über 2 TB bauen würde würde ich mich trozdem mit OpenSolaris beschäftigen da ZFS einfach bombe ist und die Datenübertragung im LAN Auch Volle Möhre ist ^^ ;)
 
zfs ist in meinen augen derzeit das beste dateisystem, neben btrfs. aber die solaris userland tools sind grausam. ich bekomm regelmäßig das kotzen, wenn ich damit arbeiten muss. die paketnahmen sind auch nicht immer toll. aber dafür gibt es ja mit nexenta ein passendes projekt. mein neuer fileserver wird sicher auch mit zfs laufen...:)
 
Sehe gerade dass ZFS auch unter Ubuntu Server angewandt werden kann =)
Werds mir mal anschauen
 
hatte eben nen kumpel da, der mit von ZFS vorgeschwärmt hat...habs mir angeschaut und bin beeindruckt und überlege mir gerade, ob ich meinen server auf ZFS umstellen soll. Die Nachricht von Ubuntu gefällt mir sehr gut :coolblue:
Hab den DL gerade angeworfen.
Bin mal gespannt. Werde das alles erstmal in ner VM testen :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh