• Hallo Gast!
    Noch bis zum 20.07. kannst Du an unserer Umfrage zum Hersteller des Jahres teilnehmen! Als Gewinn verlosen wir unter allen Teilnehmern dieses Mal eine Grafikkarte Eurer Wahl für bis zu 1.000 EUR - über eine Teilnahme würden wir uns sehr freuen!

[Sammelthread] ZFS Stammtisch

du möchtest ne "lahme" HDD mit z.B. 150mb/s verwenden, dazu viel RAM (zb. 64gb), möchtest deine 50gb erstmal in den RAM schreiben und der soll dann "gemütlich" auf die HDD schreiben...
Genau. So mache ich es ja jetzt schon mit PrimoCache unter Windows und bin recht zufrieden. Höre jetzt aber auf damit, den Thread mit meinen Wünschen vollzuspammen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ZFS ist halt so ein Datacenter-FS, das eher nicht für solche "Bastellösungen" gedacht ist... das wurde nie für den "sparsamen Heimnutzer" gemacht...
Das ist halt so aufgezogen, dass ein Datenverlust (was ja der Worst Case ist) maximal unwahrscheinlich ist, das alles sehr zuverlässig und robust läuft uuund dass das auch groß skaliert (also viele, viele Datenträger, viele, viele TB). Und natürlich viele Nutzer. Nicht 1, 2 oder 3... sondern vielleicht 100, 1000?

Man will den RAM-Write-Cache ja möglichst schnell leer haben, da der die Daten dort ja wörtlich "in der Schwebe hängen" und wie gesagt, die Datenträger müssen mit dem Schreiben auch nachkommen.

Mit einem entsprechend dicken HDD-Array und ggf. Metadata/Smallblock SSDs hast du kein Geschwindigkeitsproblem.
Die Sache mit dem ARC ist sehr schlau, weil dort ja nur eine Kopie liegt, also nicht sicherheitsrelevant. In der angedachten Verwendung wird eine Datei vielleicht nicht nur von einem Nutzer gelesen, sondern von vielen... da macht das schon Sinn.


Klar, viele Features davon sind auch für "daheim" total interessant und beliebt... aber am Ende ist es doch ein FS, das für einen anderen Zweck als den sparsamen, effizienten Heimuser gemacht wurde (und wird).
Das ist dafür gemacht robust zu sein und von vielen Usern zugleich gequält zu werden ohne massiv an Performance zu verlieren.

Wenn man so nen Cache (SSD?) haben will, ist Unraid einfach das interessantere Konzept.



Aber... wenn du dich spielen willst, such dir halt die CLI-Befehle raus um den RAM-Write-Cache größer zu machen und probier es auf einer Testinstalltion aus. Dafür brauchst ja keine GUI, die paar Zeilen wirst ja noch schaffen (gea hilft dir da bestimmt).
 
Nehmen wir das Beispiel mit 64GB RAM. Ein 64bit OS möchte 4GB, ZFS wird ohne Lesecache mit mechanischen Platten sehr langsam, geben wir also mindestens 8 GB Lesecache (default wäre 50% also ca 30GB. Damit wären die meisten random reads aus dem RAM geliefert worden).

Wir könnten also mit starken Abstrichen beim Lesen ca 50 GB Write Ramcache haben. Ist der halbvoll muss weggeschrieben werden, der sollte ja nie volllaufen (Pool muss dabei deutlich schneller als LAN sein, sonst läuft der Cache immer voll). Nutzbar ist also ca 25 GB pro single User. Nicht so üppig. Hat man mehrere aktive User, teilt sich das auf. Stürzt der Rechner ab ist der komplette Inhalt des Schreibcaches one sync verloren.

Eine Writecache SSD unter Unraid hat das gleiche Problem, ist aber viel langsamer als RAM Cache und verliert Daten wenn der Rechner beim Schreiben ohne CoW abstützt. Ausweg: ZFS unter Unraid. (Zurück an Anfang).

ZFS macht das schon richtig per defaults oder als Hybrid Pool mit special vdev. Ein RAM Schreibcache von ein paar GB ist vollkommen ausreichend und kleine, langsame io zu vermeiden auch bei viel Last und vielen Nutzern.

Macht man nichts, hat man mit 64GB RAM ca 30GB Lesecache und 6GB Schreibcache, ideal für fast alle Fälle.
 
Zuletzt bearbeitet:
Die Idee unter Unraid ist ja speziell diese, dass die Daten auch erstmal in der Cache-SSD liegen bleiben, und die HDDs dafür nicht anlaufen müssen. Ist halt eine ganz andere Idee dahinter.
 
Die Idee unter Unraid ist ja speziell diese, dass die Daten auch erstmal in der Cache-SSD liegen bleiben, und die HDDs dafür nicht anlaufen müssen. Ist halt eine ganz andere Idee dahinter.
Und will man auch unter Unraid CoW Absturzsicherheit für atomare Schreibvorgänge nimmt man da auch gerne ZFS für Daten und Cache. Man kann allenfalls ein ZFS Raid Array vermeiden um diese mit single Disk Pools .schlafen zu lassen. ZFS Redundanz gäbe halt mehr Performance und Echtzeit Raid Protection statt Unraid "Backup on demand"
 
Für schnelle sequentielle writes muss man halt einfach die nackte Performance der physischen ZFS-Datenträger so hoch schrauben, dass sie (deutlich) über der Netzwerkperformance hängt. Alles andere ist Gefrickel zu Lasten der Datenintegrität (oder wenns ganz blöd läuft, sogar der ZFS-Performance an anderer Stelle). Wobei meiner Meinung nach ZFS eh kein Geschwindigkeits-Performance-Wunder ist (designseitig wurden da bewusst - und zurecht! - Entscheidungen zu Gunsten der Datensicherheit/-Integrität und zu Lasten der Geschwindigkeit getroffen).

Da ist selbst NTFS deutlich flotter…
 
Wenn man so in die aktuelle Landschaft schaut, ist ZSF ja durchaus salonfähig geworden. Wird ja auch an allen Ecken und Ende besprochen :) ... Was mir aktuell besonders auffällt, ist, dass ECC in der Betrachtung doch arg ausgeblendet wird. Eine Günstig-Kiste nach der anderen. 3,4, 6 NVME. Alles zum "Spotpreis".

Ist ECC mittlerweile nur noch was für Geeks? Oder bleibt das Thema, wie bisher, relevant?
 
Details meiner VM-Einstellungen findest Du hier
Danke dir. Wenn ich soweit bin, darf ich diesbezüglich auf dich zurückkommen, wenn ich Omnios unter Proxmox nicht zum Laufen bringe?
- BroadCom ist schon übel, aber immerhin ist ESXi 8 wieder verfügbar und VM Workstation ist auch frei.
Nur ESXI 8.0 Update 3e ist wieder free. Folgeversionen hat Broadcom anscheinend nicht als Free angekündigt und auch nicht zugesagt.
Es ist einfach wie früher - hat man sich einmal getrennt, aus Gründen welch auch immer, sollte man nicht mehr zurückschauen und die Beziehung abhaken. 8-)
- napp-it cs ist auf ZFS und Servergruppen ausgerichtet. Napp-it se bietet da etwas mehr auf einem Solaris/OmniOS Einzelrechner. Ergänzt aber die Proxmox web-gui gut da dort gerade die ZFS Sachen fehlen.
Dein napp-it pro Home gibt es aber immer noch und du entwickelst es weiter?
Ist ECC mittlerweile nur noch was für Geeks?
Ich bin kein Profi in diesem Thema, aber ECC ist für mich schon seit Solaris10 Pflicht. Und ich hab seither noch nie Daten verloren, weil sie "faulig" waren.
 
Ist ECC mittlerweile nur noch was für Geeks? Oder bleibt das Thema, wie bisher, relevant?
Sun hat in ZFS alles eingebaut damit keine Datenverluste auftreten -
bis auf human error, Softwarebug oder Hardwareprobleme.

Nicht entdeckte RAM Fehler (ohne ECC) und damit einhergehende Datenverluste sind Hardwareprobleme.

btw
Ich bleibe vorerst bei ESXi 8 mit OmniOS, habe Proxmox aber in der engeren Auswahl.
Auch Windows ist überzeugend sobald ZFS released ist.

Napp-it home ist als se (Solaris edition) und neu als cs (client server, alle OS) verfügbar.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh