ZFS ist halt so ein Datacenter-FS, das eher nicht für solche "Bastellösungen" gedacht ist... das wurde nie für den "sparsamen Heimnutzer" gemacht...
Das ist halt so aufgezogen, dass ein Datenverlust (was ja der Worst Case ist) maximal unwahrscheinlich ist, das alles sehr zuverlässig und robust läuft uuund dass das auch groß skaliert (also viele, viele Datenträger, viele, viele TB). Und natürlich viele Nutzer. Nicht 1, 2 oder 3... sondern vielleicht 100, 1000?
Man will den RAM-Write-Cache ja möglichst schnell leer haben, da der die Daten dort ja wörtlich "in der Schwebe hängen" und wie gesagt, die Datenträger müssen mit dem Schreiben auch nachkommen.
Mit einem entsprechend dicken HDD-Array und ggf. Metadata/Smallblock SSDs hast du kein Geschwindigkeitsproblem.
Die Sache mit dem ARC ist sehr schlau, weil dort ja nur eine Kopie liegt, also nicht sicherheitsrelevant. In der angedachten Verwendung wird eine Datei vielleicht nicht nur von einem Nutzer gelesen, sondern von vielen... da macht das schon Sinn.
Klar, viele Features davon sind auch für "daheim" total interessant und beliebt... aber am Ende ist es doch ein FS, das für einen anderen Zweck als den sparsamen, effizienten Heimuser gemacht wurde (und wird).
Das ist dafür gemacht robust zu sein und von vielen Usern zugleich gequält zu werden ohne massiv an Performance zu verlieren.
Wenn man so nen Cache (SSD?) haben will, ist Unraid einfach das interessantere Konzept.
Aber... wenn du dich spielen willst, such dir halt die CLI-Befehle raus um den RAM-Write-Cache größer zu machen und probier es auf einer Testinstalltion aus. Dafür brauchst ja keine GUI, die paar Zeilen wirst ja noch schaffen (gea hilft dir da bestimmt).