Das Problem ist an der Stelle nicht das Dateisystem oder der Typ des Datenträgers, sondern kein Backup.
Haja, wenn man sein Backup mit unbemerkt verrotteten Daten überschreibt weil man es aktuell halten will, ist das halt blöd... zugegeben, selten und unwahrscheinlich.
Deshalb ja auch für den Home Bereich besser fleissig Backups machen als Raid.
Und an der Stelle ist Automatisierung entscheidend, da manuelle Backups oft der Faulheit zum Opfer fallen.
Das ist absolut richtig.
Wobei die empfundene Hürde zum automatischen Backup so groß ist, dass es die meisten bei Manuell machen.
Das Auto-Backup gehört auch eingerichtet, getestet und ab und zu mal überprüft.
Raid1/Mirror ist halt bequem weils erstmal weitergeht, wenn ein Datenträger ausfällt.
Wertvoller ist aber ein halbwegs aktuelles Backup, weils auch davor schützt, wenn mans anderwertig verbockt hat. Löschen, Ransomware, whatever, meist stoplert man ja doch über eigene Dummheit.
Ich fahr im großen Datengrab-Pool auch teilweise nobackup, einfach weils nicht sinnvoll darstellbar ist (dafür müsste ich ja nochmal mindestens die Menge der Datenträger bereitstellen). Gewisse Ordner bzw. Datasets werden von Zeit zu Zeit mal gesichert, andere nicht (der Inhalt ist am Ende dann doch verzichtbar irgendwo).
Insofern versteh ich schon, wenn man versucht ein pool "nobackup" halbwegs failsafe zu bekommen.
Wenn man wirklich beschränkt in der Anzahl der Datenträger ist, ist so ein 1+1 Autobackup Gespann wie Supaman es beschreibt imho sinnvoll, hab mir das auch schon überlegt gehabt (bin dann aber zum Größenwahnsinn übergegangen).
Realistsich sterben (Qualitäts-) SSDs in der Heim-Nutzung nicht. Guck hier im Forum. Kein Mensch fährt hier ein Raid1 in seinen Gaming/Alltags-PCs, kaum jemand macht "echte" Backups (Fotos mal auf ne externe kopieren, ja, aber das is ja kein richtiges Backup für mich). Insofern ist dieser Redundanz-Gedanke gar nicht soo wichtig.
Ist eigentlich eine schöne Lösung, wennst TrueNAS als Filer-VM verwenden willst (genug Leistung hat das Ding ja offenbar) findet sich bestimmt ne Möglichkeit das halbwegs sauber über die GUI zu erledigen.
Fürs ZFS musst dich ein bissl einlesen, wie man das Richtung "kleine Write Amplification" optimiert... wsl. das Aquivalent der "Block-Größe" klein machen (mir entfällt gerade der Name dafür, ist bei ZFS alles bissl mehr magic, aber nix, was man nicht in absehbarer Zeit gelesen und verstanden hat).