Was heisst "offen" bei Backups?
Aber ansonsten ist Dedup grds. Dein Feature auf der Storage-Seite: vereinfacht ausgedrückt, liegen Doubletten in Deinen Backups dann nur 1x auf dem Server, die anderen 9 Doubletten liegen logisch auch da, zeigen aber tatsächlich dann nur auf die entsprechende Stelle und sagen "hey, das gehört auch zu mir". Umgekehrt wird der Platz auf dem Datenträger dann auch nur freigegeben, wenn die letzte von allen 10 Doubletten gelöscht wird.
Ich setze das genau aus dem Grund auch auf meinem "ultimativen Backup" so ein: über die Jahre x Backups von zig Dateien mit unterschiedlichen Zuständen erzeugt und irgendwann den Überblick verloren. Dann 2 fette 20TB Festplatten angeschafft, ZFS Raid1 (also 20TB netto), Dedup und alles stumpf drauf kopiert. Mein Pool behauptet mittlerweile, er hätte eine "Kapazität" von 30TB einfach weil zig Daten eben Doubletten sind.

Ist zwar mit Dedup nicht wirklich flott, aber das ist mir ziemlich egal weil de facto cold storage: write once alle Jubeljahre, read never.
All das löst aber Dein Übertragungsproblem nicht: Wenn ich Deine Herausforderung richtig verstanden habe, musst Du zusätzlich das bei einem Backup-Lauf zu übertragende Datenvolumen reduzieren. Ich habe daher bei meinen live-daten rigoros ausgemistet und alles, was nun einmal in mein großes Backup gegangen ist, an allen anderen Orten gelöscht.
Mein persönliches Thema ist dann noch, dass mein großes Backup auf original Solaris 11.4 läuft/liegt. Mittelfristig müsste ich ein neues Backup anlegen auf Basis von OpenZFS, damit ich dann auch wieder ZFS Replikation von meinem Main-Storage nutzen kann.
OpenZFS teste ich ja mal wieder ...
Back to topic: Heute eingetrudelt.
...und haha, reingefallen. Mein Notebook hat nur "normales" USB, kein Thunderbolt. Mein Dienst-Schleppi hat's aber da fehlen mir natürlich - tadaa - die Adminrechte. Immerhin: das Gerät taucht auf und die Lampe am USB-C Port muss grün (nicht blau) leuchten...
