[Guide] Mein neuer Home-Server / NAS im kleinsten Server-PC der Welt [Mini-PC mit Xeon und ECC RAM]

Wie stellst du dir das denn vor mit SAS Festplatten? Wie würdest du einen SAS Controller unterbringen?
Hmm, ich dachte eigentlich, dass es SAS HBAs für M.2 gibt, nachdem eigentlich die richtigen Lanes verfügbar sein sollten, ich hatte mich aber mit dem Thema noch nicht beschäftigt, nachdem es für mich ohnehin aktuell nicht in Frage kommt.
Nach kurzer Recherche scheint es aber, als wäre die Sache doch nicht so einfach. Evtl. würde es über M.2 --> PCIe --> SAS HBA gehen aber das wäre mir vermutlich ohnehin zu russisch...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
[ERLEDIGT] Muss am 24-poligen Anschluss die Kontakte (grüne & schwarz) 4. & 5. einfach überbrückt lassen ! :d
Danke für deinen Hinweis zu deinen HDDs/ SSDs und NVMe. Ich steh gerade auf dem Schlauch, da ich das von dir empfohlene Netzteil auch geholt hatte, da es absolut den Erwartungen erfüllt, jedoch scheint irgendwie das Backplane nicht damit zu starten.
Bin schon total bescheuert und bräuchte nen Denkanstoß.
Das Netzteil tut, habs überbrückt und der FAN ist angelaufen. Daher wäre ich um Hilfe sehr dankbar. Ich habe dieses Gerät hier: ICY BOX IB-565SSK Backplane 5x 3,5" SATA/SAS (IB-565SSK) Ich kann knöpfchen drücken so viel ich will, nix tut sich gefühlt.
ATX Pins oder nur SATA Power und auf ATX und SATA Power angeschlossen, aber nichts tut sich. Ich dachte SATA Power sollte reichen, aber will nicht.
 
Zuletzt bearbeitet:
[ERLEDIGT] Muss am 24-poligen Anschluss die Kontakte (grüne & schwarz) 4. & 5. einfach überbrückt lassen ! :d
Danke für deinen Hinweis zu deinen HDDs/ SSDs und NVMe. Ich steh gerade auf dem Schlauch, da ich das von dir empfohlene Netzteil auch geholt hatte, da es absolut den Erwartungen erfüllt, jedoch scheint irgendwie das Backplane nicht damit zu starten.
Bin schon total bescheuert und bräuchte nen Denkanstoß.
Das Netzteil tut, habs überbrückt und der FAN ist angelaufen. Daher wäre ich um Hilfe sehr dankbar. Ich habe dieses Gerät hier: ICY BOX IB-565SSK Backplane 5x 3,5" SATA/SAS (IB-565SSK) Ich kann knöpfchen drücken so viel ich will, nix tut sich gefühlt.
ATX Pins oder nur SATA Power und auf ATX und SATA Power angeschlossen, aber nichts tut sich. Ich dachte SATA Power sollte reichen, aber will nicht.
Hmm ich würde da nochmal die Anleitung konsultieren, ob du da nicht evtl. alle 4 Stromanschlüsse brauchst. Meine Backplane hat 3 molex Stecker und die müssen alle angestöpselt sein. Kannst du evtl. beide Teile unabhängig voneinander testen? Die Backplane mal an einem anderen NT anschließen und einfach mal Festplatten direkt am NT anstöpseln, um einen Defekt an einem der beiden Teile auszuschließen.
 
Zuletzt bearbeitet:
Hmm ich würde da nochmal die Anleitung konsultieren, ob du da nicht evtl. alle 4 Stromanschlüsse brauchst. Meine Backplane hat 3 molex Stecker und die müssen alle angestöpselt sein. Kannst du evtl. beide Teile unabhängig voneinander testen? Die Backplane mal an einem anderen NT anschließen und einfach mal Festplatten direkt am NT anstöpseln, um einen Defekt an einem der beiden Teile auszuschließen.
Hi, es reichte die SATA-Stromanschlüsse zu belegen. Da ich aber noch den Noctua Lüfter hatte, habe ich die freie Molex verwendet. Den Lüfter im Server muss ich auch noch gegen einen anderen tauschen, der ist mir zu laut...hat aber noch Zeit. Sonst läuft es recht gut soweit - auch mein neuer "virtualisierter" TrueNAS läuft recht fix :d

1743758901715.png


Mit der NVMe Micron 7450 Pro (960 GB) mach ich mir jetzt keine so große Gedanken bzw. SSD-ToT, aber gibts eine Empfehlung wie ich Proxmox oder VMs entsprechend einstellen muss bzgl RAM - Caching?

Im Moment fahre ich noch mit einer single NVMe für Proxmox - bin aber damnächst bereit noch eine weitere zu holen und diese dann per Adapter am SSD Anschluss zu befestigen um ein mirror zu erstellen - so in etwa: Festplattengehäuse Konverteradapter (vorsicht: Strom & Anschlüsse sind nicht einfach verwendbar - sieh Hinweise des Hersteller - soll nur eine Verbildlichung darstellen von meinem Wunsch)
 
Zuletzt bearbeitet:
aber gibts eine Empfehlung wie ich Proxmox oder VMs entsprechend einstellen muss bzgl RAM - Caching?

Ich bin kein Profi auf dem Gebiet, also kann ich dir leider nicht garantieren, dass das so alles optimal ist, aber ich nutze dafür log2ram und das hier ist meine config:

Code:
root@proxmox:~# cat /etc/log2ram.conf
# Configuration file for Log2Ram (https://github.com/azlux/log2ram) under MIT license.
# This configuration file is read by the log2ram service

# Specify the amount of RAM reserved for storing logs. This setting determines the maximum size of the RAM folder.
# Ensure 'SIZE=' is set larger than the current size of your /var/log directory to prevent startup failures.
# Also, configure logrotate to manage log growth and prevent the /var/log directory from exceeding this reserved size.
# The default setting of 128M suffices for many typical applications, but you may need to increase it for
# servers or systems that generate extensive logging.
SIZE=3000M

# Select the log syncing method between disk and RAM:
# - 'rsync' is the default unless 'USE_RSYNC' is set to 'false'.
# - If 'rsync' is unavailable, 'cp' is automatically used as a fallback.
# - Set 'USE_RSYNC' to 'false' to explicitly use 'cp'.
#USE_RSYNC=false

# By default, if there is insufficient RAM space, a system notification email is sent.
# Set this to 'false' to disable email notifications. (The error will still be logged locally).
#NOTIFICATION=true

# Specify the command for sending error notifications.
# By default, it uses the `mail` command to send an email, with the message body provided via stdin.
# You can replace this with any command (such as 'shoutrrr') or a custom script for handling notifications.
#NOTIFICATION_COMMAND=mail -s "Log2Ram Error on $HOSTNAME"

# Specify the directories to be stored in RAM. List each directory using its absolute path, e.g., `/path/folder`.
# Corresponding directories on the HDD, named `/path/hdd.folder`, will be automatically created for each listed path.
# Separate multiple paths with a semicolon `;` and do not include a trailing slash at the end of the paths.
# Example: PATH_DISK="/var/log;/home/test/FolderInRam"
PATH_DISK="/var/log;/var/lib/pve-cluster;/var/lib/rrdcached"

# Should log2ram consider journald and do a log rotate before copying the log files back? Please note that for this
# rsync is mandatory. Also make sure that you have configured SystemMaxUse in journald.conf, because the size of this
# ram folder is will probably not be as large as journald will use by default
JOURNALD_AWARE=true

# Set to 'true' to enable log rotation for journald logs before syncing.
# Note: 'rsync' must be used for this feature.
# Ensure 'SystemMaxUse' is configured in 'journald.conf'
#  - (To limit journald’s disk usage to be smaller than the log2ram RAM allocation).
JOURNALD_AWARE=true


# **************** Zram backing conf  ****************

# Set ZL2R=true to enable zram, providing compressed RAM storage for log2ram.
# Set ZL2R=false to use tmpfs, which provides uncompressed memory-only storage.
ZL2R=false

# Choose a compression algorithm from those listed in /proc/crypto.
# 'lz4' is the fastest, offering the lightest CPU load but lower compression ratios.
# 'deflate' (zlib) and 'Zstandard' (zstd) provide higher compression ratios but use more CPU.
# 'lzo' is similar to 'lz4' but may perform better with certain binaries due to optimizations.
# Set COMP_ALG to 'lz4' for speed, 'zstd' for better compression, or 'lzo' or 'zlib' if optimizations or availability are concerns.
COMP_ALG=lz4

# LOG_DISK_SIZE specifies the uncompressed zram disk size.
# (Sets the size of the zram disk that will be presented to the operating system).
# To estimate amount of RAM this will consume, divide LOG_DISK_SIZE by your chosen compression algorithm's ratio:
# - lzo/lz4 typically compresses at a ratio of 2.1:1
# - zlib compresses at about 2.7:1
# - zstandard (zstd) achieves around 2.9:1
# Example calculation using lz4:
#    Given LOG_DISK_SIZE = 256M (which represents 256 Megabytes of uncompressed log data),
#    the estimated zram RAM usage = 256 MB / 2.1 ≈ 122 MB of RAM.
LOG_DISK_SIZE=6000M

NVMe für Proxmox - bin aber damnächst bereit noch eine weitere zu holen und diese dann per Adapter am SSD Anschluss zu befestigen um ein mirror zu erstellen

Warum denn die Spielerei mit dem Adapter und nicht einfach eine 2.5" SSD?
 
Mahlzeit und danke für deine Ausführlichen Beschreibungen und Antworten. Ich habe eine Frage zu dem Reverse Proxy. Du hast ja eine .uk Domain bei Cloudflare gemietet. Hat das eine besondere Bewandtnis oder würde auch eine Strato-Domain funktionieren?
 
Mahlzeit und danke für deine Ausführlichen Beschreibungen und Antworten. Ich habe eine Frage zu dem Reverse Proxy. Du hast ja eine .uk Domain bei Cloudflare gemietet. Hat das eine besondere Bewandtnis oder würde auch eine Strato-Domain funktionieren?
[!!Ich bin kein Fachmann und mein Wissen zu diesen Themen basiert größtenteils auf Selbststudium, ausgiebiger Internetrecherche und Erfahrungswerten!!]

Also die domain.uk is es nur geworden, weil UK TLDs zu dem Zeitpunkt spottbillig waren und kurz bzw. leicht zu merken sind. Deshalb habe ich auch einfach gleich für 4 Jahre im Vorhinein bezahlt.
Abgesehen davon, dass die Domains bei cloudflare schön günstig sind, hat CF noch viele viele weitere Vorteile:
  • Super einfaches management-interface
  • Einfache DNS Verwaltung
  • Super einfache kostenlose SSL Zertifikate die über NPM automatisch verlängert werden
  • Einfaches Setzen von Zugriffsregeln (Geoblocking, Ausnahmen, Weiterleitungen)
  • kostenloser DNS proxy (man kommt nicht ohne Weiteres nur mit der Domain an deine IP)
  • kostenloser zero trust tunnel
  • kostenlose catch-all mail Weiterleitung (jede mail die an ad3asdads33das@meineDomain.uk geschickt wird, wird an eine meiner Adressen weitergeleitet)
  • DDOS und div, andere Schutzmechanismen
  • Für CF gibt es einige fix fertige Dyn-DNS scripts (läuft bei mir auf dem OpenWRT router)
Meine Firmendomains laufen über einen etablierten, regionalen Anbieter (world4you) und obwohl diese dort teurer sind, bieten die nur einen Bruchteil der Services an, bzw. verlangen einen Aufpreis für Services, die bei CF kostenlos dabei sind und bei CF lässt sich alles viel einfacher und übersichtlicher konfigurieren.

Grundsätzlich würde ich annehmen, dass die reverse-proxy Funktionalität über NGINX auch mit anderen Anbietern reibungslos funktionieren sollte. Neben den genannten Vorteilen fällt mir spontan nur ein:
  • Wenn der Anbieter keine Möglichkeit bietet A-Records (die Ziel IP) automatisiert zu ändern, wird eine Nutzung ohne statische IP schwierig
  • Wenn der Anbieter keine Let's Encrypt Unterstützung bietet, könnte es mit dem Erstellen und automatischen Update von kostenlosen SSL Zertifikaten schwierig werden

Es wäre cool wenn einer der Profis hier bestätigen könnte, dass ich keinen Blödsinn verbreite!
 
Nochmal ein kurzes Update meinerseits. Ich hatte sehr netten Kontakt mit Elena vom Hunsn support, da ich u.a. wissen wollte, ob der SATA-Anschluss port multiplying versteht (tut er ageblich nicht), dann hätte man noch zwei SATA m.2 SSDs über einen dual-m.2 SATA adapter anschließen können.

Ich hab' den Mini-PC jetzt vermutlich ausgereitzt:

- 2x 32 GB ECC SODimms
- 2x Lexar NM790 in den beiden NVME-Slots
- 1x Lexar NM790 per Adapter in den m.2 E-Slot (statt Wifi / BT-Karte)
- 1x WD Red SA500 4TB SATAIII im 2.5" Halter

Jetzt bin ich am Überlegen, wie ich Proxmox darauf installiere, welche SSds für System und Daten / VMs verwendet werden, welches File-System etc.
Von ZFS bin ich abgekommen, da das anscheinend selbst ordentliche consumer-SSDs schnell aufarbeitet.
Derzeitiger Favorit:
- System / VMs auf die Lexar, die im E-slot steckt
- 2x Lexar (Standard-slots) für OpenMediaVault als Raid1 mit BTRFS
- WD Red SATA für weniger wichtige Daten / MP4 etc. ebenfalls mit BTRFS (wenigstens Checksum, wenn schon keine Ausfallsicherheit).

Alternative wäre Proxmox System auf die SATA SSD und die drei Lexar NVMEs als Raid-Verbund unter BTRFS, aber das soll etwas problematisch sein im Raid5.
Für alternative / bessere Vorschläge wäre ich dankbar.

Ich stelle nachher noch die Infos von Hunsn ein, vielleicht hilft es dem einen oder anderen noch (ist aber eigentlich nix Neues).

Der E / M - Adapter ist folgender:
-> https://www.amazon.de/dp/B0DGG8R7TF?ref=ppx_yo2ov_dt_b_fed_asin_title
Die NVMEs habe ich zusätzlich noch mit Kupfer-Kühlkörpern versehen, vielleicht hilft es ein bisserl und sie passen gut rein:
-> https://de.aliexpress.com/item/1005005406876677.html?gatewayAdapt=glo2deu
Dem Xeon habe ich PTM7950 Kühlpads spendiert, das hatte bei meinem alten Macbook Pro sensationell geholfen (minus 20°C, der lief dann immer bei ca. 50°C statt >70° bei ca. 20% CPU-Last).
-> https://de.aliexpress.com/item/1005006584994886.html?gatewayAdapt=glo2deu
Beitrag automatisch zusammengeführt:

Hier noch die Infos, die ich von Elena / Hunsn support bekommen habe (ich hatte gefragt, ob ich sie hier posten darf).
 

Anhänge

  • IMG_20250816_223526427.jpg
    IMG_20250816_223526427.jpg
    896,3 KB · Aufrufe: 36
  • HUNSN Infos.pdf
    99,6 KB · Aufrufe: 5
  • HUNSN BY02 VESA MOUNT INSTALL.pdf
    297,3 KB · Aufrufe: 4
  • HUNSN BY02 User Manual.pdf
    1,8 MB · Aufrufe: 5
  • HUNSN BY02 Install demo layout.pdf
    546,5 KB · Aufrufe: 6
  • 01 memory and storage -2.png
    01 memory and storage -2.png
    445,6 KB · Aufrufe: 35
  • 01 memory and storage -1.png
    01 memory and storage -1.png
    286,1 KB · Aufrufe: 36
Zuletzt bearbeitet:
- 2x Lexar (Standard-slots) für OpenMediaVault als Raid1 mit BTRFS
- WD Red SATA für weniger wichtige Daten / MP4 etc. ebenfalls mit BTRFS (wenigstens Checksum, wenn schon keine Ausfallsicherheit).

Alternative wäre Proxmox System auf die SATA SSD und die drei Lexar NVMEs als Raid-Verbund unter BTRFS, aber das soll etwas problematisch sein im Raid5.

Raid-5 ist in solchen Konstellationen eher suboptimal, weil: wenn sich das Raid5 mal zerlegt, hast Du keine Chance das wieder grade zu ziehen, weil alle Daten in kleinen Häppchen über alle Datenträger verteilt sind. Das ist ungefähr so, als würde man versuchen aus Hackfleisch wieder eine Kuh zu bauen.

Raid-1 (=Mirror) Ausfallsicherheit halte ich auch für die falsche Herangehensweise, da der Storage Mirror nur ein eine von vielen Fehlerqullen ist (Netzteil, Mainboard, Stromausfall etc). Bringt aber den Nachteil mit sich, wenn Du mal versehentlich was löscht o.ä. dann nützt dir der Mirror auch nichts. Da sich zu Hause eher weniger Daten innerhalb von 24 Stunden ändern ist die beste Variante eigentlich Single Drive + Internes Backup. Und dann am besten Sync auf weitere externes System, idealewrweise außer Haus. Das kann man mit dem Proxmox Backup Server sehr einfach umsetzen.
 
Zuletzt bearbeitet:
Raid-5 ist in solchen Konstellationen eher suboptimal
Hatte ich immer in meinen Synology NAS, hat bei Plattenausfall auch gut funktioniert (ist zweimal passiert), neue Platte rein, rebuild, fertig.
Problem bei dem Hunsn PC ist: welche SSD ist denn nun ausgefallen? Gibt ja keine nummerierten Schächte und nach einem Ausfall erwischt man im Zweifelsfall die falsche SSD. Während dem Rebuild fällt dann auch gern mal eine zweite Platte aus und dann ist Essig.

Ich suche eine Lösung, wo alle Dateien mit einer Checksum versehen sind (daher ZFS oder BTRFS), damit ich mitkriege, wenn Dateien korrupt werden und entsprechend aus dem Backup wiederhergestellt werden können. Hatte ich bei einem QNAP NAS vor etlichen Jahren, sehr viele meiner Fotos waren nach einem Crash des QNAP nicht mehr lesbar.

Wollte wie gesagt einfach ZFS verwenden, aber mit 'normalen' SSDs scheint das zu problematisch zu sein. Gesichert wird natürlich, aber das allein hilft wenig, wenn man nicht mitbekommt, daß Dateien nicht mehr brauchbar sind.

Verwendet Ihr BTRFS oder ZFS auf einzelnen Platten (ohne Redundanz)?
 
Wenn bei einem Raid-5 nur EINE Platte ausfällt, kann man die ersetzen, Rebuild laufen lassen fertig. Kritisch wird es, wenn mehr wie eine Platte ausfällt, oder das Raid z.B. durch Stromausfall aus dem takt kommt - dann ist der Raid Status nicht "degraded", sondern "crashed". Und dann wird es mindestens fummelig, dem Raid wieder beizubringen, das "alles in Ordnung ist", sollten aber 2 oder mehr Datenträger richtig defekt sein, kannst Du exakt NICHTS MEHR recovern.

Verwendet Ihr BTRFS oder ZFS auf einzelnen Platten (ohne Redundanz)?

Weder noch - ich nehme klassisch ext4 und gut ist. Keine Probleme.
 
Wollte wie gesagt einfach ZFS verwenden, aber mit 'normalen' SSDs scheint das zu problematisch zu sein. Gesichert wird natürlich, aber das allein hilft wenig, wenn man nicht mitbekommt, daß Dateien nicht mehr brauchbar sind.
Meinst du wegen der Write Amplification?

Ist halt die Frage, wie man das ZFS "einstellt" und wie viel darauf wirklich gearbeitet/geschrieben wird...

Als Beispiel den Desktop, auf meiner 980pro wo das OS drauf ist (und das meiste andere) hab ich jetzt 44 tbw... nach 3,5 Jahren... 1300 tbw darf sie haben, also auch mit 20x write amplification hätte ich noch 2-3 Jahre Nutzungsdauer bis das ein Thema wird.


Also bevor ich OMV mit btrfs als Filer-VM verwende, tät ich lieber TrueNAS mit ZFS als Filer-VM verwenden... ist imho kein Vergleich zu OMV. Außer natürlich, du hast zu OMV ne gewisse Liebe und kommst gut damit klar (meins isses nicht).
 
Meinst du wegen der Write Amplification?
Danke, ja, ich hatte mir eigentlich nix bei ZFS gedacht, die Lexar haben 3000 TBW, was ja nicht so ganz wenig ist. Dann liest man im Internet ständig von genau diesen Lexar NVMEs und wie schnell ZFS sie geshredded hat. Ich hätte mich vorher natürlich schlau gemacht, wie man die Schreibvorgänge minimiert, eine USV hängt auch vor dem Ganzen, aber so unbeschwert wie vorher bin ich nicht mehr. Wie gesagt, ich habe schon einmal etliche Fotos verloren, trotz QNAP NAS, das möchte ich in Zukunft vermeiden.

Zwischen TrueNAS und OMV habe ich eigentlich keine Präferenzen, OMV bietet halt BTRFS an, was etwas weniger schreibdicht ist. Die simple Oberfläche von OMV gefällt mir auch gut, beides sollte problemlos in einer VM laufen, also nein, keine wirkliche Präferenz.
 
Tut man das?
Hab bisher nur von geshreddeten "was-so-rumliegt" SATA SSDs gelesen und so. Hängt halt von der Nutzung ab.

Aber wennst dir die Enterpreise SSDs ansiehst, so viel mehr TBW haben die auch nicht... vielleicht das 2-5 fache aber das 10-fache schon eher nicht...
Mit jeweils 4tb hat eine DC1500M hat 7 PBW, ne Fury Renegade 4 PBW, ne 990pro und SN850X 2.4 PBW...
Bei 4tb haben die "besseren" Modelle (also hauptsächlich Enterprise, Consumer hat eher keine 5 pbw) alle zwischen 5 und 10 pbw, über 10 pbw haben nur ein paar lahme SATA Enterprise SSDs (beachtliche 20-25 pbw immerhin).

Ist jetzt also nicht so dramatisch.



btrfs ist genau so ein COW wie ZFS, so viel nimmt sich das wohl nicht...
Bei TrueNAS / ZFS kannst schon was einstellen und so, OMV ist da eher ein Witz in meinen Augen, aber vllt. hab ich OMV auch nicht genug Aufmerksamkeit gegeben, kann auch sein.
 
Wie gesagt, ich habe schon einmal etliche Fotos verloren, trotz QNAP NAS, das möchte ich in Zukunft vermeiden.

Das Problem ist an der Stelle nicht das Dateisystem oder der Typ des Datenträgers, sondern kein Backup.
Es ist völlig wumpe, welches Dateisystem oder Speichermedium Du verwendest, solange Du mindestens ein konsistentes Backup hast. Wenn Datei / Datenträger freck, dann Restore und fertig.

Deshalb ja auch für den Home Bereich besser fleissig Backups machen als Raid.

Und an der Stelle ist Automatisierung entscheidend, da manuelle Backups oft der Faulheit zum Opfer fallen.

Bewährte Strategie:
Storage mit internem Backup, weil interne geht immer.
Zusätzlich Backup sync auf externes System, im idealfall außer Haus.
 
Das Problem ist an der Stelle nicht das Dateisystem oder der Typ des Datenträgers, sondern kein Backup.
Haja, wenn man sein Backup mit unbemerkt verrotteten Daten überschreibt weil man es aktuell halten will, ist das halt blöd... zugegeben, selten und unwahrscheinlich.
Deshalb ja auch für den Home Bereich besser fleissig Backups machen als Raid.

Und an der Stelle ist Automatisierung entscheidend, da manuelle Backups oft der Faulheit zum Opfer fallen.
Das ist absolut richtig.
Wobei die empfundene Hürde zum automatischen Backup so groß ist, dass es die meisten bei Manuell machen.
Das Auto-Backup gehört auch eingerichtet, getestet und ab und zu mal überprüft.

Raid1/Mirror ist halt bequem weils erstmal weitergeht, wenn ein Datenträger ausfällt.
Wertvoller ist aber ein halbwegs aktuelles Backup, weils auch davor schützt, wenn mans anderwertig verbockt hat. Löschen, Ransomware, whatever, meist stoplert man ja doch über eigene Dummheit.


Ich fahr im großen Datengrab-Pool auch teilweise nobackup, einfach weils nicht sinnvoll darstellbar ist (dafür müsste ich ja nochmal mindestens die Menge der Datenträger bereitstellen). Gewisse Ordner bzw. Datasets werden von Zeit zu Zeit mal gesichert, andere nicht (der Inhalt ist am Ende dann doch verzichtbar irgendwo).
Insofern versteh ich schon, wenn man versucht ein pool "nobackup" halbwegs failsafe zu bekommen.


Wenn man wirklich beschränkt in der Anzahl der Datenträger ist, ist so ein 1+1 Autobackup Gespann wie Supaman es beschreibt imho sinnvoll, hab mir das auch schon überlegt gehabt (bin dann aber zum Größenwahnsinn übergegangen).
Realistsich sterben (Qualitäts-) SSDs in der Heim-Nutzung nicht. Guck hier im Forum. Kein Mensch fährt hier ein Raid1 in seinen Gaming/Alltags-PCs, kaum jemand macht "echte" Backups (Fotos mal auf ne externe kopieren, ja, aber das is ja kein richtiges Backup für mich). Insofern ist dieser Redundanz-Gedanke gar nicht soo wichtig.

Ist eigentlich eine schöne Lösung, wennst TrueNAS als Filer-VM verwenden willst (genug Leistung hat das Ding ja offenbar) findet sich bestimmt ne Möglichkeit das halbwegs sauber über die GUI zu erledigen.
Fürs ZFS musst dich ein bissl einlesen, wie man das Richtung "kleine Write Amplification" optimiert... wsl. das Aquivalent der "Block-Größe" klein machen (mir entfällt gerade der Name dafür, ist bei ZFS alles bissl mehr magic, aber nix, was man nicht in absehbarer Zeit gelesen und verstanden hat).
 
Doch schon, ist schon ZFS, speziell wenns falsch konfiguriert bzw. verwendet wird.

Es geht ja ums "copy on write"...

Dass ungünstige Logging-Einstellungen das befeuern, ja.
 
Stimmt schon, ZFS auf Bootlaufwerk erzeugt eine deutliche Schreiblast. Ich habe hier mal einen Proxmox Host mit ZFS und normalen SSDs als Bootlaufwerke gehabt (Altlast vom Vorgänger), da ist die Restlebensdauer welche die SSD ausgibt innerhalb von 3 Jahren auf 12% gesunken (nur das Bootlaufwerk, die Datenplatte war Samsung Datacenter). Der "Verlust" für eine 250 GB Crucial SSD ist verschmerzbar, erzeugt aber ggf. Aufwand, wenn es zum Ausfall kommt. Da war eh eine Neuinstallation fällig und habe dann neue Datacenter SSDs als Mirror installiert, das sollte eine weile halten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh