Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
@DonChulio - aktuell 663.- bei A soll das Doppelte sein von was...? :sneaky:
Ich hatte im Oktober 591.18 bezahlt. Vorher nie so ein praktisches Gerät wie dieses gehabt (sondern Syno, QNAP).
Das hatt ich mal ein paar Wochen und es hat mich nicht überzeugt. TrueNAS geht und PVE geht auch, aber es wird echt "warm" alles (50°++ im Sommer bei HDs, 100° CPU) und die CPU ist dabei noch schlapp drauf. Bin dann auf ein Minisforum N5 (ohne Pro) gewechselt und damit voll zufrieden. Schnell...
Hab alles in einem. Oder möglichst wenig. Wenn Du mit den ZFS-Settings rumoptimierst, dann weißt Du bald nicht mehr, wo was eingestellt ist. 😬
Es wird halt unübersichtlich. :rolleyes2:
Bei mir ist es "nur" Pihole im Docker im LXC im PVE ... :sneaky: Auch wenn nur einzelne Clients das nutzen, wenn es steht, ist meistens das ganze HomeLan betroffen. Also ja ... Vorsicht bei virtualisierten Netzwerkkomponenten. :oops:
Ich hab ein TS473A ersetzt durch ein Minisforum N5 (ohne Pro). Hatte allerdings Glück und bekam (neulich noch) 80G DDR5 5600 für 180.- rum. Daran ist ja jetzt nicht zu denken.
Habe PVE drauf und für mich ist das perfekt als NAS mit Schwerpunkt Virtualisierung.
Das funktioniert dann z.B. so:
Getestet mit nested Hyper-V. CPU-Last ist im Taskmanager niedrig, auch im 2. Level. Bei "Host" war ja oft High CPU ein Problem wg. der Mitigation.
Kann grad nicht beurteilen, wie ernst das gemeint ist. Aber nehmen wir es mal so, dann bedeutet das ja genau, was ich schrieb: Fehler sind so extrem unwahrscheinlich... also m.E. vernachlässigbar.
Mit async schreibt mein PVE locker mit 600+ MB/s in den PBS. Mit sync erreicht der noch nicht mal...
Das ist bekannt.
Deshalb hab ich ja den Pool vor dem Füllen auf RecSize 1M eingestellt (und special small auf 256K oder gleich 512K, je nach Dataset). Und mit meinen Daten gefüllt (Pool etwa zur Hälfte) sieht es so aus:
Also ... der mit Abstand größte Teil der Dateien steckt in Blöcken >512K...
Ist das nicht eher umgekehrt? Praktisch alle Medien haben doch ein Problem mit small random I/O.
Lassen sich also 1M records nicht tendenziell schneller verarbeiten? :unsure:
Aber selbst wenn nicht... mit 1M records hat man viel mehr Möglichkeiten, mit den special small blocks zu spielen.
Das setzt ja voraus, jemand weiß, was in der VM passiert bzw. kann dort sync writes in seinen Apps einstellen. In 99+% der Fälle ist ja async der default.
Was nützen denn sync wites im ZFS auf PVE, wenn in der VM (z.B. Windows) alles async ist? Windows hat ja sowieso ein internes Caching und das...
Bei mir hat jedes "richtige" ZFS vor allem ein Special VDEV auf SSD.
Statt L2Arc lieber RAM.
Und SLOG... niemand im HomeLab macht doch synchronous writes? Das machen wir ja noch nicht mal in der Firma; oder sonst irgendwer, der sich auf smb/cifs verlässt.
NFS hat defaultmässig sync, aber wer das...
Meinst Du Strom? Das sind so 65 Watt mit noch zwei 6-port Switch (einer 10 GbE). Vl. mach ich noch 'n Test mit nur dem NAS. Das hat 4 HD (eine bay frei) und zwei WD SN700. Es läuft ein LXC mit Docker, ein W11P und 'n PBS. CPU ist meistens <5%, gelegentlich 10% und max bisher so 45%. Ich mach vl...