Ich habe nun auch mal ein wenig angefangen mit ZFS on Windows zu basteln, einfach mal schauen, wie gut sich das als Storage für Hyper-V eignet und werfe mal meine Ergebisse und Fragen hier rein. Bisher nutze ich nur TrueNAS als NFS Storage für ESXi, was seit Jahren wunderbar läuft.
Zum Server:
Dell PowerEdge R440
Dual Xeon Silver 4110
512GB RAM
Dual 25GBit SFP+ NIC
4x Seagate Nytro 1351 960GB SATA SSDs
Windows Server 2022
zfswin-2.3.1rc14
Besonderheiten: Für den Test wurde die Backplane direkt ans Mainboard angeschlossen. Das Betriebssystem wird über iSCSI von einem der anderen Server gebootet
Aus den vier SSDs wurde ein Raidz1 Pool mit folgenden Parametern erstellt:
Code:
zpool create -O casesensitivity=insensitive -O compression=lz4 -O atime=off -o ashift=12 SSD-Pool raidz1 PHYSICALDRIVE0 PHYSICALDRIVE1 PHYSICALDRIVE2 PHYSICALDRIVE3
Sowie ein normales Dataset (Laufwerk D)
Code:
zfs create SSD-Pool/SSD-Dataset
Und zum Vergleich auch ein verschlüsseltes (Laufwerk E)
Code:
zfs create -o encryption=aes-256-gcm -o keyformat=passphrase SSD-Pool/SSD-Dataset-Encrypted
Auf dem normalen Dataset sieht die Performance und auch die Auslastung des Systems OK aus.
Gut, die Lesewerte sind übertrieben und vermutlich komplett aus dem RAM gelesen, da keine aktivität der Aktivitäts-LEDs zu beobachten war.
Anders siehts aus, wenn Verschlüsselung zum Einsatz kommt.
Schon bei der Vorbereitung geht die CPU auf nahezu Volllast.
Nur um einen Bruchteil der Leistung zu liefern.
OK, das Blech ist jetzt nicht das flotteste, aber da ist selbst mein HDD-Pool auf nem TrueNAS mit vier Kernen eines E5-2680 v2 schneller.
Ist hier was bekannt oder wo kann optimiert werden?
Soweit ich das sehen konnte, tauchen Laufwerksauslastungen weder im Taskmanager noch im Ressourcenmonitor auf. Ist da noch was geplant oder ist die einzige Möglichkeit
?
Kommt mir das nur so vor, oder wird hier mehrfach binär und dezimal umgerechnet? Das aus den 960GB unter Windows etwa 894GiB werden ist ja nichts untypisches. Auch das Windows diese als Gigabyte bezeichnet ist ja nichts neues.
Aber irgendwie komme ich bei einem vierfachen davon weder auf die 3.48T des Pools, die mir
ausgeben noch bei einem dreifachen auf die 2.45T / 2512GiB des Datasets. Oder ist hier einfach der Overhead so groß?
ZFS liebt ja RAM für seinen ARC. Falls es sich ähnlich wie unter TrueNAS Scale verhält und bis zu 50% RAM in Beschlag nimmt, ist das für ein reines Storage zwar OK, aber vielleicht nicht so gut für einen Hyper-V Host. Wie kann ich die RAM Nutzung manuell anpassen?
Ich habe mir napp-it auch mal via xampp auf die Kiste gepackt (vorher noch nie benutzt), sehe für mein Szenario grade aber nicht den Mehrwert und habe es damit leider vor ein paar Tagen auch schon geschafft, den Server zu bluescreenen. Hab leider vergessen wie, war mitten in der Nacht
