Aktuelles

[Sammelthread] ZFS Stammtisch

zapopost

Neuling
Mitglied seit
02.09.2012
Beiträge
11
An dem gleichen Controller? Was für einer ist das?
Ja, am selben Controller. Ist der interne vom HP ProLiant MicroServer N54L, Chipsatz: AMD RS785E/SB820M.

Scheint wohl nicht napp-it (OmniOS) spezifisch zu sein, OpenIndiana erkennt die Platten (N54L->ESXi->RDMP->OpenIndiana) auch nicht richtig.

Wenn ich allerdings OpenIndiana direkt auf dem N54L boote, werden die Platten mit 3TB erkannt, muss also die Kombination ESXi/RDMP->Solaris* sein.
Habe als Workaround nun den ZFS Pool mit einer Live CD unter OpenIndiana angelegt, dann den ESXi gestartet und dort über RDMP die Platten in napp-it eingebunden, das geht.

Nur musste ich direkt eine Platte austauschen (alte HDD, pending sectors), die wurde aber wieder nicht richtig erkannt (cannot attach c2t1d0 to c2t3d0: device is too small). Habe vieles probiert (fdisk -B, format, parted, dd /dev/zero, ...) geht alles nicht.
Napp-it VM runter gefahren, Linux mit den RDMP Platten hoch, dort die neue HDD mit parted bearbeitet. Dann unter debian ZFS installiert und die Platte in den mirrored zpool eingebunden. Linux VM runter, napp-it VM hoch, pool OK. Ziemlich umständlich, aber geht.

Allerdings ist mir noch aufgefallen, dass die mit OpenIndiana erstellten Platten bei Sector 256 beginnen, wohingegen die eine mit Linux eingebunden Platte bei Sector 2048 beginnt. Ob das noch zu Problemen führt?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Crash Override

Neuling
Mitglied seit
18.10.2011
Beiträge
121
Ein LSI Logic 1048 z.B. kann keine Platten über 2TB, daher kann es an der Emulation liegen. Versuche doch auch hier den Paravirtual.
 

gea

Experte
Mitglied seit
16.11.2010
Beiträge
4.094
Ich habe mir mal wieder ein paar Tage Zeit genommen um ein paar (schnelle) Benchmarks zu fahren.

- Wie schlägt sich ein AiO Fileserver im Vergleich zu Barebone
- welchen Einfluß hat RAM auf die ZFS Performance (random/ sequential, read/write)
(2/4/8/16/24G RAM)
- wie skaliert ZFS über mehrere vdev
- Unterschied HD vs SSD vs NVMe vs Optane
- Slog SSd vs ZeusRAM vs NVMe vs Optane

aktueller Stand
http://napp-it.org/doc/downloads/optane_slog_pool_performane.pdf
 

besterino

Enthusiast
Mitglied seit
31.05.2010
Beiträge
4.825
Ort
Wo mein Daddel-PC steht
System
Desktop System
Rechenknecht
Laptop
Zu viele
Details zu meinem Desktop
Prozessor
3960X
Mainboard
ASRock TRX40 Taichi
Kühler
Heatkiller IV Pro TR4, Dual Mora 420, Tube 200, D5 Vario, Aquaero 6 Pro, DFS High Flow USB
Speicher
64GB (4x16GB @ 3600, CL16)
Grafikprozessor
Nvidia 2080Ti FE mit Watercool Block+Backplate
Display
55" OLED (Dell AW5520QF)
SSD
11TB (4x 2TB ADATA SX8200PNP im Raid0 auf Asus Hyper X16, 1TB Samsung PM961, 2TB Intel 660p)
Soundkarte
Chord Mojo
Gehäuse
Thermaltake P7 Core TG
Netzteil
Seasonic Prime 1300W Platinum
Keyboard
Roccat Vulcan 100
Mouse
Logitech g9x
Betriebssystem
Windows 10 Pro
Sonstiges
Mellanox ConnectX-4 (Dual 100Gbit Netzwerk + WaKü), Rode NT-USB uvm. ...
Very interesting read!

Gibt es einen erkennbaren (vermuteten) Grund, warum gerade mit der Optane kein Passthrough möglich ist?

Bis ich das unter 4. gelesen habe, habe ich mich gefragt, warum eben in der AIO-Variante die nur als vdisk zum Einsatz kam. (Könntest Du vielleicht noch als Hinweis/Note / in fett unter 1.2 ergänzen. Nur eine Idee.)
 

gea

Experte
Mitglied seit
16.11.2010
Beiträge
4.094
Da pass-through mit Optane auch unter BSD nicht geht, muss man wohl auf VMware warten, siehe Solaris, Nexenta, OpenIndiana, and napp-it | ServeTheHome and ServeThe.Biz Forums

Hat mich aber inspriert Optane als vdisk auszuprobieren und ich war überrascht über die Performance. Das ermöglicht Optane als datastore für VMs, Slog und L2Arc gleichzeitig da Optane die parallele Last nicht so ausbremst.

Ist sogar so, dass manche Benchmarks mit vdisk schneller sind als mit barebone. Ob damit Sicherheitsbedenken mit sync write über den ESXi Treiber einhergehen kann ich noch nicht sagen.
 

besterino

Enthusiast
Mitglied seit
31.05.2010
Beiträge
4.825
Ort
Wo mein Daddel-PC steht
System
Desktop System
Rechenknecht
Laptop
Zu viele
Details zu meinem Desktop
Prozessor
3960X
Mainboard
ASRock TRX40 Taichi
Kühler
Heatkiller IV Pro TR4, Dual Mora 420, Tube 200, D5 Vario, Aquaero 6 Pro, DFS High Flow USB
Speicher
64GB (4x16GB @ 3600, CL16)
Grafikprozessor
Nvidia 2080Ti FE mit Watercool Block+Backplate
Display
55" OLED (Dell AW5520QF)
SSD
11TB (4x 2TB ADATA SX8200PNP im Raid0 auf Asus Hyper X16, 1TB Samsung PM961, 2TB Intel 660p)
Soundkarte
Chord Mojo
Gehäuse
Thermaltake P7 Core TG
Netzteil
Seasonic Prime 1300W Platinum
Keyboard
Roccat Vulcan 100
Mouse
Logitech g9x
Betriebssystem
Windows 10 Pro
Sonstiges
Mellanox ConnectX-4 (Dual 100Gbit Netzwerk + WaKü), Rode NT-USB uvm. ...
In der Tat, fand ich bei einzelnen Benchmarks bemerkenswert, dass Virtualisierung flotter ist als bare metal. Kann ja dann nur durch Caching auf irgend einem Zwischenlayer sein oder schlechte(re) Treiber des OS für die reale
Hardware im Vergleich zu den virtuellen Devices.

Ausgeschlossen ist das m.E. nicht: wenn bei VMware sowohl die Treiber für die Hardware, das Visualisierungs-Layer als auch die Treiber für das Gast-OS (vmwaretools) aus einer Hand kommen, spricht nichts dagegen, dass das unter‘m Strich besser harmoniert als irgendein Standard-Treiber (z.B. für NVMe).

Aber auch nur Mutmaßungen.
 

zapopost

Neuling
Mitglied seit
02.09.2012
Beiträge
11
Ein LSI Logic 1048 z.B. kann keine Platten über 2TB, daher kann es an der Emulation liegen. Versuche doch auch hier den Paravirtual.
Ich fand die Idee ganz spannend, leider kann ich Paravirtual nicht auswählen, wenn im ESXi als OS Solaris 11 eingestellt ist.
Habe dann alle anderen verfügbare Varianten durchgetestet: wenn ich die Platte an den (virtuellen) SATA Controller hänge, wird die Platte in napp-it richtig erkannt.

Aber danach hat napp-it wiederholt eine kernel panic geworfen und sich auf die Nase gelegt. Passiert z.B. immer dann, wenn ich in der GUI Smartinfo aufrufe.

=> Leider läuft das System dann nicht mehr so stabil das ich es produktiv einsetzen kann.

Update:
Kernel panics mit dem SATA Controller treten auch nach einiger Dauer im laufenden Betrieb auf
 
Zuletzt bearbeitet:

tekken321

Enthusiast
Mitglied seit
24.04.2010
Beiträge
90
Hallo, ich wollte mir demnächst einen Server(NAS,Cloud,diverse VM) ins Haus stellen (Dell T30,Host Proxmox), da ich allerdings mehr wie 4 HDD's anschliessen möchte, werde ich wohl noch ne Adapterkarte für mehr SATA-Anschlüsse einbauen. Nachdem ich nun einiges über ZFS gelesen habe, dürfte es ja eig. egal sein wenn ich ein RaidZ2 mache,wobei dann Platten intern und über die Adapterkarte amgeschlossen sind,oder?Gibt's da eventuell noch was zu beachten?

Vielen Dank schonmal

Grüße tekken321

Gesendet von meinem SM-G935F mit Tapatalk
 

MrDeluxe

Semiprofi
Mitglied seit
01.04.2006
Beiträge
1.428
System
Laptop
Thinkpad E480
Details zu meinem Desktop
Prozessor
AMD 3700x @ 4,3 Boost-Overdrive + Thermal Grizzly Aeronaut
Mainboard
Gigabyte Aorus Pro X570
Kühler
Scythe Fuma 2
Speicher
G,Skill - F4-3200C14D-16GFX
Grafikprozessor
RX480
Display
1xBenq G2411HD, 1xLG 27GL850-B, 1xBenq G2411HD @ Icy Box Monitor Arm IcyBox 3 – IB-MS405-T
SSD
WD Black SN750
HDD
Samsung 850Evo, Crucial 120GB @ Linux EOS
Opt. Laufwerk
N/A
Soundkarte
OnBoard
Gehäuse
Fractal Design Define R6 USB-C Blackout
Netzteil
be quiet straight power 650W
Keyboard
CMSTORM
Mouse
MX518
Betriebssystem
Win10 + Linux Elementary OS
Hab den HBA H310 damals geflasht. Die PCIe Karte habe ich zur virtuellen Maschine über PCI Passthrough durchgereicht. Da gibt es dann nichts weiter zu beachten.
 

Swivel

Semiprofi
Mitglied seit
04.10.2016
Beiträge
93
Hi,

wie kann ich denn die Snapshots von Napp-it auf einen externen Laufwerk bzw in ein anderen pool speichern?
Meine Idee ist eigentlich dass ich (ja ich weiß, dass man das nicht macht) einen zweiten Pool erstellt und dort die Snaps hin speichert. Später dann auf eine externe Festplatte.

zweite Kurze Frage:
Sollte ich später zu meinem z1 pool einen mirror hinzufügen, wird das ein Raid10 und erst dann gefüllt wenn der z1 voll ist?
 

gea

Experte
Mitglied seit
16.11.2010
Beiträge
4.094
!:
ZFS ist ein CopyOnWrite Dateisystem bei dem bei jeder Änderung eines Datenblocks dieser neu geschrieben wird. Der alte Stand wird zum Überschreiben freigegeben oder bei einem Snap eingefroren. Snaps sind also immer Bestandteil eines Dateisystems.

Kopieren kann man Snaps via ZFS Replikation zu einem anderen Dateisystem oder per normalem Datei-Kopieren.

2.
Wenn man ein weiteres vdev hinzufügt so ist das zweite vdev zunächst leer. Bei jeder Änderung wird aber ZFS die Änderungen verstärkt auf des freiere vdev schreiben.

Ein z1 um einen Mirror ergänzen geht zwar, ist aber eher unüblich. Normalerweise bleibt mann bei einem vdev-Typ also mehrere mirrors (Raid-10) oder mehrere Z1 (analog Raid 50)
 

Swivel

Semiprofi
Mitglied seit
04.10.2016
Beiträge
93
!:
ZFS ist ein CopyOnWrite Dateisystem bei dem bei jeder Änderung eines Datenblocks dieser neu geschrieben wird. Der alte Stand wird zum Überschreiben freigegeben oder bei einem Snap eingefroren. Snaps sind also immer Bestandteil eines Dateisystems.

Kopieren kann man Snaps via ZFS Replikation zu einem anderen Dateisystem oder per normalem Datei-Kopieren.

2.
Wenn man ein weiteres vdev hinzufügt so ist das zweite vdev zunächst leer. Bei jeder Änderung wird aber ZFS die Änderungen verstärkt auf des freiere vdev schreiben.

Ein z1 um einen Mirror ergänzen geht zwar, ist aber eher unüblich. Normalerweise bleibt mann bei einem vdev-Typ also mehrere mirrors (Raid-10) oder mehrere Z1 (analog Raid 50)


Okay, super Erklärung wieder :) Also lieber noch eine Platte kaufen und ein z1 zum Pool hinzufügen.


Wenn ich die Snaps via ZFS Replikation exportiere .... ist es dann möglich, wenn ich ein ZFS System habe ohne ECC RAM , dass die Dateien fehlerhaft geschrieben werden können und unbrauchbar werden? (es geht wirklich nur um die snaps)
 

besterino

Enthusiast
Mitglied seit
31.05.2010
Beiträge
4.825
Ort
Wo mein Daddel-PC steht
System
Desktop System
Rechenknecht
Laptop
Zu viele
Details zu meinem Desktop
Prozessor
3960X
Mainboard
ASRock TRX40 Taichi
Kühler
Heatkiller IV Pro TR4, Dual Mora 420, Tube 200, D5 Vario, Aquaero 6 Pro, DFS High Flow USB
Speicher
64GB (4x16GB @ 3600, CL16)
Grafikprozessor
Nvidia 2080Ti FE mit Watercool Block+Backplate
Display
55" OLED (Dell AW5520QF)
SSD
11TB (4x 2TB ADATA SX8200PNP im Raid0 auf Asus Hyper X16, 1TB Samsung PM961, 2TB Intel 660p)
Soundkarte
Chord Mojo
Gehäuse
Thermaltake P7 Core TG
Netzteil
Seasonic Prime 1300W Platinum
Keyboard
Roccat Vulcan 100
Mouse
Logitech g9x
Betriebssystem
Windows 10 Pro
Sonstiges
Mellanox ConnectX-4 (Dual 100Gbit Netzwerk + WaKü), Rode NT-USB uvm. ...
Du kannst dafür wunderbar eine externe USB-Platte nehmen: anstöpseln, Pool („simple“, also keine Redundanz) kreieren, replikations-Job für gewünschtes (bereits vorhandenes) Dataset mit gewünschten Einstellungen (Anzahl Snaps, Haltezeit usw.) erstellen, replizieren (Job laufen lassen), dann Pool auf USB-Platte exportieren, Disk abziehen, fertig.

Beim nächsten Backup-Run Platte wieder dran, Pool importieren, Job laufen lassen, exportieren, abziehen, fertig.

Ein „one-Disk“ Backup reicht m.E., wenn du nicht allzu große Datenmengen ins Backup hauen musst und du z.B. eine gewisse Redundanz bereits auf dem Primär-Pool hast - dann ist das nur „worst case“ Schutz wenn die Hauptkiste abfackelt, einen Stromschlag wegbekommt oder sonst physisch so richtig einen abkriegt. Daher sollte allerdings auch die USB-Platte möglichst räumlich weiter weg liegen. ;)

Lüppt 1A (mit Solaris 11.3 plus Nappit).
 
Zuletzt bearbeitet:

layerbreak

Neuling
Mitglied seit
30.12.2010
Beiträge
586
Das sollte direkt gehen
- Zertifikat updaten
- omnios repo abmelden
- neues 124 ce repo anmelden
- updaten per pkg update
- reboot

vgl auch seite 6
http://www.napp-it.org/doc/downloads/setup_napp-it_os.pdf
Entschuldigung, dass ich jetzt erst antworte. Ich hatte Deine Antwort schlicht und einfach übersehen. :sleep:

Update von OmniOS r151022 auf OmniOSce r151024 hat so wie von dir beschrieben, ohne Probleme funktioniert.
Dank deiner obigen PDF und dem Updateguide von OmniOSce.

Dank Bootenvironment eh kein Problem
Stimmt mit eins der Feature auf das ich in keinem Falle mehr verzichten will.
 

Turboschnecke

Experte
Mitglied seit
18.05.2011
Beiträge
253
Ort
PAF
Was sagt mir folgender Fehler auf der OmniOS Console nach einem Reboot:
scsi: /pci@0,0/pci8086,1901@1/pci1000,3020@0 (mpt_sas0)

Es ist ein Supermicro X11SSM-F Board und zwei M1015 Controller, die ich auf IT geflashed habe. mpt_sas0 ist wahrscheinlich ein Controller. Aber was sagt die Meldung? Beide Controller leuchten, wenn die Kiste angemacht wird.

Edit: Ich hatte erst 6 Platten (ST8000DM002) drin. Da habe ich dann nach und nach die Platten in Napp-It angezeigt bekommen. Hatte Sie wohl nicht richtig in die Schächte gesteckt. Da kam der Fehler meistens nach nem Cold Boot. Nach einem Reboot war der dann weg. Jetzt habe ich 6 weitere Platten (ST8000DM004) dazugesteckt und jetzt kommt der Fehler sekündlich. Reboot bringt auch nix. In den Trays leuchten alle Lampen, wo Platten drin sind. Wie kriege ich nun raus, was kaputt ist?...
 
Zuletzt bearbeitet:

gea

Experte
Mitglied seit
16.11.2010
Beiträge
4.094
Einfach alle Platten entfernen und booten.
Wenn OmniOS ohne Platten sauber bootet scheint die Basishardware zu funktionieren.

Dann Platte um Platte per hotplug hinzufügen, jeweils kurz warten bis die Platte erkannt wird (Menü Disks oder format). Wenn das System plötzlich hängt hat man eine Problemplatte.
 

Turboschnecke

Experte
Mitglied seit
18.05.2011
Beiträge
253
Ort
PAF
Es gehen die 6 neuen alleine und die 6 alten alleine. nur alle zusammen bewirkt eine flut an aborted commands und diesem scsi error. Netzteil zu schwach? Ist ein BeQuiet Dark Power 11 Pro 550W.
Aber dann probiere ich das mit den Platten nochmal

Edit: Es gibt eine Platte, die hoch T und H Werte in der IOSTAT Spalte hat. Was ist das? Sobald die Platte draussen ist, bootet alles... In einem anderen Slot gesteckt, geht auch alles... Ist der Slot in der Backplane defekt?
 
Zuletzt bearbeitet:

Turboschnecke

Experte
Mitglied seit
18.05.2011
Beiträge
253
Ort
PAF
Hab die Platte jetzt einfach mal woanders reingesteckt.
Jetzt habe ich ein anderes Problem: Wie funktioniert das mit dem SMB Zugriff? Habe den Pool jetzt importiert. Habe den SMB Dienst aktiviert, aber wie gebe ich das jetzt so frei, dass ich wieder drauf zu greifen kann über SMB? Unter ZFS Filesystems taucht der Pool auf. Aber ich kann ihn nicht direkt freigeben. Off/On gibt es erst für unter Ordner, aber ich seh da die Ordner nicht, die ich unter FreeNAS angelegt hatte. Unter FreeNAS gab es den Pool "Storage". Dann habe ich dort eine Freigabe erstellt, die ich SMB genannt habe. Und darin habe ich dann verschiedene Ordner angelegt. Und da würde ich gerne wieder landen. Aber unter Napp-It taucht das nicht auf? Es gibt den Pool Storage, den ich nicht freigeben kann. Daneben gibt es noch ein paar ".system" Ordner und einen Jails Ordner, der auch noch von FreeNAS kommen müsste. Aber wo ist der Rest? Unter Used ist auch nur der direkte Pool belegt, beim Rest ist nur Kleinkram drin.
Bin ich zu doof?
 

gea

Experte
Mitglied seit
16.11.2010
Beiträge
4.094
FreeNAS nutzt SAMBA als SMB Server. Den gibt es für jedes Linux/Unix unabhängig vom Dateisystem. SAMBA weiß also nichts von ZFS sondern gibt einfach Ordner frei - egal ob einfacher Ordner oder ZFS Dateisystem. SAMBA hat damit den Vorteil dass man Shares unabhängig von ZFS verwalten kann aber den Nachteil dass ZFS Snaps als Windows "Vorherige Version" nicht so einfach out of the Box tut und dass die ganze Rechteverwaltung auf Unix/Linux Rechten basiert. Unter FreeNAS kann und sollte man auf dem Pool zwar auch ZFS Dateisysteme für Userdaten anlegen, muss das aber nicht. Man verliert allerdings die einfache Zuordnungen von Solarish bei dem eben alles (Shares, Snaps, Eigenschaften) in ZFS integriert ist.

SAMBA gibt es unter Solaris zwar auch, Oracle/ Illumos nutzt (und pflegt) aber einen eigenen kernelbasierten SMB (und NFS) Server und der ist voll in ZFS integriert und nutzt Windows ntfs artige ACL mit Vererbung. Shares sind hier eine Eigenschaft eines ZFS Dateisystems. Man kann also die Shares von SAMBA (wenn es sich da um einfache Ordner handelte) nicht direkt nach Solaris und den freien Solaris Forks übernehmen.

Der einfachste Weg ist, sich zunächst eine ZFS Struktur überlegen und dann eins oder mehrere ZFS Dateisysteme anlegen. Anschliessend die Dateien die momentan als einfache Ordner direkt unter dem Pool liegen in diese ZFS Dateisysteme verschieben. Das kann per Console und mv oder per Midnight Commander geschehen, alternativ von Windows aus mit WinSCP. Anschliessend alle ACL Rechte zurücksetzen bzw neu setzen (Kann aus Windows als user root geschehen). Alternativ an der Console SMB für den Pool kurzzeitig einschalten. Später sollte man das ausschalten weil man den Pool selber (ist auch ein ZFS Dateisystem) lediglich als Container und zum Setzen von Vorgaben für die enthaltenen Dateisyste nutzen sollte.

Anschliessend kann man diese Dateisysteme einfach per smb=on freigeben. Alle SMB Eigenschaften sind in ZFS integriert (siehe Menü Services > SMB > Properties). Die Konfigurationsdateien von SAMBA gibt es nicht.
 
Zuletzt bearbeitet:

gea

Experte
Mitglied seit
16.11.2010
Beiträge
4.094
oder auf der Console bzw. in napp-it im cmd-Feld folgendes eingeben
zfs set sharesmb=on Storage

Das aktiviert SMB für den Pool Storage.
Dann per SMB als root anmelden und Dateien verschieben.

WinSCP + Putty sind dennoch die Tools der Wahl um Unix aus Windows komfortabel zu nutzen.
 

Turboschnecke

Experte
Mitglied seit
18.05.2011
Beiträge
253
Ort
PAF
Gibt es bei den Usernames eine Längebeschränkung? Hab nur den Fehler bekommen, dass der Benutzername zu lang sei (9 Zeichen hat der Name). Auf der Übersichtsseite war der Benutzer dann aber da, aber ich kann ihn bei den ACLs als Benutzer nicht wählen. Da gibt es nur root und meinen zweiten Benutzer.
 

gea

Experte
Mitglied seit
16.11.2010
Beiträge
4.094
Unix war ursprünglich auf 8 Zeichen beschränkt. Aktelle Systeme erlauben längere Namen, teilweise wird das aber angemeckert da manche "Alt-Tools" damit Probleme haben. Für einen normalen SMB Filer sollte das aber kein Problem sein.

Man muss den Benutzer aber ein Passwort setzen da dadurch auch ein SMB Passwort angelegt wird - Vorraussetzung dass man ihn per SMB nutzen kann
 

Turboschnecke

Experte
Mitglied seit
18.05.2011
Beiträge
253
Ort
PAF
Ich habe den Benutzer mit Passwort eingetragen und beim Hinzufügen kam dann die Meldung, dass der Benutzername zu lang ist. Aber wenn er in der Liste auftaucht, hat es funktioniert? Dann probiere ich es nochmal mit dem Passwort setzen, ob der Nutzer dann bei den ACLs auftaucht.

Edit:
Nachdem ich im Usertab nochmal ein PW gesetzt habe, taucht der Benutzer jetzt auf. Danke!
 
Zuletzt bearbeitet:

gea

Experte
Mitglied seit
16.11.2010
Beiträge
4.094
Nach zwei Tagen im Storagelab

Sync write Performance mit Plattenpools + Optane: mehrere hundert MB/s
mit sync = disabled > 1GB/s

Solaris (Original ZFS v.27) massiv schneller als OmniOS (Open-ZFS)
sowohl auf den Pools wie über SMB, insbesondere auch bei sync-write und Plattenpools

Kann jemand mit Solaris und eventuell OmniOS die Werte (Windows, >=10G, SMB bzw iSCSI mit AJA, Crystal oder ATTO) grundsätzlich bestätigen. Die Ergebnisse sind teils zu gut um wahr zu sein! Ich weiss zwar dass Solaris richtig schnell ist aber sync write unter SMB mit einem Plattenpool und Optane 900P Slog von 1.6 GB/s scheint mir trotz überragendem RAM caching von Solaris heftig. (oder SMB mit 2 GB/s ohne sync )

siehe 5.
http://napp-it.org/doc/downloads/optane_slog_pool_performane.pdf
 
Oben Unten