[Sammelthread] ZFS Stammtisch

Gibt es eigentlich für ZFSonLinux eine Web-GUI?
Hab schon paarmal danach gesucht, ideal wäre ein Modul für Webmin, aber ich bin leider noch nicht fündig geworden.

Ich bin bis jetzt ebenfalls nicht fündig geworden bezüglich einer Web-GUI für ZFSonLinux.
Es würde mich ebenfalls interessieren.


Habt ihr Tomaten auf den Augen? :p
https://www.google.de/search?hl=de&q=zfsonlinux+webinterface

Da findet man:
SoftNAS (CentOS)
QuantaStor (Ubuntu) :
http://www.osnexus.com/storage-appliance-os/
http://www.osnexus.com/cloud-managed-hosting/

So wie etliche Berichte von Leuten die aussagen dass sie selbst gerade in ihrer Firma ein Interface entwickeln, es wird in also in den nächsten Monaten viele Ankündigungen geben. Ich habe auch noch von mehreren weiteren Projekten dieser Art gelesen, alle aber noch hinter verschlossenen Türen, zwei davon wie SoftNAS unter CentOS. Ich vermute dass sogar noch mehr Firmen aktuell etwas in diese Richtung machen, nicht nur für ZoL sondern sicherlich auch für die freien Solaris Varianten.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Alle 4 sind eigenständige Distributionen - wobei SoftNAS in einer VM läuft.
hat also alles nichts mit einem reinen WebGUI zu tun.
letztendliche Pendents zu Nexentastor, FreeNAS, Nas4free.

das einzige mir bekannte echte Webinterface ist immer noch Napp-it, welches aber nur auf (Open)Solaris und dessen Forks läuft (Open Indiana, OmniOS, IllumOS).
 
@Digi-Quick

Und Webmin unter Linux wäre keine Alternative als Webinterface, auch wenn nicht speziell für ZoL angedacht?
 
@AG1M
gibt es denn schon ein ZFS /ZOL Plugin für Webmin?
Nach meinem letzten Kentnisstand nicht (ca. 2-3 Monate her)

@All
Für Nagios gibt es einiges an ZFS Plugins, zumindest für die Überwachung und e-mail Benachrichtigung.
Ob da auch für die Einrichtung/Verwaltung dabei ist und diese auch für ZOL geeignet sind, kann ich nicht sagen. Ich hatte mich da nicht mehr weiter damit befasst, nachdem ich für das Projekt e-mailserver auf FreeBSD die Reissleine gezogen habe (wegen zu hoher Kosten für den Lernaufwand - und Funktionierender Lösung unter Windows).
 
Zuletzt bearbeitet:
Das wollte ich damit eigentlich sagen :) Also ich kenne nur dieses Webinterface für Linux, das hat auch meines Wissens (noch) kein ZoL Plugin, wäre super wenn das kommen könnte, ich hab das zumindest als Feature Request mal gesehen.
 
Ist RDM eigentlich zu empfehlen mit ZFS? Meine jetzt vorallem in bezug auf Zuverlässigkeit.

Hab mir jetzt mal nappit to go angeguckt für den Microserver. Allerdings find ich es jetzt nicht sooo toll die boot partition auf 2 usb sticks zu spiegeln (im Microserver ist ja nur ein USB Port). Wäre es nicht möglich statt 2 16GB Sticks einen 32GB Stick zu nehmen und dann mit ditto blocks zu arbeiten?
 
Und was soll das für die Ausfallsicherheit, außer gegen Badblocks, bringen wenn man ein die Systempartition auf dem selben USB-Stick spiegelt?

Zum Thema RDM:
Why did I experience checksum errors with a ZFS filesystem on an ESXi RDM?

As far as I can tell, this was caused by a bug in the RDM implementation in VMware ESXi 4.1. Using VMware ESXi 5.1 I see no issues with RDMs at all. I'd still like to understand more about why the RDMs didn't work as I expected or what they are used for, but using RDMs on 5.1 has been very stable and allows me to achieve my goals.

Ich würde es lassen. LSI SAS2008 Controller mit 8 SAS/SATA-Ports gibt es für unter 100€. Damit funktioniert es definitiv sicher und ohne Performance-Verlust. Alternativ kannst du auch deinen Onboard-Controller durch reichen.
 
Zuletzt bearbeitet:
Und was soll das für die Ausfallsicherheit, außer gegen Badblocks, bringen wenn man ein die Systempartition auf dem selben USB-Stick spiegelt?
Nichts aber das würde mir schon reichen. Zumindest gegen einzelne Defekte Blöcke ist man dadurch geschützt, was man mit einem Stick alleine ohne ditto Blocks nicht ist.

Nein das geht nicht mit dem Microserver.
 
Machen kann man es sicherlich, bei der Installation statt raw devices einfach zwei Partitionen angeben.
Wie sinnvoll das ist muss jeder selbst entscheiden, ich halte davon nicht viel. USB-Sticks handeln Bad Blocks schließlich nicht wie Festplatten.
Außerdem ist auf dem Betriebssystem nicht wirklich wichtig, das kann man kurzer Hand wieder neu einrichten. Es geht bei der Verwendung von zwei USB-Sticks hauptsächlich um die Uptime.

Wenn du wirklich auf "Nummer sicher" gehen willst solltest du vielleicht einfach automatisierte Snapshots auf ein externes System via SSH machen. Raid ersetzt schließlich kein Backup.

Aber wie schon gesagt, auf dem System selber befinden sich sowieso keine wichtige Daten. Wie wichtig es also ist dieses Aufwand zu treiben muss jeder selbst wissen.

Ich habe in meiner ganzen Laufbahn zwar schon ein paar defekte Marken USB-Sticks erlebt, aber die wurden dann entweder zweckentfremdet (dauerhafte Schreib-Orgien) oder physikalisch beschädigt. ESXi läuft auf vielen Produktiv-Systemen auf nur einem ganz normalen USB-Stick völlig ohne Raid. Darauf wird ja genauso wie bei napp-it to go kaum bis gar nicht geschrieben, Bad Blocks sollten also in absehbarer Zeit nicht auftreten.

Du kannst sehr wohl einen weiteren Controller in einen HP Microserver einbauen.
Ja mit Low Profile Blende geht der M1015 im N40L hatte ich schon mal getestet.
 
Zuletzt bearbeitet:
Das bringt mir aber nix mitdem Controller weil der Microserver den nicht durchreichen kann.

Wie läuft das eigentlich mit der deduplizierung? Bezieht sich das immer nur auf ein Dataset ?

Mal angenommen ich habe 2 Datasets. Kopiere in beiden die selbe (oder sehr ähnliche) Datei. Wird die Datei dedupliziert (sofern bei beiden Dataset dedup=on)?

Und: Ich habe 2 Datasets, einmal dedup auf on einmal auf off. Was passiert hier dann?

Soweit ich weiß brauch dedup ja relativ viel Ram und meist wird immer davon abgeraten. Man liest oft von 5GB pro 1TB. Und dass nur maximal 25% vom ARC benutzt werden.

Wenn ich jetzt 10GB Ram für ZFS habe. Wären 25% ja 2,5GB. Das würde doch bedeuten ich könnte ohne Zahnschmerzen in etwa ein 500GB Dataset mit dedup=on betreiben. Es würde die anderen Datasets in der Performance doch nicht beeinflussen oder?
 
Zuletzt bearbeitet:
Das bringt mir aber nix mitdem Controller weil der Microserver den nicht durchreichen kann.

Wie läuft das eigentlich mit der deduplizierung? Bezieht sich das immer nur auf ein Dataset ?

Mal angenommen ich habe 2 Datasets. Kopiere in beiden die selbe (oder sehr ähnliche) Datei. Wird die Datei dedupliziert (sofern bei beiden Dataset dedup=on)?

Und: Ich habe 2 Datasets, einmal dedup auf on einmal auf off. Was passiert hier dann?

Soweit ich weiß brauch dedup ja relativ viel Ram und meist wird immer davon abgeraten. Man liest oft von 5GB pro 1TB. Und dass nur maximal 25% vom ARC benutzt werden.

Wenn ich jetzt 10GB Ram für ZFS habe. Wären 25% ja 2,5GB. Das würde doch bedeuten ich könnte ohne Zahnschmerzen in etwa ein 500GB Dataset mit dedup=on betreiben. Es würde die anderen Datasets in der Performance doch nicht beeinflussen oder?

Dedup arbeitet nicht auf Datei- sondern Datenblockebene. Identische Datenblöcke werden also nur einmal gespeichert. Dieser Vorgang läuft in Echtzeit beim Lesen-Schreiben - soweit ist das ziemlich einzigartig.
Aktivieren kann man das auf Filesystem-Ebene.

Das Problem:
- die dedup-Tabellen müssen bei jedem Schreiben/Lesen durchsucht werden. Wenn das nicht im RAM passiert, dann gute Nacht (siehe Horrorstories, dass ein snaplöschen eine Woche dauern kann)

-Der RAM-Bedarf ist damit ziemlich hoch und dieser Bedarf geht ab vom normalen Lesecache, der ja eigentlich die Performance von ZFS bringt.

- Auch wenn dedup auf Filesystem-Ebene arbeitet, so ist die dedup-Tabelle doch für den ganzen Pool da. Einmal aktiviert, wird man das nie wieder los ohne den Pool zu zerstören.

Fazit:
In den allermeisten Fällen bringt dedup nicht die Platzersparnis, die diese Nachteile aufwiegt. Eine dedup-Rate von 10 aufwärts wäre vielleicht ein Argument, meist sind es aber nur weniger als 2. Da lieber den Pool etwas größer machen.

Echtzeit Dedup sehe ich als interessante Entwicklungsoption. ZFS wird da immer besser. Ich erwarte schon, dass man die Vorteile irgenwann nutzen kann, ohne dass die Nachteile zum Problem werden. Bis dahin ist Datenkompression vor allem mit LZ4 die bessere Option.
 
Aber welchen Sinn haben dann die Optionen dedup=on/off bei den anderen Datasets wenn ich es für eines aktiviert und für alle anderen deaktiviert habe.

Habe grad mal napp-it to go ausprobiert. Läuft mit OmniOS schon merklich stabiler und schneller die CIFS/SMB Freigaben (als mit N4F), aber mit meinem langsamen USB Werbegeschenk-Stick macht die Bedienung kein Spaß.

Der Stick muss ja auch in den obersten USB Port gesteckt werden. Wie lasse ich das ganze aber über den internen USB Port laufen? Wenn ich das tue rebootet er immer beim Hochfahren des OS in einer Endlosschleife.

Und hat einer schonmal versucht OwnCloud ans Laufen zu bringen unter OmniOS ?
 
Zuletzt bearbeitet:
Aber welchen Sinn haben dann die Optionen dedup=on/off bei den anderen Datasets wenn ich es für eines aktiviert und für alle anderen deaktiviert habe.

Habe grad mal napp-it to go ausprobiert. Läuft mit OmniOS schon merklich stabiler und schneller die CIFS/SMB Freigaben (als mit N4F), aber mit meinem langsamen USB Werbegeschenk-Stick macht die Bedienung kein Spaß.

Der Stick muss ja auch in den obersten USB Port gesteckt werden. Wie lasse ich das ganze aber über den internen USB Port laufen? Wenn ich das tue rebootet er immer beim Hochfahren des OS in einer Endlosschleife.

Und hat einer schonmal versucht OwnCloud ans Laufen zu bringen unter OmniOS ?


- Es macht schon Sinn, dass pro Pool dedup-Daten nur einmal gespeichert werden, mann es aber steuern kann wieviel Dedup-Daten anfallen.

- Das ist eine Einschränkung von Grub. Der will nur von dem Port booten auf den installiert wirde. Wenn man also den internen Slot möchte, einfach eine normale Installation darauf machen und den Stick dann als Backup klonen.

- Ich habe mal im hardforum gelesen, dass ein PHP-Zip Modul fehlen würde und es deshalb nicht liefe. Wäre ja mal eine Herausforderung falls jemand dazu ein HowTo bereitstellen würde.

Fehlende PHP Dateien könnte man von SmartOS übernehmen:
Index of /packages/illumos/
 
Mal ne blöde Frage, gibts irgendwas besonderes einzustellen, wenn ich via OI und Napp-IT ein NFS Share bereitstellen will, was an einem ESXi 5.1 U1 angekoppelt werden soll?
Denn ich bekomm das irgendwie nicht zum laufen :(

In meiner Spielewiese rennt aktuell auf der VMware Workstation 8 eine VM mit OI (neueste Version, Server OS, also ohne GUI) mit Napp-IT Erweiterung, soweit sogut.
Ich hab im Napp-IT Menü einen Pool erzeugt -> check.
Ich hab im Napp-IT Menü ein Share erzeugt -> check.
Ich kann via Windows Client auf das Share zugreifen -> check.
Nun will ich in ner zweiten VM nen ESXi testen, was auch läuft. Der ESXi sieht die OI IP und umgekehrt -> check.
NFS Share mounten im ESXi via IP und /vol/share -> bringt nen Fehler von wegen, Verbindung zum NFS Server kann nicht hergestellt werden.

Und nun? Wie weiter? :(

Im Netz laß ich, der Folder benötigt everyone@ Full-Access -> also hab ich das über das ACL Menü eingekippt, funkt aber immernoch nicht :(
Code:
 0  	 user:root  	 rwxpdDaARWcCos  	 full_set  	 rd(acl,att,xatt) wr(acl,att,xatt,own) add(fi,sdir) del(yes,child) x, s  	 file,dir  	 allow  	 delete 
 1  	 everyone@  	 rwxpdDaARWcCos  	 full_set  	 rd(acl,att,xatt) wr(acl,att,xatt,own) add(fi,sdir) del(yes,child) x, s  	 file,dir  	 allow  	 delete
Diese interne Firewall im OI habe ich testhalber aus. Und der ESXi lässt auch seinen NFS Client durch seine Firewall...

Wo liegt also der Hund begraben?

EDIT:
hierraus hab ich das mit dem Fullaccess:
http://www.napp-it.org/doc/downloads/all-in-one.pdf
Restart NFS Dienst lüppt leider auch nicht...
 
Zuletzt bearbeitet:
Hallo fdsone,

habs mal versucht nachzuvollziehen und einen x-beliebigen Folder für NFS freigegeben. Habe auch dabei nichts an den Defaultrechten verändert.
Keine Probleme bei mir vom ESX 5.0 auf das Share zuzugreifen.
Ich weis nicht ob das in diesem Fall relevant ist, aber der ESXi-Root hat bei mir das selbe Kennwort wie der root vom OI.

Gruß Millenniumpilot
 
Bei mir auch ;)
Also das würde ich ausschließen...

Wobei ich aber das letzte/neueste ESXi ISO von der VMware Page zum Testen genommen habe. Ne ältere Version könnte ich aber durchaus nochmal probieren -> denke aber nicht, das es daran liegt.

Aber mal blöd gefragt, muss man NFS noch irgendwo spezial aktivieren!? Mich verwundert halt etwas, das es so "einfach" sein soll, sprich Share erzeugt und los soll es gehen -> ohne auch nur irgendwas von NFS eingestellt zu haben :(
 
Prinzipiell ist es so einfach.
ZFS Dateisystem: NFS=on und gut. Der Service wird automatisch gestartet. Das Kennwort ist egal da NFS3 nur über IP Adressen arbeitet. Das einzige Problem das oft auftritt ist das Problem rund um Zugriffsrechte, insbesondere weil NFS mit Unixpermissions arbeitet und CIFS mit ACL. Bei wechselweisem Zugriff (CIFS und NFS) löscht NFS bei einem chmod die ACL Vererbungen.

Probehalber eventuell mal die Rechte recursiv auf everyone@=full oder modify neu setzen (Windows als root oder napp-it ACL extension). Bei neueren Illumos Versionen wie OmniOS gibt es dazu die ZFS Eigenschaft aclmode=restricted die verhindert, dass NFS die ACL-Vererbung löscht und es damit weniger Probleme bei wechselweisen NFS/CIFS Zugriff gibt.

Das einzige, was sonst an Einstellungen versucht werden kann ist, ist bei der NFS Freigabe statt "on" eine Angabe der Art rw=@192.168.1.0/24,root=@192.168.1.0/24 vol/share zu verwenden.

Dateistruktur?
Pool= vol
Dateisystem=share
Mountpoint=unverändert (/vol/share)
 
Zuletzt bearbeitet:
Hallo fdsone,

nachdem was ich alles über die 5.1 gelesen habe, würde ich hier überhaupt nichts ausschließen wollen ;-)
Wie gea schon scheibt, NFS=on und es funktioniert.
Bei meinem "Produktivshare" habe ich aber anstatt nur "on" die Parameter rw=@192.168.0.0/24,root=@192.168.0.0/24 storage/vmware angegeben.
Früher hatte ich hier selbstverständlich die IP des ESX-Hosts eingetragen, aber nach Inbetriebnahme eines zweiten Hosts war ich zu faul, die richtige Maske auszurechnen und ggf. die IPs der Hosts ändern zu müssen. :d

Gruß Millenniumpilot
 
Wenn ich über "Previous Versions" ein Netzlaufwerk "Restore" werden nur Dateien kopiert, aber keine Dateien gelöscht. Ist das normal?

Und wenn ich eine Datei wiederherstelle wird sie nochmal neu geschrieben. Beispiel 10GB Datei => Snapshot => Datei löschen => In den alten Snapshot gehen und die Datei wiederherstellen. Dann würde die Datei doch 2mal sich nun in dem Pool gefinden solange ich den alten Snapshot nicht lösche.


Und zum Thema Snapshots: Gibt es eine möglichkeit diese nur erstellen zu lassen (nach Plan) sofern die Platten laufen? Also dass Platten nicht extra für einen Snapshot hochgefahren werden?
 
Wenn ich über "Previous Versions" ein Netzlaufwerk "Restore" werden nur Dateien kopiert, aber keine Dateien gelöscht. Ist das normal?

Und wenn ich eine Datei wiederherstelle wird sie nochmal neu geschrieben. Beispiel 10GB Datei => Snapshot => Datei löschen => In den alten Snapshot gehen und die Datei wiederherstellen. Dann würde die Datei doch 2mal sich nun in dem Pool gefinden solange ich den alten Snapshot nicht lösche.


Und zum Thema Snapshots: Gibt es eine möglichkeit diese nur erstellen zu lassen (nach Plan) sofern die Platten laufen? Also dass Platten nicht extra für einen Snapshot hochgefahren werden?


1. Previous Version ist eine Windows Funktion und funktioniert wie bei Windows.
Alternative ZFS Funktionen: Clone, Rollback

2. Das ließe sich nur mit dedup vermeiden

3. Es gibt immer Möglichkeiten - man muss es aber wohl selber programmieren.
Vorgesehen ist das nicht (Server never sleep).
 
Bringt es was den Disk Write Cache zu aktivieren? Hat das irgendwelche Vor oder Nachteile? Bei mir ist es im Bios deaktiviert
 
Hallo,

eine kurze Frage zu den Hardwarevorraussetzungen.
Wenn ich ZFS ohne irgendwelche Features (Kompression, Deduplizierung etc.) benutzen möchte, brauche ich da trotzdem die 1GB RAM pro 1TB?
Kommt eigentlich ein Fehler wenn zu wenig Ressourcen zur Verfügung stehen oder ist es dann einfach "nur" langsam?
 
Nein, das ist eine Pi*Mal Daumen Angabe für Dedup die in der Praxis auch ganz anders aussehen kann und taugt somit für nichts. Je nach dem was auf dem Dateisystem liegt benötigt die Dedup-Tabelle 3GB pro TB oder mehr oder auch nur 200MB. Wenn du also kein Dedup verwendest ist dies nicht relevant für dich.
Natürlich ist mehr Ram immer besser, für einen einfachen Fileserver für zu Hause muss es aber kein System mit 32GB sein.

Grundsätzlich solltest du aber mindestens 4GB Ram und eine 64Bit-CPU verwenden, ansonsten musst du mit gewissen Einschränkungen leben. Es geht auch mit weniger Ram und mit 32bit, ZFS ist aber für Big Data entworfen und die Performance wird dich auf solchen Schmalspursystemen wohl nicht überzeugen. Lies dazu vielleicht auch mal https://de.wikipedia.org/wiki/ZFS_(Dateisystem) .

Kompression beansprucht die CPU etwas, ich würde sie grundsätzlich anlassen dass sie auch den Datendurchsatz in der Regel erhöht da bei aktuellen Systemen nicht die CPU das Bottleneck ist sondern die Festplatten. Weil nun weniger Rohdaten gelesen werden müssen (Bottleneck Festplatte) die in der CPU wieder dekomprimiert werden (CPU langweilt sich sowieso, hat noch Leistungsreserven) erhält man effektiv höhere Übertragungsraten, selbst auf schwachen Systemen wie einem HP Microserver. Je nach dem wie gut sich die Daten komprimieren lassen hat man plötzlich statt 140MB/s "gewaltige" 500MB/s Durchsatz, toll, was? ;)
Gibt natürlich auch Fälle wo Kompression nicht wünschenswert ist, die meisten Nutzungsfälle profitieren aber von Kompression. Es gibt verschiedene Kompressionsverfahren zur Auswahl, siehe https://www.google.de/search?hl=de&q=zfs+compression+comparison. Je nach dem was man macht kann auch das Abweichen vom Standard (lzjb) von Vorteil sein. Neu ist LZ4, wenn bereits in deiner ZFS-Implementation verfügbar würde ich LZ4 empfehlen, ansonsten bleib bei lzjb. LZ4 ist lzjb überlegen, siehe http://wiki.illumos.org/display/illumos/LZ4+Compression .

ECC wäre auch wünschenswert, das gilt aber nicht speziell für ZFS sondern auch für andere Dateisysteme. Warum und Wieso haben wir hier schon etliche Male besprochen, bitte diesen Thread nach ECC durchsuchen.
 
Zuletzt bearbeitet:
Dieses oft gehörte Statement von 1GB RAM pro TB Daten (ohne dass dedup benutzt wird) entbehrt jeder Grundlage. Das absolute Minimum ist vielleicht 1 GB RAM. 2 GB RAM ist eine vernünftige Untergrenze. 64 bit CPU sollte sein.

Damit ist ZFS stabil unterwegs und wenn einem die reine Plattenperformance reicht, dann muss es nicht mehr sein. Jedes mehr wird aber zumindest unter Solaris automatisch als Read-Cache genutzt. Damit werden wiederholte Lesevorgänge 100mal schneller ausgeführt. Das ist es was ZFS schnell macht. Da damit aber jeglicher ansonst freier RAM genutzt wird, geriet ZFS bei manchen in den Ruf, extrem speicherhungrig zu sein. Egal wieviel RAM eingebaut wird, es gibt keinen freier RAM. Das ist aber dynamisch. Wenn ein anderes Programm RAM braucht, erhält es ihn.
 
Bräuche mal Hilfe von den Experten:
Ist-Zustand:
HP ML 110 G7
ESXi
Ich habe eine OmniOs VM angelegt, installiert und danach napp-it installiert. Soweit alles bestens. Jedoch habe ich vergesssen den HDD Controller einzuhängen und wenn ich ihn jetzt dazufüge werden trotzdem keine Platten gefunden.

Gibt es einen Weg ohne Neuinstallation das ganze zum Laufen zu bringen?
 
Also mein alter Backupserver (vorher debian6 mit LVM+mdadm+luks) hat:
Pentium 4 (2,6Ghz),
1GB RAM
Gbit NIC << wird sich wohl langweillen :d

erstellt werden soll:
1xRaidz2 (8xHDDs á 80GB),
1xMirror (2x250GB)
-veschlüsselung mit luks


Machbar? Performancewunder erwarte ich eh nicht, aber so 20MB/s sind drin?
 
Wenn es funktioniert wird es sicher extrem langsam.

Was mich aber mehr beunruhigen würde wäre der immense Stromverbrauch
 
Uaaah, wo gräbt man denn 80GB-Platten aus :fresse:
Geschenkt bzw. noch rumliegend? Ansonsten mach dir doch nen 3-Way-Mirror aus...vielleicht 640ern (oder eben was zeitgemäßerem). Dann bottleneckt die CPU auch nicht ganz so fies schon allein für die Paritätsdaten...
 
Also mein alter Backupserver (vorher debian6 mit LVM+mdadm+luks) hat:
Pentium 4 (2,6Ghz),
1GB RAM
Gbit NIC << wird sich wohl langweillen :d

erstellt werden soll:
1xRaidz2 (8xHDDs á 80GB),
1xMirror (2x250GB)
-veschlüsselung mit luks


Machbar? Performancewunder erwarte ich eh nicht, aber so 20MB/s sind drin?

...na, da musst Du doch "nur" noch zfs-on-linux draufpacken und ausprobieren. ;)
Da Du kein AES-NI in der CPU hast, wirst Du wirklich nicht viel erwarten können.
Ich habe ein all-in.one mit Solaris-Express und 2 vCPU eines L3426 laufen und komme auf 25-30MB/sec....egal ob 2.5 oder 16GB (weniger habe ich nicht probiert).
Mit einem Opteron 3350HE und Ubunbtu-luks/cryptsetup-ZFS mit 8GB komme ich in einem radz2 (7xHDD zu je 2TB-5400rpm) auf 250MB/sec schreiben (mit dd getestet).

...da Du wohl unter der Performance einer einzelnen Disk bleiben wirst, kannst Du es ja auch mit einem einsamen vdev mal ausprobieren, wenn Du eine Platte für Dein Debian-Setup übrig hast.
Das sollte ja auch von ZFS unabhängig sein.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh