[Sammelthread] ZFS Stammtisch

Hallo in die Runde, ich nutze die Appliance auf einem T20- ESXi seit geraumer Zeit ohne Probleme, habe aber bei der Zusammenstellung die Zukunftsfähigkeit meines auf IT-Mode geflashten HBAs (Dell SAS 6/iR) nicht weiter beachtet. Leider lassen sich hiermit nur Platten bis zu einer Größe von 2TB und dann auch nur im langsameren Modus (3G statt 6G) betreiben. Über die Jahre wird der Speicher langsam knapp und nun denke ich die ganz Zeit hin und her, wie ich am besten den HBA und die Platten tauschen kann. Mir schwebt ein Dell Perc H310 SATA Adapter vor, aber als Geizkragen mit gefährlichen Halbwissen, überlege ich, ob ich einfach den Adapter tauschen, das SAS-Kabel an den H310 anschließe und das alte Plattenset unverändert so weiter betreiben kann (klar, im ESXi muss die neue Karte noch zum Napp-IT Server durchgereicht werden). Die alten 2TB Platten wollte ich dann nach und nach gegen größere tauschen und wenn alle auf dem gleichen Stand den Pool der tatsächlichen Größe entsprechend anpassen.
Die zweite Lösung wäre den H310 zusätzlich einzubauen und einen weiteren Pool mit neuen Platten aufzubauen, was in dem T20 aber nur mit einer externen Backplane möglich wäre und den WAF in meiner Umgebung extrem schmälert.
Vielleicht hat jemand noch eine alternative Idee für mich, oder kann mir was zur Machbarkeit sagen?
Vielen Dank und beste Grüße
Ralf
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man kann den H310 einbauen, durchreichen und dann den Pool importieren. Der H310 sollte idealerweise auch eine IT Mode Firmware haben. IR Firmware ist aber auch ok.

Adapter wie der H310 mit LSI 2008 Chipset und 6G sind aber auch schon recht betagt. Unter einem aktuellen ESXi werden sie beispielsweise schon nicht mehr unterstützt. OmniOS wird die aber sicher noch länger unterstützen.

Die Alternative ist ein 12G HBA wie ein BroadCom 9300 (oder OEM). Wird man halt nicht so günstig finden. Man benötigt dann auch ein neues SAS -> Sata Kabel.
 
So n IBM 1215 (SAS 3008) bekommt man immer wieder mal in der Bucht / KA fuer < 90€.
Ist n fairer Kurs wie ich finde.
 
Prima, Danke für die Info. Wegen des HBAs werde ich mich dann noch mal anderweitig umschauen.
Bei dem Gedanken den Server mit dem neuen HBA und dem alten Pool zu starten schwitzen mir schon jetzt die Hände. Was werde ich beim Start der Appliance ohne importierten Pool überhaupt sehen? ist das dann einfach nur ein Stapel unkonfigurierter Platten?
 
Völlig unkritisch. Der neue HBA wird zunächst lediglich die einzelnen Platten anzeigen. Wenn man dann das Menü Pool > Import aufruft, werden alle Platten eingelesen. Dabei wird festgestellt dass darauf ein ZFS Pool angelegt war und diesen kann man dann importieren.

Probleme gibt es nur wenn man einen Pool auf älterer Hardware oder einer älteren OS Version einlesen will, die große Platten oder aktivierte Features wie z.B. Verschlüssellung, System Checkpoints oder eventuelle special vdev noch nicht unterstützt.

Lediglich ein Wechsel von einem alten 3G HBA auf einen neueren 6G oder 12G HBA ist problemfrei. Da die Raid Konfiguration auf den Platten gespeichert wird, ist auch ein OS Wechsel/ Neuinstallation unkritisch.

Worst Case ist dass ein Pool nicht importierbar oder nur readonly importierbar ist. Ein Wechsel zurück auf die alte Hardware ist dann immer möglich.
 
Vielen Dank Gea! Dein Support ist echt spitzenmässig und Deine Appliance sowieso !
 
Das dürfte für die meisten Solaris Nutzer (inkl. mir) schwierig werden.

Allerdings habe ich meiner Maschine im Router per Firewall die Verbindung mit dem Internet verboten - von daher sollte ich auch ohne Update auf der “sicheren” Seite sein...
 
Man sollte dann auf jeden Fall Dienste wie ssh deaktivieren oder aus unsicheren Netzen unterbinden.
 
  • Danke
Reaktionen: you
Hallo zusammen, wir haben mittlerweile unseren Cluster von hier beschafft

Nachdem es lange gedauert hat (und ich nächste Woche Urlaub habe und damit wenig Lust, das detailiert zu untersuchen), würden wir den Fileserver gerne zeitnah in Betrieb nehmen. Daher habe ich einfach einen RaidZ2-Pool (ashift=13) über die 7 vorhanden Micron Pro 9300 (U.2/NVME) gespannt und eigentlich läuft das jetzt auch und wir wollen die Daten umziehen. Da wir jetzt auch die bestehende Kooperation beim "Cluster"-Betrieb mit einem anderen Lehrstuhl ausbauen, kommen auch bald noch ein paar weitere SSDs dazu, mit denen wir dann richtig benchmarken können (und auch, sobald die bisherigen Compute-Nodes umgezogen sind geeignete Clients zur Verfügung haben, um festzustellen, ob wir vllt. doch lieber einen Mirror für Home-Directories und High-IOPS wollen).

Trotzdem konnte ich es nicht lassen und versuche ich mich daher noch an Benchmarks und bin noch nicht ganz mit der Performance am Server selbst zufrieden (die NFS-Shares selbst sind etwa 5-10 mal so schnell wie das lokale MD-Raid bisher und schlagen auch deutlich SATA-SSDs – insofern ist das denke ich vorerst vollkommen ausreichend). [HW dabei 2x Xeon Silver 4210R + 192GB RAM).

Nun zur Problematik: mit fio (1) bekomme ich beim rein sequenziellen Lesen mit 1MB Blocksize "nur" 7GB/s und beim Schreiben 4GB/s; interessanterweise wird es nicht mehr/weniger, wenn ich random-R/Ws teste (2). Habe auf `atime=off` und `relatime=on` gesetzt, bringt aber auch nichts, macht es eher schlechter?!

Ohne jetzt noch mit einem Mirror oder einem reinen RAID0 gegenzutesten erscheint mir das etwas mager; gerade wenn man das hier dagegenstellt.
Wobei bei ja auch iwas nicht stimmt, denn 6 (die Parityplatten werden ja nicht zur Performance beitragen) x ~3GB/s ergeben wohl niemals 40GB/s, selbst mit Kompression (was man wohl auch nicht benchmarkt) :confused:

Code:
(1) fio --name=randrw --ioengine=libaio --iodepth=16 --rw=rw --bs=1M --direct=1 --size=30G --numjobs=8 --runtime=300 --group_reporting --time_based
(2) fio --name=randrw --ioengine=libaio --iodepth=16 --rw=randrw --bs=1M --direct=1 --size=30G --numjobs=8 --runtime=300 --group_reporting --time_based
 
Die DC S3700 kann ca 500 MB/s sequentiell und 20-40k write iops (steady write). In meinen Versuchen habe ich die Optane 900 (2,5 GB/s sequentiell und 500k write iops) benutzt mit genannten Vor/Nachteilen.

Einfach mal probieren und ein paar Benchmarks fahren.
Mit dem "richtigen" Workload wird es was bringen, außerhalb ist es kontra produktiv.

Hab zwei HGST Ultrastar SSD1600MM 400GB günstig ergattern können.
Mit 130k/100k fühl ich mich da doch ein bisschen "sicherer" :)
 
Nun zur Problematik: mit fio (1) bekomme ich beim rein sequenziellen Lesen mit 1MB Blocksize "nur" 7GB/s und beim Schreiben 4GB/s; interessanterweise wird es nicht mehr/weniger, wenn ich random-R/Ws teste (2). Habe auf `atime=off` und `relatime=on` gesetzt, bringt aber auch nichts, macht es eher schlechter?!
So, jetzt doch nochmal spät nachts alles kaputt gemacht (zfs destroy) und einen "RAID0"-Pool probiert (6 Disks) → 8GB/s r/w; dann mit 3 Disks → 6 GB/s; 1 Disk → 3/2 GB/s. Ich glaube ich habe damit jetzt ganz persönlich erfahren, warum AMD seine Epycs mit 128PCIe4-Lanes und NVME als Storagewunder bewirbt ;).

Aber wieder was gelernt, da hätte ich wohl doch etwas mehr Aufwand treiben sollen und einen AMD-Server ins Angebot schreiben lassen sollen – wobei ich glaube auch etwas zuviel Tech-Youtuber gesehen habe, ich denke die 4GB/s (die wohl dadurch abgesenkt werden, dass auch iwie Parity geschrieben werden muss) sind immer noch ganz gut für so einen 10Mann-Büro-FS. Und hauptsächlich haben wir ja auch für die IOPS auf NVME gesetzt und da bricht es auch nicht sonderlich ein (--sync=1 mit fio und solide 800/100k IOPS bei random 4k).
 
Ich glaube nicht? Da wäre doch --sync bei fio, oder, und das ändert auch fast nix – schnell sind die NVMEs ja. Praktisch hängen da einfach 12 U.2-Ports an einem Plex-Chip, an einem PCIe3x16 und ich glaube mittlerweile, das limitiert (ist dieser hier: https://www.supermicro.com/en/products/system/2U/2029/SYS-2029U-TN24R4T.cfm). Ein bisserl komisch bleibt das aber, denn normalerweise sollten ja doch > 10GB/s über so einen x16-Port gehen – ich denke, da fragen wir einfach mal beim Verkäufer an, der sollte doch erklären können, warum man das nicht abbilden kann und wie der Switch funktioniert :). Je nachdem, wie das genau verschaltet ist, könnte ich mir vorstellen, dass man vllt. auch einfach die Disks anders in die Slots verteilen müsste :fresse::hmm: (wenn das so aussieht wie hier (S15), ist quasi 1/3 der Branches des Switches einfach "leer" https://indico.cern.ch/event/527372...ments/1339980/2017493/Helsinki_DTN_Mughal.pdf)


Ein bisserl schade ist's halt schon, wenn so ein Highpoint-Controller schneller ist: https://www.hardwareluxx.de/communi...sd7102-bootable-nvme-raid-controller.1223152/ ;) – aber da das Netzwerk eh nur 56GB/s sind, passt das schon.
Ich würde einfach mal daraus die Lehre ziehen: wollt ihr einen Fileserver mit NVME und 200GBit-Netzwerk → kauft AMD ;) (https://www.supermicro.com/en/Aplus/system/2U/2113/AS-2113S-WN24RT.cfm - sieht dann auch vom Blockdiagram simpler aus, auch wenn ich nicht verstehe, wie aus den 8 8x-SAS 24 Diskslots werden...).
 
Gibt es irgendwelche Ideen ob man ZFS auch "irgendwie" mit SMR HDDs benutzen kann für ColdStorage? Prinzipiel gehts um nen Streamingserver, also es ist keine hohe Schreibperformance von Nöten. Hab mich auch schon etwas eingelesen, allerdings bleibt ja das Problem mit dem Resilvering wohl bestehen. Ergo dauert zulange und hohe Belastung für die Platten.
Gibt es dennoch irgendwelche Ratschläge, Ideen wie man das möglichst gut umsetzen kann? Raid1 benutzen? Oder ganz ohne ZFS? Sind da andere Dateisysteme eventuell doch im Vorteil aktuell noch? Was bringt die Zukunft? Ich finde bei Daten die nur selten geändert werden hat SMR durchaus seine Daseinsberechtigung. Selbst Dropbox ist aktuell ja mit SMR für Coldstorage am testen. Scheint also auf jedenfall ein Thema zu sein vorallem in Bezug auf Kosten, grade wenn es um hohe Kapazitäten geht aber die Leistung eher ne untergeordnete Rolle spielt.
SMR Platten mögen ja eher wenn viele Daten sequentiell geschrieben werden. Da hätte ZFS dadurch dass es die Daten im Ram sammelt bevor es sie auf die Platte schreibt doch eigentlich einen gewissen Vorteil oder?
 
Zuletzt bearbeitet:
Hi

Ich habe auf einem ASUS Z10PA-U8 einen M.2 Platz frei. An napp-it ist ein Perc 310 durchgereicht, an dem hängen eine SSD mit den VMs und drei Platten.

Könnte ich an dem M.2 Platz eine Optane für SLOG anhängen? Kann man SLOG auch durchreichen, oder wird das als VMFS betrieben im Normalfall?

Alternativ dazu, würde die SSD was taugen als durchgereichter VM Storage? :


Weil eigentlich müsste man nur die (Consumer-) VM SSD beschleunigen. Weil die schreibt mit 5MB/s, wenn ein paar VMs laufen.

Da könnte man auch direkt eine Server NVME nehmen, statt des SLOG. Beides geht wohl nicht, das Board hat glaub ich nur einen Slot.
 
Zuletzt bearbeitet:
Gibt es irgendwelche Ideen ob man ZFS auch "irgendwie" mit SMR HDDs benutzen kann für ColdStorage? Prinzipiel gehts um nen Streamingserver, also es ist keine hohe Schreibperformance von Nöten. Hab mich auch schon etwas eingelesen, allerdings bleibt ja das Problem mit dem Resilvering wohl bestehen. Ergo dauert zulange und hohe Belastung für die Platten.
Gibt es dennoch irgendwelche Ratschläge, Ideen wie man das möglichst gut umsetzen kann? Raid1 benutzen? Oder ganz ohne ZFS? Sind da andere Dateisysteme eventuell doch im Vorteil aktuell noch? Was bringt die Zukunft? Ich finde bei Daten die nur selten geändert werden hat SMR durchaus seine Daseinsberechtigung. Selbst Dropbox ist aktuell ja mit SMR für Coldstorage am testen. Scheint also auf jedenfall ein Thema zu sein vorallem in Bezug auf Kosten, grade wenn es um hohe Kapazitäten geht aber die Leistung eher ne untergeordnete Rolle spielt.
SMR Platten mögen ja eher wenn viele Daten sequentiell geschrieben werden. Da hätte ZFS dadurch dass es die Daten im Ram sammelt bevor es sie auf die Platte schreibt doch eigentlich einen gewissen Vorteil oder?
Naja was heisst irgendwie, gehen tut es. Habe seit einigen Jahren einen Backup-Server mit 4x 8TB Archive laufen. Geht, aber die Schreibleistung beim Backup könnte eben besser sein. Und die reconnects muss man halt ignorieren. Überlege auch schon eine Weile die in einen Plex-Server zu packen und dafür andere Platten lieber fürs Backup ... aber die Zeit .... Und da es nicht das einzige Backup ist, ist die Not nicht gar so groß.
 
Hat jemand mal getestet ob und wieviel es bringt wenn man Mirror statt RaidZ1 bzw Z2 mit diesen Platten macht? Also dauert das resilvering bei einem Mirror auch Tage/Woche?

Es gibt in Nappit ja auch "Encryption Pools Poef". Wäre es vielleicht von Vorteil SMR Platten dann einzelnt zu betreiben und dort verteilt die entsprechenden Dateien abzulegen?
 
Zuletzt bearbeitet:
Hi

Ich habe auf einem ASUS Z10PA-U8 einen M.2 Platz frei. An napp-it ist ein Perc 310 durchgereicht, an dem hängen eine SSD mit den VMs und drei Platten.

Könnte ich an dem M.2 Platz eine Optane für SLOG anhängen? Kann man SLOG auch durchreichen, oder wird das als VMFS betrieben im Normalfall?

Alternativ dazu, würde die SSD was taugen als durchgereichter VM Storage? :


Weil eigentlich müsste man nur die (Consumer-) VM SSD beschleunigen. Weil die schreibt mit 5MB/s, wenn ein paar VMs laufen.

Da könnte man auch direkt eine Server NVME nehmen, statt des SLOG. Beides geht wohl nicht, das Board hat glaub ich nur einen Slot.

Eine Slog zum Beschleunigen einer Desktop SSD ist wenig zielführend. Von der Sicherheit bringt es eigentlich nichts solange die Desktop SSD kein poweloss protection kann. Von der Performance bringt es erheblich weniger als gleich eine gute NVMe für Storage zu nehmen.

Das Durchreichen von NVMe kann gerne mal Probleme machen. Die kleinen Optane (bringen auch wenig Performance) gehen meist nicht, eine Optane 900 meist sehr gut. Aufgrund der brachialen Performance der besseren Optane ist aber neben Durchreichen auch die Nutzung als Datastore und das Bereitstellen von Partitionen per vdisk eine gängige Option.

Ich würde für die VMs eine gute NVMe nehmen, dabei auf powerloss protection wertlegen und die max Schreibmenge im Auge behalten. Die Datacenter Samsung haben zwar nicht die Klasse einer Optane, sind aber sicher eine gute Wahl - dann ohne Slog, einfach sync aktivieren. Die Samsung PM sind aber eher Leseorientiert, mit 50k Write iops sind sie eher auf dem Niveau besserer Sata SSDs. (zum Vergleich eine Optane 900 hat 500k write iops)

Beitrag automatisch zusammengeführt:

Hat jemand mal getestet ob und wieviel es bringt wenn man Mirror statt RaidZ1 bzw Z2 mit diesen Platten macht? Also dauert das resilvering bei einem Mirror auch Tage/Woche?

Es gibt in Nappit ja auch "Encryption Pools Poef". Wäre es vielleicht von Vorteil SMR Platten dann einzelnt zu betreiben und dort verteilt die entsprechenden Dateien abzulegen?

Beim Resilvervorgang müssen alle Daten gelesen werden um zu entscheiden ob die auf die neue Platte gespeichert werden müssen. Ein Mirror hat deshalb bei ZFS keinen Vorteil, allenfalls den dass weniger Daten draufliegen als einem großen Raid-Z und im Gegensatz zu einem Stripe Raid die eventuell näher beieinander liegen.

Poef bring garnichts da ein derartiger Pool auf Dateien eines Pools basiert. Das Hauptproblem von MSR ist ja der Performanceeinbruch bei dauerhaftem Schreiben vor allem wenn Leseoperationen dazwischenkommen. Am Besten arbeiten MSR wenn man kein Echtzeit-Raid damit macht, unter ZFS also Einzelpools aus Einzelplatten bei vorwiegendem Lesezugriff.

Allerdings haben MSR nur einen einzigen Vorteil und das ist die höhere Kapazit bei gleicher Mechanik. Den resultierenden Kostenvorteil streicht aber im Wesentlichen der Hersteller ein. Warum also kaufen?
 
Zuletzt bearbeitet:
Naja was heisst irgendwie, gehen tut es. Habe seit einigen Jahren einen Backup-Server mit 4x 8TB Archive laufen. Geht, aber die Schreibleistung beim Backup könnte eben besser sein. Und die reconnects muss man halt ignorieren. Überlege auch schon eine Weile die in einen Plex-Server zu packen und dafür andere Platten lieber fürs Backup ... aber die Zeit .... Und da es nicht das einzige Backup ist, ist die Not nicht gar so groß.
Wieso hast du überhaupt am Plex nochmal separat Festplatten für den Content?

ZFS Filer, SMB Freigabe für den Plex-Server einrichten und dann so streamen. Den Content packst auf einen normalen ZFS Filer.

Wäre, nachdem alles einmal eingerichtet ist, doch die wartungsfreundlichere Lösung und auch vom Dateisystem her fast unschlagbar sicher.
 
Gibt es irgendwelche Ideen ob man ZFS auch "irgendwie" mit SMR HDDs benutzen kann für ColdStorage? Prinzipiel gehts um nen Streamingserver, also es ist keine hohe Schreibperformance von Nöten. Hab mich auch schon etwas eingelesen, allerdings bleibt ja das Problem mit dem Resilvering wohl bestehen. Ergo dauert zulange und hohe Belastung für die Platten.
Gibt es dennoch irgendwelche Ratschläge, Ideen wie man das möglichst gut umsetzen kann? Raid1 benutzen? Oder ganz ohne ZFS? Sind da andere Dateisysteme eventuell doch im Vorteil aktuell noch? Was bringt die Zukunft? Ich finde bei Daten die nur selten geändert werden hat SMR durchaus seine Daseinsberechtigung. Selbst Dropbox ist aktuell ja mit SMR für Coldstorage am testen. Scheint also auf jedenfall ein Thema zu sein vorallem in Bezug auf Kosten, grade wenn es um hohe Kapazitäten geht aber die Leistung eher ne untergeordnete Rolle spielt.
SMR Platten mögen ja eher wenn viele Daten sequentiell geschrieben werden. Da hätte ZFS dadurch dass es die Daten im Ram sammelt bevor es sie auf die Platte schreibt doch eigentlich einen gewissen Vorteil oder?
geht schon....
und weitere zurückliegende Posts von mir.

Ein Neues NAS mit 12x 16TB ist mittlerweile in Betrieb, das alte NAS mit jetzt 20 HDDs (19 & 1 x Cold-Spare) hat jetzt das zusammengeschusterte NAS für "Kultur" ersetzt und ist darüberhinaus Ziel regelmäßigen Haupt-Datensicherung.

Würde ich heute wieder SMR HDDs nehmen?
Ganz klares Nein!

1. der Preisunterschied zwischen den Seagate Archive und Nearline HDDs war damals deutlich höher als Heute
2. Man war relativ enthusiastisch was die möglichen (eigentlich notwendigen) Anpassungen bei den Dateisystemtreibern betraf. Für ZFS sollte dies relativ schnell und zeitnah erfolgen - nach relativ kurzer Zeit wurde die entsprechende Entwicklung eingestellt. Das Gleiche gilt auch für EXT4SMR, wo die Entwicklung von Anfang an durch Seagate maßgeblich begleitet worden war - das Projekt dümpelt seit gut 4 Jahren vor sich hin und hat nicht einmal Beta Stadium erreicht,
 
Naja dann werde ich wohl warten bis es günstige USB3 HDDs bei Amazon oder MM gibt und da dann zuschlagen und die Platten ausbauen. Mir geht es dabei in erster Linie darum das beste Preis/TB Verhältnis zu haben/bekommen. "Echte" NAS HDDs sind mir da irgendwie aktuell zu teuer in der größenordnung wie ich sie gern hät, also mindestens 8-10TB pro HDD. Frage mich auch ob ein RaidZ1 mit 4 HDDs nicht ausreichen würde. Habe aktuell RaidZ2 mit 6 4TB Platten. Allerdings ist 6bay recht teuer oder wird kaum noch angeboten zumindest nicht von HPE mit ihren Microservern. Der Trend da geht eindeutig zu 4bay hin. Der alte G7 konnte ja noch 5-6 HDDs.

Eigentlich hieß es vor einiger Zeit ja mal Raid5 sei zu gefährlich weil beim lesen von zig TB man quasi ne Warscheinlichkeit von 1 hätte dass die Platten beim Lesen falsche Daten übermitteln. Nutze ZFS aber nun schon seit einigen Jahren und hatte noch NIE auch nur einen Fehler da im Log stehen. Durch die ganzen Scrubs dürfte ich aber locker schon mehrere 100TB gelesen haben...

Entweder wird da grundlos Panik gemacht oder ZFS meldet besagte Fehler nicht.
 
Zuletzt bearbeitet:
Eigentlich hieß es vor einiger Zeit ja mal Raid5 sei zu gefährlich..
Entweder wird da grundlos Panik gemacht oder ZFS meldet besagte Fehler nicht.

Die Raid-5 Problematik kommt erst beim Ausfall einer Platte zum Tragen. Beim folgenden Rebuild muss das Raid neu aufgebaut werden und dazu alle Daten gelesen werden. Tritt beim Rebuild ein weiterer Lesefehler auf, kann das Rebuild nicht fortgesetzt werden und die Validität des Raid-5 und der noch vorhandenen Daten ist nicht mehr gegeben. Das kann Verlust aller Daten des Raid-5 bedeuten.

ZFS verhält sich da unkritischer.
Fällt da eine Platte aus und beim Rebuild tritt ein weiterer Lesefehler auf, so hat ZFS die Möglichkeit durch vollen Zugriff auf alle Einzel-Platten und Raidinformationen mit Prüfsummen auf Daten und (doppelten) Metadaten festzustellen welche Datei durch den Lesefehler betroffen ist. Üblicherweise bedeutet dies dass man mit ZFS Z1 bei Problemen nicht den ganzen Pool verliert wie bei Raid-5 sondern nur betroffene Dateien.

Wird bei intaktem Z1 ein Lesefehler aufgrund der Prüfsummen erkannt (die Möglichkeit hat Raid-5 nicht), so wird der automatisch repariert. Wird in der Statusanzeige eines Pools als Checksum error angezeigt ohne dass es weitere Bedeutung hat. Lediglich wenn zu viele Fehler auftreten (RAM Problem, defekte Platte, Kabel/PSU Problem etc) dann wird die Platte aus dem Raid genommen (too many errors). Wird das Problem beseitigt so ist der Pool nach einem error clear wieder voll funktionsfähig das heißt die Platte wird einfach weiter benutzt und eventuell Daten über ein Scrub/Resilver geprüft. Auch das ein Unterschied zu Raid-5 das auf ein Platte weg/wieder da ganz kritisch reagiert.
 
Zuletzt bearbeitet:
Wird bei intaktem Z1 ein Lesefehler aufgrund der Prüfsummen erkannt (die Möglichkeit hat Raid-5 nicht), so wird der automatisch repariert. Wird in der Statusanzeige eines Pools als Checksum error angezeigt ohne dass es weitere Bedeutung hat. Lediglich wenn zu viele Fehler auftreten (RAM Problem, defekte Platte, Kabel/PSU Problem etc) dann wird die Platte aus dem Raid genommen (too many errors). Wird das Problem beseitigt so ist der Pool nach einem error clear wieder voll funktionsfähig das heißt die Platte wird einfach weiter benutzt und eventuell Daten über ein Scrub/Resilver geprüft. Auch das ein Unterschied zu Raid-5 das auf ein Platte weg/wieder da ganz kritisch reagiert.
Wie gesagt ich hatte aber noch nie einen Error auch nach zig 100TB. Selbst bei einem intakten Pool sollte dieser Zähler doch nicht auf 0 stehen oder? Ist es nicht eher eine Sache der Warscheinlichkeit wieviele Daten ich lesen muss bis die Platte mal falsche Daten zurückliefert?

Diese Fehler müsste ich doch auch bei funktionierenden Platten haben. Habe ich aber noch nie beobachten können.

So wie ich das sehe würde das bei Z1 für mich nämlich in etwa folgendes bedeuten: Fällt eine Platte aus kann ich alle meine Daten zu 99% wiederherstellen. Kommt ein weiterer defekter Sektor hinzu verliere ich vielleicht nur die betroffene Datei.

Z2 wäre eben deutlich teurer auch weil ich insgesamt gern nur 4 HDDs benutzen würde, da würde sich eher Z1 anbieten. Echtzeit Redundanz bräuchte ich zwar nicht, sowas wie Unraid gefällt mir eigentlich vom Konzept auch ganz gut, grade für große Videodateien.
 
Solange alle Komponenten fehlerfrei arbeiten gibt es keine Prüfsummenfehler.

Ich hatte aber schon mehrfach Prüfsummenfehler. Teilweise waren es wahrscheinlich RAM Probleme manchmal Festplattenprobleme teils mit manchmal aber auch ohne Smartwarnung teilweise auch ohne dass der Grund klar erkennbar war. Wie auch immer, ohne Prüfsummen wären die Probleme unerkannt geblieben. Es würde sich ansonst tatsächlich um korrupte Daten handeln.

Ich habe aber auch Filer teils mit über 30 Fesplatten die seit vielen Jahren laufen ohne je einen Prüfsummenfehler zu haben. Da sind zwar Platten ausgefallen die ersetzt wurden, das wars dann. Ich hatte aber auch schon ein Z3 Backupsystem das ich nach 2-3 Jahren Laufzeit beinahe verloren hätte (mit den berüchtigten 3TB Seagates vor ca 8 Jahren). Da half dann nur alle Platten ausmustern.

Das Entscheidende ist doch, wenn Fehler auftreten dann sollten die selbsständig repariert werden und/oder man darüber infomiert werden. Treten keine auf, ist das prima. Wenn Hardware aber älter wird, steigt die Wahrscheinlichkeit.
 
Naja geht halt darum abzuwägen ob ein RaidZ1 aus 4 Platten mir reicht. 6 Platten sind schwieriger unterzubringen und bei 4 Platten mit Z2 in meinen Augen zuviel Overhead. Davon mal ab wäre mir die Kapazität mit 6 HDDs und Z2 warscheinlich auch zu hoch
 
Hallo,

kurz nachgefragt:
Habe in einem Mirror eine Platte mit vielen Read-Errors gehabt. Server aus, Platte rausgenommen. Zum Umtausch an den Hersteller geschickt. Was ist denn der Command wenn ich die neue Platte hier habe und eingebaut habe?

Code:
zpool replace tank ata-DISKIDneueplatte

Sucht er sich dann selber die zu ersetztende und setzt dafür die neue angegebene ein?
 
Die alte Platte ist ja nicht mehr da. Steht dann unter
Code:
zpool status
wie sie hieß und das sie fehlt?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh