Aktuelles

Pool Status "degraded" -> Wie ersetzt man die HDD, falls kein freier Slot mehr vorhanden ist ?

Traviso

Profi
Thread Starter
Mitglied seit
25.10.2020
Beiträge
142
Hallo,

ich habe einen Server mit zwei zpools aufgesetzt. Der Server läuft unter OMNI-OS mit napp-it.
Napp-it zeigt mir jetzt an, dass ich einen "degraded pool" habe:

HDD6TB.png


Interessieren würde mich jetzt, wie man vernünftigerweise das Laufwerk ersetzt. Ich habe eine identische Festplatte bestellt, kann diese aber nicht zusätzlich anschließen, da alle Anschlüsse am HBA bereits belegt sind. Wie würde man da geschickterweise vorgehen ?

Weiterhin führt mein zweiter Pool ein "resilvering" durch, was ja auch ok ist. Allerdings läuft das Ganze schon seit 2 Tagen und scheint immer wieder neu zu starten oder so etwas. Zumindest ist auf dem beigefügten Screenshot zu sehen, dass der Prozess erst heute gestartet wurde, obwohl er schon seit 13.7. läuft. Kann mir vielleicht jemand sagen, was es damit auf sich hat ?

HDD8TB.png


Gerade habe ich nochmal nachgesehen. Jetzt zeigt er an, dass resilver seit 15.7. um 11:17 läuft:

HDD8TB-2.png
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Eye-Q

Enthusiast
Mitglied seit
11.07.2004
Beiträge
3.697
Ort
Hamburch
Interessieren würde mich jetzt, wie man vernünftigerweise das Laufwerk ersetzt. Ich habe eine identische Festplatte bestellt, kann diese aber nicht zusätzlich anschließen, da alle Anschlüsse am HBA bereits belegt sind. Wie würde man da geschickterweise vorgehen ?
Die defekte Platte rausnehmen, dann ist der Anschluss frei und Du kannst die neue Platte anschließen. Das ist das Standardvorgehen bei einer defekten Festplatte in einem RAID/Pool/wasauchimmer mit Parität, denn die Daten, die auf der defekten Platte waren, werden ja nicht irgendwie von der defekten Platte geholt, sondern aus den Paritätsdaten auf den anderen Platten errechnet.
 

Traviso

Profi
Thread Starter
Mitglied seit
25.10.2020
Beiträge
142
Die defekte Platte rausnehmen, dann ist der Anschluss frei und Du kannst die neue Platte anschließen. Das ist das Standardvorgehen bei einer defekten Festplatte in einem RAID/Pool/wasauchimmer mit Parität, denn die Daten, die auf der defekten Platte waren, werden ja nicht irgendwie von der defekten Platte geholt, sondern aus den Paritätsdaten auf den anderen Platten errechnet.
Danke dir für die Rückmeldung. Muss die alte Platte nicht vorher "abgemeldet" werden bzw. muss die neue Platte nicht unter der gleichen ID angemeldet werden oder die neue ID der alten ID zugeordnet werden ?
 

Supaman

Enthusiast
Mitglied seit
10.06.2007
Beiträge
885
Ort
Dortmund
Danke dir für die Rückmeldung. Muss die alte Platte nicht vorher "abgemeldet" werden bzw. muss die neue Platte nicht unter der gleichen ID angemeldet werden oder die neue ID der alten ID zugeordnet werden ?
Wenn die Platte nicht "nur" Fehler hat, sondern plötzlich komplett stirbt, hast Du gar keine Möglichkeit die vorher abzumelden, also nein.

Es kann sein, das das System die neue Platte automatisch zuordnet und dann die Redundanz wieder herstellt, es kann auch sein das Du die manuell zuordnen musst.
 

Gen8 Runner

Experte
Mitglied seit
12.08.2015
Beiträge
986
Wegen des "abbrechenden" Resilverings:
Hab nur kurz zwei Modelle gegoogelt, alle deiner Platten sind 100% CMR und keinerlei SMR Platte dazwischen?
 

Traviso

Profi
Thread Starter
Mitglied seit
25.10.2020
Beiträge
142
Wenn die Platte nicht "nur" Fehler hat, sondern plötzlich komplett stirbt, hast Du gar keine Möglichkeit die vorher abzumelden, also nein.
Vielen Dank für die Rückmeldung. Die Platte ist noch vorhanden und wird auch per zdb angezeigt. Dabei ist faulted: 1 gesetzt. Prinzipiell sollte die Platte aber noch per guid ansprechbar sein, vermute ich.
Es kann sein, das das System die neue Platte automatisch zuordnet und dann die Redundanz wieder herstellt, es kann auch sein das Du die manuell zuordnen musst.
Das wäre natürlich super, so es automatisch funktionieren würde.

Ich habe eine Anleitung gefunden, bei welcher der Austausch der Platte bei Nichtvorhandensein eines freien Anschlusses beschrieben wurde. Das wäre dann per SSH zu machen. In Napp-IT muss ich ja beide Platten (die zu ersetzende und die neue Festplatte) angeben, sprich beide müssen angeschlossen sein, um ein "Replace" durchzuführen. Von daher wird mir wohl nur die manuelle Methode übrig bleiben...

Diese Anleitung habe ich gefunden: ZFS Disc Drive Failure
Beitrag automatisch zusammengeführt:

Wegen des "abbrechenden" Resilverings:
Hab nur kurz zwei Modelle gegoogelt, alle deiner Platten sind 100% CMR und keinerlei SMR Platte dazwischen?
Ja, das müssten alles CMR Platten sein. Allerdings habe ich gerade gesehen, dass da versehentlich eine 6 TB in den Pool der 8 TB Platten gerutscht ist. Kann das evtl. die Ursache sein ?
 
Zuletzt bearbeitet:

Gen8 Runner

Experte
Mitglied seit
12.08.2015
Beiträge
986
Wie eine 6TB Platte versehentlich in den Pool der 8TB gerutscht ist?

Wenn der Pool vorher lief und beispielsweise aus:
- 7x 8 TB
- 1x 6TB bestand
So war der Pool bis dahin nur 48 TB kalkuliert (zur Einfachheit, Redundanz in dieser Rechnung vernachlässigt)

Wenn der Pool aber schon jetzt aus:
- 8x 8TB bestand

Und du für das Resilvern "aus versehen" eine 6TB Platte nutzt, wird das ein Problem sein, da der Pool nicht insgesamt verkleinert werden kann, schon gar nicht beim Resilvern. Sehe in deinen Screenshots nämlich auch keine 6TB Platte,
 

Traviso

Profi
Thread Starter
Mitglied seit
25.10.2020
Beiträge
142
Sehe in deinen Screenshots nämlich auch keine 6TB Platte,
Ok, jetzt wird es unheimlich :). Ich habe gerade nochmal nachgesehen gehabt und dann war plötzlich dem HDD8TB Pool eine 6TB HDD zugeordnet. Vorher war das ja nicht der Fall.
Gemacht habe ich nichts (ich weiss, das sagen sie alle), außer einmal im Terminal devfsadm -Cv laufen zu lassen, damit die "device links" aufgeräumt wurden.
Kann es sein, dass die fehlerbehaftete 6 TB Platte aus dem HDD6TB Pool jetzt irgendwie dem HDD8TB Pool zugeordnet wurde ? Das dürfte dann aber keine Auswirkungen auf das Resilvern bzw. die Abbrüche beim Resilvern haben, da diese schon vorher aufgetreten sind.

Hier noch ein aktueller Screenshot mit der zusätzlichen 6TB Platte im HDD8TB Pool:

HDD8TB-3.png
 

Elmario

Urgestein
Mitglied seit
21.01.2006
Beiträge
5.061
War die vielleicht als Hot-spare konfiguriert?
Kenne Napp-IT nicht, vielleicht macht es das automatisch mit nicht zugeordneten Datenträgern?
 

Elmario

Urgestein
Mitglied seit
21.01.2006
Beiträge
5.061
Sollte aber kein Problem sein bei ZFS. Einfach gegen eine Passende austauschen und resilvern. (Eine hast du ja noch in Redudanz).
 

Gen8 Runner

Experte
Mitglied seit
12.08.2015
Beiträge
986
Hmm eigenartig. Aber ist definitiv keine 6TB vorhanden!?

Würde jetzt das Resilvern erstmal die Nacht über durchlaufen lassen. Sollte es erneut abbrechen, so wie Elmario sagte, einfach nochmal komplett neu anstoßen.
Es braucht tatsächlich ein wenig Geduld, aber je nach Platten / Rechenleistung sollte eine 8 TB Platte in 24 Stunden resilvert sein (so meine Erfahrung meines letzten Vorganges).
 

Traviso

Profi
Thread Starter
Mitglied seit
25.10.2020
Beiträge
142
Sollte aber kein Problem sein bei ZFS. Einfach gegen eine Passende austauschen und resilvern. (Eine hast du ja noch in Redudanz).

Ich würde gerne die 6TB HDD wieder aus dem HDD8TB Pool entfernen. Geht das irgendwie. Irgendwie habe ich kein ZFS detach oder so etwas gefunden. Dann könnte ich diese 6TB Platte für den HDD6TB Pool verwenden.


Hmm eigenartig. Aber ist definitiv keine 6TB vorhanden!?

Das Einzige, was ich mir vorstellen kann ist, dass noch eine 6TB HDD im System war, welche ich nicht zugeordnet hatte. Anders kann ich es mir nicht erklären. Oder es ist die 6 TB "degraded" Platte aus dem HDD6TB Pool, welche von ZFS "removed" wurde.
 

Gen8 Runner

Experte
Mitglied seit
12.08.2015
Beiträge
986
Warte erstmal das vollständige Resilvern ab, bevor du hier noch die Integrität des Pools gefährdest. Einen Freischuss hast du noch, aber das Pulver würde ich während des Resilverns nicht für die optische Ordnung verschießen.

Eine Überlegung wäre danach (bin nur firm mit TrueNAS) über zpool export und dann wieder zpool import. Da sollte zfs sich nur die Platten schnappen, welche auch wirklich in den Pool gehören. Entweder ist dann die 6TB Platte sowieso schon nicht mehr existent oder man muss weiterschauen, was es nun wirklich damit auf sich hat.
 

gea

Enthusiast
Mitglied seit
16.11.2010
Beiträge
4.561
Danke dir für die Rückmeldung. Muss die alte Platte nicht vorher "abgemeldet" werden bzw. muss die neue Platte nicht unter der gleichen ID angemeldet werden oder die neue ID der alten ID zugeordnet werden ?
Aktuelle HBAs sind hotplugfähig. Wenn es der Wechseleinschub zuläßt, einfach die defekte Platta "hot" ziehen und stattdessen eine neue einsetzen. Die wird dann nach wenigen Sekunden mit ihrer WWN (c0t500..) angezeigt. Das ist eine eindeutige Herstellerkennung so wie die Mac einer Netzwerkkarte.

Dann per Menü Disk > Replace die defekte/entfernte Platte durch die neue ersetzen.

ps
Wenn beim Resilver erneut Checksum Fehler auftreten und das Resilver neu startet, würde ich von einer defekten PLatte ausgehen. Zumindest würde ich die Platte ausbauen und intensiv testen z.B. per WD Data Lifeguard o.ä. Dabei werden manche Probleme repariert oder die Platte als defekt gemeldet.

Export+Import macht man dann wenn die Platten anhand des Kontroller Anschlusses erkannt werden, bei Solaris z.B. c0t0d0 (erste Platte am ersten Controller). Steckt man die Platte woanders ein, hat die eine neue Nummer wie c0t0d1 und wird als fehlend gemeldet. Export/Import behebt das Problem. WWN Nummerierung aktueller HBAs vermeidet das Problem.
 
Zuletzt bearbeitet:

Traviso

Profi
Thread Starter
Mitglied seit
25.10.2020
Beiträge
142
Warte erstmal das vollständige Resilvern ab, bevor du hier noch die Integrität des Pools gefährdest. Einen Freischuss hast du noch, aber das Pulver würde ich während des Resilverns nicht für die optische Ordnung verschießen.
Alles klar, mache ich.
Eine Überlegung wäre danach (bin nur firm mit TrueNAS) über zpool export und dann wieder zpool import. Da sollte zfs sich nur die Platten schnappen, welche auch wirklich in den Pool gehören. Entweder ist dann die 6TB Platte sowieso schon nicht mehr existent oder man muss weiterschauen, was es nun wirklich damit auf sich hat.
Das kann ich danach einmal probieren.
Aktuelle HBAs sind hotplugfähig. Wenn es der Wechseleinschub zuläßt, einfach die defekte Platta "hot" ziehen und stattdessen eine neue einsetzen. Die wird dann nach wenigen Sekunden mit ihrer WWN (c0t500..) angezeigt. Das ist eine eindeutige Herstellerkennung so wie die Mac einer Netzwerkkarte.
Ich habe zwar einen einigermaßen aktuellen HNA (Broadcom 9400), aber keine Wechseleinschübe. Insofern muss ich den Wechsel manuell erledigen.
Dann per Menü Disk > Replace die defekte/entfernte Platte durch die neue ersetzen.
Alles klar. Werde ich dann probieren
ps
Wenn beim Resilver erneut Checksum Fehler auftreten und das Resilver neu startet, würde ich von einer defekten PLatte ausgehen. Zumindest würde ich die Platte ausbauen und intensiv testen z.B. per WD Data Lifeguard o.ä. Dabei werden manche Probleme repariert oder die Platte als defekt gemeldet.
Danke für den Tipp. Das werde ich dann probieren.
 

Supaman

Enthusiast
Mitglied seit
10.06.2007
Beiträge
885
Ort
Dortmund
Wenn man sich nicht 200% sicher ist, welche Platte getauscht werden soll, erst die Seriennummer aufschreiben, dann runterfahren und exakt die Platte mit der SN tauschen.
 

Traviso

Profi
Thread Starter
Mitglied seit
25.10.2020
Beiträge
142
So das Resilvern scheint jetzt durch zu sein:

HDD8TB-4.png

Ich werde also die entsprechende Platte tauschen, sobald die Ersatzplatte da ist. Einen HotPlug Wechselrahmen habe ich mir auch noch mit dazu bestellt, so dass ich die Platte im Betrieb tauschen kann.

Was mache ich den jetzt mit der 6TB Platte, welche nicht in diesen Pool gehört ? Per "Remove" kann ich diese anscheinend nicht entfernen.

Gruß und danke schon einmal für die Hilfe!
 

Gen8 Runner

Experte
Mitglied seit
12.08.2015
Beiträge
986
Ich kann gerade nicht mehr ganz folgen.

Resilver ist durch, aber es wird ja weiterhin angezeigt, dass nicht behebbare Fehler vorhanden sind!?
Welche Platten in deinem Screenshot sind denn nun wirklich verbaut und in Betrieb, kannst du die einmal farblich markieren?

Würde das ganze bei mir so aussehen, würde ich wie folgt verfahren:
zpool clear, um den Fehler zu löschen
zpool scrub, um nochmal die gesamten Inhalte vom Pool prüfen zu lassen, ob weiterhin Fehler vorhanden sind
zpool scrub ohne Fehler und alles bella? Dann normalen Betrieb aufnehmen und schauen, ob der Fehler wieder auftritt. Sonst schauen, woran es liegt.

Die 6TB ist definitiv nicht (mehr) vorhanden und das hast du auch durch Abgleich der Seriennummern sichergestellt?
Würde es dann wohl tatsächlich erstmal über zpool export / zpool import versuchen, ob er dann nur die wirklich genutzten Platten noch importiert und die 6TB Platte von alleine verschwindet.
Aber vorher schauen, ob und was du alles sichern musst bei OMNI-OS (nie damit gearbeitet), wie bspw. encryption keys (oder ob sogar -sofern verschlüsselt- ReKey vom Pool notwendig ist). Desweiteren werden bei zpool export wahrscheinlich auch sämtliche geplanten Snapshot-Aufgaben, Shares etc. mit entfernt. Also definitiv Backup der Einstellungen machen (und Backup der Daten sowieso haben).
 

Traviso

Profi
Thread Starter
Mitglied seit
25.10.2020
Beiträge
142
Resilver ist durch, aber es wird ja weiterhin angezeigt, dass nicht behebbare Fehler vorhanden sind!?
Resilver war durch. Die Checksumme bei der einen Platte war aber immer noch 520 (= <>0). Sobald die neue 8 TB Platte eingetroffen ist und Resilver nochmal durchgelaufen ist, schalte ich den Server ab und tausche die besagte Platte durch die neue über den Wechselrahmen (= hotplug).
Welche Platten in deinem Screenshot sind denn nun wirklich verbaut und in Betrieb, kannst du die einmal farblich markieren?
Alle Platten im Screenshot sind verbaut und auch in Betrieb.
Würde das ganze bei mir so aussehen, würde ich wie folgt verfahren:
zpool clear, um den Fehler zu löschen
zpool scrub, um nochmal die gesamten Inhalte vom Pool prüfen zu lassen, ob weiterhin Fehler vorhanden sind
zpool scrub ohne Fehler und alles bella? Dann normalen Betrieb aufnehmen und schauen, ob der Fehler wieder auftritt. Sonst schauen, woran es liegt.
Kann ich machen, sobald die 8 TB Platte getauscht ist.
Die 6TB ist definitiv nicht (mehr) vorhanden und das hast du auch durch Abgleich der Seriennummern sichergestellt?
Das muss ich später nochmal verifizieren.
 

Traviso

Profi
Thread Starter
Mitglied seit
25.10.2020
Beiträge
142
Wie man sieht, hat das Resilvern auf der gleichen Festplatte wieder im HDD8TB Pool begonnen:
HDD8TB-5.png


Da ich gerne die neue Festplatte für den Pool HDD6TB einbauen würde, damit dort die dritte Festplatte wieder vorhanden ist, würde mich interessieren, ob ich während des Resilverns den Server herunterfahren kann.

HDD6TB-2.png

Nach dem Wiederhochfahren könnte ich, denke ich, die "FAULTED" Platte über das Menü in Napp-IT durch die neue Platte ersetzen.

Zusätzlich würde mich noch interessieren, ob ich die derzeit am Resilver teilnehmende Platte durch eine neue 8TB Festplatte während des Resilverns tauschen kann. Ich möchte nämlich nicht wieder 2-3 Tage warten, bis der Resilver Prozess durch ist und dann möglicherweise wieder neu startet, bevor ich die Festplatte getauscht habe.
 

gea

Enthusiast
Mitglied seit
16.11.2010
Beiträge
4.561
So das Resilvern scheint jetzt durch zu sein:

Anhang anzeigen 650619
Ich werde also die entsprechende Platte tauschen, sobald die Ersatzplatte da ist. Einen HotPlug Wechselrahmen habe ich mir auch noch mit dazu bestellt, so dass ich die Platte im Betrieb tauschen kann.

Was mache ich den jetzt mit der 6TB Platte, welche nicht in diesen Pool gehört ? Per "Remove" kann ich diese anscheinend nicht entfernen.

Gruß und danke schon einmal für die Hilfe!

Man kann nur MIrror-, Slog-, L2Arc- und special vdev-Platten aus einem ZFS Pool entfernen. Die 6TB Platte kann man nicht aus einem Z2 vdev entfernen. Die 6TB Platte sorgt aber dafür dass von den 8TB Platten auch nur 6TB genutzt werden können.

Lösen läßt sich das dadurch dass man die 6 TB Platte durch eine 8TB Platte ersetzt. Wenn autoexpand=on stehen dann 7x8TB nutzbar bereit. Dann kann man die 6TB Platte ziehen.
Beitrag automatisch zusammengeführt:

Wie man sieht, hat das Resilvern auf der gleichen Festplatte wieder im HDD8TB Pool begonnen:
Anhang anzeigen 651138

Da ich gerne die neue Festplatte für den Pool HDD6TB einbauen würde, damit dort die dritte Festplatte wieder vorhanden ist, würde mich interessieren, ob ich während des Resilverns den Server herunterfahren kann.

Anhang anzeigen 651141
Nach dem Wiederhochfahren könnte ich, denke ich, die "FAULTED" Platte über das Menü in Napp-IT durch die neue Platte ersetzen.

Zusätzlich würde mich noch interessieren, ob ich die derzeit am Resilver teilnehmende Platte durch eine neue 8TB Festplatte während des Resilverns tauschen kann. Ich möchte nämlich nicht wieder 2-3 Tage warten, bis der Resilver Prozess durch ist und dann möglicherweise wieder neu startet, bevor ich die Festplatte getauscht habe.

Prinzipiell ist ZFS sehr robust. Ein unterbrochenes Resilver (Platte ziehen oder nach reboot) wird problemlos fortgesetzt/neu gestartet.
Beitrag automatisch zusammengeführt:

War die vielleicht als Hot-spare konfiguriert?
Kenne Napp-IT nicht, vielleicht macht es das automatisch mit nicht zugeordneten Datenträgern?
nein, hotspare muss man manuell einem Pool hinzufügen, auto macht keinen Sinn
 
Zuletzt bearbeitet:

Traviso

Profi
Thread Starter
Mitglied seit
25.10.2020
Beiträge
142
Man kann nur MIrror-, Slog-, L2Arc- und special vdev-Platten aus einem ZFS Pool entfernen. Die 6TB Platte kann man nicht aus einem Z2 vdev entfernen. Die 6TB Platte sorgt aber dafür dass von den 8TB Platten auch nur 6TB genutzt werden können.
Vielen Dank für die Erklärung.
Lösen läßt sich das dadurch dass man die 6 TB Platte durch eine 8TB Platte ersetzt. Wenn autoexpand=on stehen dann 7x8TB nutzbar bereit. Dann kann man die 6TB Platte ziehen.
Mir ist gerade aufgefallen, dass der Laufwerksname c0t5000C500903384D33D0 ursprünglich eine Seagate ST8000NE0021-2EN war (siehe 2. Screenshot im Startbeitrag) und dann zu einer WDC WD6003FFBXC-6 in der Statusübersicht wurde. Eigentlich dürfte dies doch nicht möglich sein, da der Laufwerksname bzw. die ID eindeutig ist, so wie ich es verstanden habe. Das Einzige, was ich gemacht habe, war die Ausführung von devfsadm -Dv per SSH. Ein Umstecken von Laufwerken ist auch nicht erfolgt.
Prinzipiell ist ZFS sehr robust. Ein unterbrochenes Resilver (Platte ziehen oder nach reboot) wird problemlos fortgesetzt/neu gestartet.
Ok, das heisst also, die Platte, bei welcher derzeit Resilvering im Statusfenster steht, kann ich per Hotplug ziehen und eine neue 8 TB Platte einsetzen.Und danach muss ich ein Replace durchführen.
Die neue 6 TB Platte schließe ich am Controlleranschluß an, an welchem die defekte Platte hängt und danach tausche ich per "Replace" aus.
nein, hotspare muss man manuell einem Pool hinzufügen, auto macht keinen Sinn
Siehe vorher, die ID/der Name ist identisch, aber das Laufwerk unter der gleichen ID ist ein anderes.
 

gea

Enthusiast
Mitglied seit
16.11.2010
Beiträge
4.561
Vielen Dank für die Erklärung.

Mir ist gerade aufgefallen, dass der Laufwerksname c0t5000C500903384D33D0 ursprünglich eine Seagate ST8000NE0021-2EN war (siehe 2. Screenshot im Startbeitrag) und dann zu einer WDC WD6003FFBXC-6 in der Statusübersicht wurde. Eigentlich dürfte dies doch nicht möglich sein, da der Laufwerksname bzw. die ID eindeutig ist, so wie ich es verstanden habe. Das Einzige, was ich gemacht habe, war die Ausführung von devfsadm -Dv per SSH. Ein Umstecken von Laufwerken ist auch nicht erfolgt.

Ok, das heisst also, die Platte, bei welcher derzeit Resilvering im Statusfenster steht, kann ich per Hotplug ziehen und eine neue 8 TB Platte einsetzen.Und danach muss ich ein Replace durchführen.
Die neue 6 TB Platte schließe ich am Controlleranschluß an, an welchem die defekte Platte hängt und danach tausche ich per "Replace" aus.

Siehe vorher, die ID/der Name ist identisch, aber das Laufwerk unter der gleichen ID ist ein anderes.

Die WWN sollte sich eigentlich nicht ändern. Warum das mit devfsadm bei dieser einen Platte passiert sein könnte - zusmmen mit einer neuen Produktkennung, erschließt sich mir nicht direkt. WWN wurde ja gerade eingeführt, damit sich eine Platten-ID nicht ändert, auch nicht bei Wechsel des HBA oder Servers. Bei professionellen SAS sind mir damit keine Probleme bekannt. Bei (älteren) Sata Platten könnte es eher Probleme geben. Hier würde ich mit ein Firmware Problem vermuten.
 

Traviso

Profi
Thread Starter
Mitglied seit
25.10.2020
Beiträge
142
Die WWN sollte sich eigentlich nicht ändern. Warum das mit devfsadm bei dieser einen Platte passiert sein könnte - zusmmen mit einer neuen Produktkennung, erschließt sich mir nicht direkt. WWN wurde ja gerade eingeführt, damit sich eine Platten-ID nicht ändert, auch nicht bei Wechsel des HBA oder Servers. Bei professionellen SAS sind mir damit keine Probleme bekannt. Bei (älteren) Sata Platten könnte es eher Probleme geben. Hier würde ich mit ein Firmware Problem vermuten.
Alles klar, dann tausche ich die Festplatten per "Replace". Schließlich müsste die 8 TB Platte, welche jetzt eine 6 TB Platte ist, auch noch irgendwo im System vorhanden sein.
 

gea

Enthusiast
Mitglied seit
16.11.2010
Beiträge
4.561
Welche Platteninfo liefern denn die Smartmontools
(Menü Disks > Smartinfo > get smartvalues, dann in Menü Disk > Smartinfo unter Details auf die SN klicken)
 

Traviso

Profi
Thread Starter
Mitglied seit
25.10.2020
Beiträge
142
Welche Platteninfo liefern denn die Smartmontools
(Menü Disks > Smartinfo > get smartvalues, dann in Menü Disk > Smartinfo unter Details auf die SN klicken)
Ich habe die "Smart Values" neu eingelesen.
Jetzt ist wiederum die 8TB Seagate Ironwolf Pro eingetragen (mit der Seriennummer, welche zuvor für die 6 TB WD Red Pro aufgelistet war).
Auch im Pool wird jetzt wieder die 8 TB Seagate Ironwolf Pro angezeigt (keine Ahnung, ob dies damit zu tun hatte).
Hier noch der Output:

smartmon-details.png

smartmon-details-1.png


smartmon-details-2.jpg


HDD8TB_neu.png

Beitrag automatisch zusammengeführt:

Gerade habe ich auch gesehen, dass viele der Ironwolf Pro bei mir noch Firmwareversion EN01 haben, einige aber auch schon Version EN02. Kann man die Firmware auch unter OMNI-OS irgendwie aktualisieren ?
 
Zuletzt bearbeitet:
Oben Unten