Wie lange bleiben Daten auf einer Festplatte unverändert lesbar?

Chr1st14n

Enthusiast
Thread Starter
Mitglied seit
31.01.2014
Beiträge
1.241
Ort
127.0.0.1
Hallo,

bei meiner Frage, wie lange Daten auf einer Festplatte unverändert lesbar bleiben, ziele ich gar nicht auf die Haltbarkeit der Festplatte selbst ab. Ich frage mich stattdessen, ob man sich darüber Gedanken machen muss, ob eine Datei nach langen verbleiben auf der Festplatte korrupt werden kann. Schlieslich gibt es zum Beispiel beim RAM auch Speicher mit Fehlerkorrektur da dort ein Bit "kippen" kann. Angenommen man hat eine Backup-Festplatte, die nur gelegentlich angeschlossen wird, kann man davon ausgehen, dass auch nach 15 Jahren noch sämtliche Daten lesbar sind?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nein. Die Hersteller geben eine Periode an, wie lange die stromlos bleiben dürfen. Meine, das waren zum Beispiel bei Seagate irgendwas um die 30 Tage.

Meine USB-Platten als Backup (WD) habe ich aber teilweise länger offline und bisher hat ein ZFS-Scrub noch keine korrupten Daten dadrauf gefunden.
 
Da die Daten auf den HDD magnetisch gespeichert werden und wenn die HDD artgerecht gelagert wird, zb in einem Antimagnetischen koffer, sind die ungebrenzt haltbar, habe hier festplatten die liegen schon jahre (noch mit IDE) ohne stromzufuhr und sind noch alle lesbar.

Bei SSD sieht es anders aus.
 
Die Daten mögen sehr, sehr lange auf den Platte gespeichert bleiben, aber die Mechanik der HDD wird nicht so lange halten und damit sind die Daten dann eben nicht mehr einfach auslesbar, sondern nur von Datenrettungsprofis mit entsprechender Ausrüstung.

Seagate schreibt über die Lagerbarkeit z.B. hier und auch in einigen anderen Product Manuals:
Wenn also die Lagerbedingungen nicht eingehalten werde, sind 90 Tage und zwar in der ungeöffneten Originalverpackung, sonst bestenfalls 1 Jahr. Nach dem Öffnen sollten HDD nicht länger als 30 Tage stromlos sein.

Bei der neuen Barracuda Pro 10TB mit Heliumfüllung schreibt Seagate:
Also hier nur ein halbes Jahr in der ungeöffneten originalen Versandverpackung von Seagate und sonst 2 Monate, nur bei optimalen Bedingungen bis zu einem Jahr.

HGST schreibt für die Megascale:
 
Ein RAID Scrubbing ist eine ganz andere Sache und hat andere Gründe, dies passt hier nicht zum Thema.
 
Ich hab letztlich meine alten Festplatten aufgeräumt / zwecks Datenschutz gelöscht, un sie sicher entsorgen zu können. Die Platten sind so ca. 8 - 15 Jahre alt. 5 Platten waren tot - die hab ich dann mechanisch zerstört. 16 Platten funktionieren noch. Das sollte zeigen, dass eine Langzeit Aufbewahrung von Daten auf HDDs keine gute Idee ist. Alle Platten hatten mehrere Jahre im Regal gelegen.
 
Ich sehe das so.

Es gibt eine sehr gute Chance dass Platten auch nach sehr langer Lagerung noch lesbar sind. Das Problem ist die Ungewißheit ob diese Daten noch unverändert vorliegen. Normalerweise hat man allerdings keine Möglichkeit die Daten nachträglich zu verifizieren.

Hier haben neue Dateisysteme wie ZFS eben doch enorme Vorteile. Dadurch dass jeder Datenblock eine eigene Prüfsumme hat werden Fehler zumindest sicher entdeckt, entweder beim Lesen einer Datei oder beim Scrubbing der ganzen Platte. Dabei werden alle Dateien gelesen und deren Prüfsummen verifiziert und fehlerhafte Dateien ermittelt.

Liegt der Fehler in den Metadaten so kann er eventuell automatisch repariert werden da ZFS diese doppelt vorhält. Hat man bei ZFS copies=2 gesetzt, so werden alle Daten doppelt vorgehalten um im Falle eines Fehlers diesen zu reparieren (single Disk Redundanz). Dieses ZFS Scrubbing hat trotz Namensgleichheit auch nichts mit Raid-Scrubbing zu tun bei dem nicht die tatsächlichen Daten sondern das Raid selber geprüft wird, ohne Kenntnis der Daten.

Für sichere Langzeitdatenspeicherung würde ich aber dennoch ein Raid also z.B. einen Mirror nutzen. Damit sind Daten selbst bei Ausfall einer Platte noch verfügbar. ZFS kann wegen der Datenblock-Prüfsummen dann sogar feststellen welche Datei auf welchem Mirrorteil valide ist. Ein herkömmlicher Mirror würde hier versagen da er allenfalls die Ungleichheit feststellen könnte. Auch mit ZFS sollte man dennoch die Daten regelmäßig scrubben damit Fehler rechtzeitig entdeckt werden und dann eventuell aus Redundanz noch repariert werden können. Macht man das erst nach 10 Jahren hat man eventuell mehr Fehler als es die gewählte Redundanz zuläßt. Ein früheres Datenscrubbing hätte das noch reparieren können.
 
Zuletzt bearbeitet:
In meinem Fall habe ich an zwei Standorten jeweils ein Synology NAS. Das 1. dient als Speicherort und das 2. als Backup. Mittels FreeFileSync lasse ich bei bedarf alle neuen Daten auf das Backup übertragen. Mittlerweile liegen auf den Festplatten über 300.000 einzelne Dateien weshalb beschädigte Dateien manuell nicht erkannt werden können. Jetzt habe ich bedenken, dass Dateien die schon lange gespeichert sind irgendwann beschädigt seien könnten. Daher die Frage.
 
Solange die Synologys regelmäßig eingeschaltet werden sehe ich da relativ wenige Probleme. Es kann natürlich immer mal zu einem gekippten Bit oder zu einem defekten Sektor kommen, aber zumindest bist du dann nicht von der Problematik der stromlos gelagerten Platten betroffen.

Übrigens: Ich habe eine 20mb Platte nach 10 Jahren Lagerung im Schrank wieder in Betrieb genommen. Die lief locker an und war sogar bootbar ;) Zu dem Zeitpunkt war die Platte etwa 25 Jahre alt...
 
Zumindest bei den neueren Synology kann man btrfs als Dateisystem nutzen. Nicht so sophisticated wie ZFS aber besser als ext4. Synology baut darüber zwar ein konventionelles Raid wodurch einige Vorzüge der neueren Dateisysteme verloren gehen. Wichtig ist aber dass Daten-Prüfsummen erhalten bleiben. Defekte Dateien werden dann zumindest erkannt - zumindest solange bei Filesync selber oder wegen fehlendem ECC bei den meisten Synos durch Ramfehler keine Datenfehler bereits beim Schreiben entstehen.

Reparaturmöglichkeiten gibts vor allem wegen der auch bei btrfs doppelt vorhandenen Metadaten.
 
Zuletzt bearbeitet:
Das Problem ist die Ungewißheit ob diese Daten noch unverändert vorliegen. Normalerweise hat man allerdings keine Möglichkeit die Daten nachträglich zu verifizieren.
Nein, dies ist kein Problem, da die Platten ja selbst hinter jedem Sektor eine ECC haben und eben normaleriweise (mit bestimmten Befehlen / Konfigurationen kann man dies bei bestimmten Platten auch erreichen) keine korrupten Daten ausgeben, sondern eben einen Lesefehler, sollten die Daten nicht zur ECC passen und die Fehler mit deren Hilfe nicht mehr korrigierbar sein. HDDs geben keine korrupten Daten wieder, außer die haben einen Fehler auf den internen Datenpfaden oder einen FW Bug, aber davon abgesehen kommen korrupte Daten fast immer durch RAM Fehler des Rechners (NAS) zustande, oder weil eben ein Programm die Lesefehler ignoriert und die betroffene Datei trotzdem öffnet oder kopiert, obwohl sie unvollständig gelesen wurde.

Für sichere Langzeitdatenspeicherung würde ich aber dennoch ein Raid also z.B. einen Mirror nutzen.
Für eine Langzeitspeicherung sollte man die Dateien nicht auf ausgeschalteten Platten lagern, sondern auf welchen die regelmäßig laufen, geprüft und nach einer entsprechenden Zeit ersetzt werden.

sogar feststellen welche Datei auf welchem Mirrorteil valide ist. Ein herkömmlicher Mirror würde hier versagen da er allenfalls die Ungleichheit feststellen könnte.
Blödsinn, auch ein ganz normales RAID 1 kann genau entscheiden welche Daten korrekt sind, weil es nämlich von der Platte mit dem Problem eben keine falschen Daten bekommt, sondern einen Lesefehler und damit weiß, dass die Daten von der Platte die sie geliefert hat, auch korrekt sind. Außer die hat eben einen FW Bug oder Fehler auf den internen Datenpfaden aber keine Erkennung / Korrektur solcher Fehler, wobei beides sehr selten vorkommt.

Solange die Synologys regelmäßig eingeschaltet werden sehe ich da relativ wenige Probleme. Es kann natürlich immer mal zu einem gekippten Bit oder zu einem defekten Sektor kommen
Das Bits falsch vom Platter gelesen werden, ist normal und daher gibt es ja auch die ECC hinter jedem Sektor, die eben dazu dient diese zu erkennen und möglichst zu korrigieren und eben einen Lesefehler statt korrupter Daten auszugeben, sollte die Korrektur wegen zu vieler falscher Bits nicht geklappt haben.

Übrigens: Ich habe eine 20mb Platte nach 10 Jahren Lagerung im Schrank wieder in Betrieb genommen. Die lief locker an und war sogar bootbar ;) Zu dem Zeitpunkt war die Platte etwa 25 Jahre alt...
Bei so alten Platten ist noch eine ganz andere Technik verbaut als bei heutigen HDDs, die Datendichten waren damals ja auch viel geringer.

Zumindest bei den neueren Synology kann man btrfs als Dateisystem nutzen.
Aber ohne ECC RAM macht dies wenig Sinn und wenn neben der Fehlererkennung auch die die Fehlerkorrektur aktiviert ist (zumindest anfangs war die ab Werk nicht der Fall), wird es sogar gefährlich wenn wegen eines RAM Fehlers die Metadaten des Filesystems im RAM korrupt werden, denn die sind dort nicht noch mal extra vor Bitfehlern geschützt. Da haben sich die Entwickler voll auf die HW verlassen, denn eigentlich sind solche Filesysteme wie ZFS und btrfs für ganz große Storages in Unternehmen gedacht und da verwendet keine HW ohne ECC RAM.

wegen fehlendem ECC bei den meisten Synos durch Ramfehler keine Datenfehler bereits beim Schreiben entstehen.
Wer sich Sorgen wegen Datenkorruption macht, sollte zuerst einmal durchgehend (also im Rechner wie die NAS/Heimserver) ECC RAM (mit der entsprechenden Plattform die dies auch unterstützt, sonst bringt es nicht weil die zusätzlichen Bits einfach nur in der Luft hängen) einsetzen. Matt Ahren, Mitentwickler des ZFS-Dateisystems, schreibt dazu:
Man beachte die Reihenfolge, zuerst empfiehlt er ECC RAM und dann erst oben drauf ein Filesystem mit Prüfsummen wie ZFS zu verwenden, wenn man seine Daten liebt und vor Korruption schützen möchte!
 
Wir stimmen in der Bewertung der Notwendigkeit der ZFS Neuerungen mal wieder am besten darin überein daß wir nicht übereinstimmen
 
Nichts gegen die Neuerungen von ZFS, aber dessen Prüfsummen sollte man nicht als Ersatz für ECC RAM sehen, sondern eben als Ergänzung und man sollte nicht vergessen das ZFS eben nicht für das kleine Storage des Heimanwenders gemacht wurde, der bestenfalls zweistellige TB hat, sondern für die richtig großen Pentabyte Storages und da hängt der Betreiber eben keine zusätzlichen Platten in den Pool und hat auch ein Backup, welches er im schlimmsten Fall wieder einspielt, wie lange dies dauert kann man gut abschätzen, statt eine Wiederherstellung des Pools mit ungewissem Ausgang zu probieren bei der keiner sagen kann ob und ggf. wann der wieder läuft.

ZFS kann daher eben weitere Platten nicht wirklich in den Pool integrieren, sondern klebt wie bei einem JBOD an den Pool an, ohne den gleichen Schutz zu bieten und es gibt auch kein Tool um den Pool zu restaurieren. Beides ist für Heimanwender eher von Nachteil als für die eigentliche Zielgruppe, die dann auf jeden Fall auch Server mit ECC RAM hat, was sich viele Heimanwender wegen der Mehrkosten auch gerade und nicht selten fatalerweise auch noch durch ZFS zu kompensieren glauben.
 
Ich würde trotzdem für eine einzelne Backupplatte auf ZFS mit copies=2 setzen, als z.B. ein HardwareRAID (viel Spaß bei einem Controller-Defekt).

Und ECC ist hier überhaupt kein Thema gewesen, da es allein um die Plattenlagerung ging und was mit den Daten passiert, die da drauf sind (wenn die schon beim Schreiben fehlerhaft waren, werden sie durch eine lange Lagerung auch nicht besser - ist aber ein ganz anderer Aspekt).

Davon ab halte ich HardwareRAID heute für @home mal überhaupt nicht mehr für sinnvoll (jedenfalls nicht, wenn auf dem Filer irgendwas anderes als Windows eingesetzt werden kann...), schon weil es bei der Wartung und Pflege (und im Fall von Sonderfällen wie Batterie-, Controller- oder Plattendefekt) auch nicht ganz trivial ist.
 
<off topic>

ZFS löst viele Storage Sicherheits Probleme, egal in welchem Bereich.

Man erweitert einen ZFS Pool (noch) nicht um einzelne Platten, sondern mit weiteren Raid vdevs in größeren Sprüngen z.B. dann von 10 TB auf 20 TB. Das Anfügen einer einzelnen Platte als Raid-0 ist allenfalls ein Anfängerfehler. Jedes vdev erhöht Kapazität und Performance ohne die Sicherheit zu verringern. Dieses dynamische Wachsen eines Pools und damit das Bereitstellen der zusätzlichen Kapazität in ZFS Dateisystemen ohne Rekonfiguration wie bei klassischen Partitionen ist Teil des Konzept und Alltag bei Storages. Daten wachsen immer.

Raid-Z Erweiterung (Wachsen eines einzelnen Raid-Z vdev z.B. von 3 auf 4 Platten) ist aber am Kommen, RAIDZ Expansion by Matt Ahrens - YouTube Das Entfernen eines vdevs aus einem Pool ist in Solaris (alle vdev Typen) und Open-ZFS (basic und mirror)


ZFS ist nahezu unkaputtbar. Sicherheit und Robustheit waren die ersten Entwicklungsziele von SUN. Das Fehlen eines Reparaturtools wie fschk/chkdsk ist nachvollziehbar. Wegen CopyOnWrite ist ein ZFS Dateisystem immer konsistent. Eine Metadatenprüfung wie fschk/chkdsk ist damit überflüssig. Auch sind Metadaten doppelt vorhanden. Die Daten kann ein fschk/chkdsk eh mangels Prüfsummen nicht verifizieren. ZFS kann das.

Wenn doch mal ein Disaster passiert (ist mit seit 10 Jahren seit ich ZFS nutze nicht mehr passiert, davor mit ntfs mehrmals) hat mal halt wie immer ein Backup zu haben.

Darüber hinaus bietet Open-ZFS z.B. im neuen OmniOS System-Checkpoints, Feature #9166: zfs storage pool checkpoint - illumos gate - illumos.org. Damit kann man sogar einen Pool rücksetzen nachdem man strukturelle Änderungen vorgenommen hat. Auch bietet ZFS umfangfreiche on the Fly Reparaturoptionen beim Lesen einer Datei oder Scubben aller Dateien oder Recovery beim Import, Turbocharging ZFS Data Recovery | Delphix.

Ein fschk oder chkdsk ist nicht mal ansatzweise vergleichbar. ZFS ist da erster einer neuen Generation von Dateisystemen.

ECC Speicher und ZFS EndtoEnd (über Treiber, Kontroller, Kabel, Backplane und Disk) Prüfsummen auf Daten und Metadaten sind zwei unabhängige Sicherheitsmaßnahmen die vollkommen separat zu würdigen sind. Jedes verbessert die Sicherheit auch bei Fehlen des anderen. Allein die Tatsache dass ab und an auch mit ECC Checksumfehler gefunden werden unterstreicht die Notwendigkeit dar Daten-Prüfsummen. Das manchmal zitierte "Scrub of Death" eines Dateisystems mit Prüfsummen und autorepair bei Ramfehlern ohne ECC ist "Fake News". ZFS wird den Pool dann üblicherweise einfach offline setzen (too many errors). Unabhängig davon verbessert ECC die allgemeine Datensicherheit deutlich, unabhängig von ZFS. Natürlich kann defekter RAM prinzipiell als relativ unwahrscheinlicher worst case auch einen ZFS Pool schrotten.

Diese Argumentation sehe ich wie: Wenn du keinen Sicherheitsgurt anlegst bringt dir auch ESP nichts

</ off topic>
 
Zuletzt bearbeitet:
Hab auch noch eine "selten" genutzte 4TB HDD im Schrank liegen, dient eig. als Backup Platte, aber da die keinen richtigen Ein/Ausschalter hat, nutze ich die nicht (sie hat einen Taster, aber der Hersteller hat es einfach vergeigt -.-).

Also die liegt sicher schon seit 1,5 Jahren stromlos rum, wenn ich euch richtig verstehe sollte ich die hin und wieder einfach mal an machen? Wie lang soll/muss die dann laufen?

Welchen Effekt hat das dann überhaupt? Nur dass die Mechanik mal arbeitet oder werden die Bit Polaritäten/o.ä. dann wieder aufgefrischt?
 
Es tut der Mechanik gut wenn die Platte ab und an läuft. Auch die Elektronik z.B. Kondensatoren mag es nicht lange stromlos zu bleiben. Wir haben aber kürzlich mehrere 20 Jahre alte Macs die seither im Regal lagen angemacht und die sind einfach mit OS8 hochgelaufen (wobei die alten Teile eventuell robuster waren).

Die Daten werden durch einfaches Anschalten nicht "aufgefrischt". Das ginge nur durch Lesen + Schreiben. Wenn es sich aber um ein altes Dateisystem ohne Prüfsummen (oder zusätzlich manuell erstellte md5 Prüfsummendateien) handelt hat man gar keine Möglichkeit Fehler zu erkennen. Ein Einfaches Umkopieren würde nur den Fehler kopieren. Und selbst mit Prüfsummen würde man lediglich feststellen dass eine Datei defekt ist. Zum Reparieren bräuchte man Redundanz (Raid oder ZFS copies=2)
 
Wer bei ZFS Angst vor nem „scrub of death“ hat, macht halt vor dem Scrub nen Snap.... oder repliziert den Pool bzw. das Dataset vorher auf nen anderen Pool (mit anderen vdevs).
 
Backup mit ZFS Replikation auf einen anderen Datenträger ist natürlich immer gut. Ein Snap aber würde nichts bringen. Ein "scrub of death" hinterläßt ja per Definition einen toten Pool.

Der "scrub of death" Mythos geht ja vereinfacht davon aus dass ZFS gute Daten liest und die Prüfsumme prüft. Durch einen unentdeckten RAM Fehler (kein ECC) entsteht da ein Prüfsummenfehler. ZFS liest dann aus Redundanz (Raid, copies=2) die guten Daten nochmal. Dabei tritt erneut ein RAM Fehler auf worauf ZFS Schrott auf den Pool schreibt um den vermeintlichen Fehler per selfrepair zu reparieren . Handelt es sich um die Metadaten so ist der ganze Pool strukturell gefärdet. Die Metadaten hält ZFS aber doppelt. Man braucht also nochmehr RAM Fehler, ohne dass ZFS was merkt (too many errors, pool/disk offline) oder dass das OS abstürzt.

Kann man glauben, muss man aber nicht. Mir ist seit ich intensiv bei ZFS dabei bin (gut 10 Jahre) kein dokumentierter Fall bekannt bei dem ein defekter Pool auf einen derartigen Vorgang eindeutig zurückzuführen wäre weil immer auch andere Defekte oder mögliche Ursachen dabei waren. Wenn dann hätte ein defekter Controller oder Stromversorgung viel mehr Möglichkeiten einen Pool zu schrotten. Darauf hätte weder ECC, das OS noch ZFS einen Einfluß. Das ist dann wie Feuer oder Diebstahl der Disaster Fall bei dem man das Backup braucht.
 
Zuletzt bearbeitet:
Joah. Ich denke, ab einem bestimmten Level geht eine saubere Backup-Strategie der Minimierung der Fehler-/Ausfallwahrscheinlichkeit im Primärsystem vor. Wie man da vorgeht, hängt wohl von der persönlichen Paranoia ab. :d

Ich checke zum Beispiel immer mein Backupsystem mit einem Scrub bevor ich die Replikation dadrauf laufen lasse. Mit dem 2. Backup auf der externen USB-HDD (steckt dann auch am Backup-System) mache ich es dann danach umgekehrt (aber seltener): erst die Replikation nochmal vom Primärsystem, dann nen Scrub drüber. So habe ich mit sehr hoher Wahrscheinlichkeit noch irgendwo einen sauberen Snap, selbst wenn zwischendurch irgendwo in der Kette ein Fehler auftritt (trotz ECC auf beiden Systemen). Diesen Aufwand fahre ich aber auch nur mit den faktisch oder emotional wirklich wichtigen Daten: ca. 1TB von etwas mehr als 52TB Gesamtstorage im Primärsystem...
 
als z.B. ein HardwareRAID (viel Spaß bei einem Controller-Defekt).
Immer dieses Märchen mit dem HW RAID Controllerdefekt, also ob die Metadaten der HW RAIDs nicht auch über viele Generationen der Controller kompatibel wären und man daher nicht auch andere Controller des Hersteller statt nur den genau gleichen Controller verwenden kann. Obendrein unterstützt auch das Linux md SW RAID die Metadaten vieler HW RAID Controller, so auch z.B. das der Intel Chipsatz RAIDs. Zwar bin auch auch kein Fan von HW RAID Controllern beim Heimanwendern, aber man sollte da nicht unnötig einen Horror an die Wand malen der so nicht stimmt und Linux Nutzer werden sowieso kein großes Verlangen nach HW RAIDs haben.
werden sie durch eine lange Lagerung auch nicht besser - ist aber ein ganz anderer Aspekt).
Die Platten selbst werden eben nicht besser bei langer Lagerung, darum geht es und ob heutige Platte nach 20 Jahren Einlagerung noch laufen werden, ist sehr ungewiss. Es hängt natürlich immer auch von den Bedingungen bei der Lagerung ab, wie Temperatur, Luftfeuchtigkeit etc.
Es tut der Mechanik gut wenn die Platte ab und an läuft. Auch die Elektronik z.B. Kondensatoren mag es nicht lange stromlos zu bleiben.
So ist es.
Wir haben aber kürzlich mehrere 20 Jahre alte Macs die seither im Regal lagen angemacht und die sind einfach mit OS8 hochgelaufen (wobei die alten Teile eventuell robuster waren).
Eben, die aktuellen Modelle dürfte nicht so lange halten wie die damaligen und dann ist die Frage wie lange die Macs laufen würden, nur Booten ist ja auch nur ein kurzer Test.
Bei Computerbase gab es vor kurzem einen Thread "Festplatten sterben wie die Fliegen - was mache ich falsch?", wo jemandem der ein halbes Jahr im Ausland war binnen 3 Monaten 4 HDDs gestorben sind. Die HDDs waren wohl in einem NAS im Keller, also nicht unter optimalen Bedingungen gelagert und waren nicht sofort kaputt, sind dann aber eben binnen recht kurzer Zeit ausgefallen. Die Angaben der Hersteller zur Lagerbarkeit müssen natürlich auch unter den ungünstigsten der erlaubten Bedingungen noch eingehalten werden, unter optimalen Bedingungen dürften die Platten auch eine weitaus längere Zeit ohne Probleme überstehen können.

Wenn es sich aber um ein altes Dateisystem ohne Prüfsummen (oder zusätzlich manuell erstellte md5 Prüfsummendateien) handelt hat man gar keine Möglichkeit Fehler zu erkennen.
Doch über die ECC die hinter jedem Sektor auf der Platte steht und weshalb es zu Lesefehlern kommt, wenn die Daten und die ECC nicht passen. Dies hatte ich doch erklärt, warum ignorierst Du dies trotzdem immer?

Ein Einfaches Umkopieren würde nur den Fehler kopieren.
Nur wenn das Tool welches man zum Kopieren verwendet die Lesefehler ignoriert und so tut als wäre alles richtig kopiert worden.
 
Doch über die ECC die hinter jedem Sektor auf der Platte steht und weshalb es zu Lesefehlern kommt, wenn die Daten und die ECC nicht passen. Dies hatte ich doch erklärt, warum ignorierst Du dies trotzdem immer?

Platteninterne Fehlerkorrektur ist wichtig und ohne würden moderne Platten garnicht funktionieren. Immerhin sind die Daten heute so eng gepackt dass man nur mir einer gewissen Wahrscheinlichkeit den Wert lesen kann.

Wäre das aber ausreichend könnte man Daten-Prüfsummen auf die tatsächlichen Daten, ja die ganze Entwicklung neuer Dateisysteme wie ZFS als Marketinggag abtun. Das dem nicht so ist sieht jeder der länger mit ZFS arbeitet daran dass alles in Ordnung scheint, Daten problemlos gelesen werden können, Smart nichts anmeckert und es dennoch zu ZFS Prüfsummenfehlern beim Lesen kommt (auch mit ECC RAM). Offensichtlich sind dann Daten verändert worden die von all den Hardware-Fehlerkorrekturen nicht entdeckt/korrigiert wurden und lediglich durch die Echtdatenprüfung von ZFS aufgefallen sind und auch nur durch ZFS repariert werden können - Redundanz vorrausgesetzt..
 
Das dem nicht so ist sieht jeder der länger mit ZFS arbeitet daran dass alles in Ordnung scheint, Daten problemlos gelesen werden können, Smart nichts anmeckert und es dennoch zu ZFS Prüfsummenfehlern beim Lesen kommt (auch mit ECC RAM).
So ein Fall ist mir zwar nicht bekannt, aber ob die S.M.A.R.T. Werte "Fehler" (welche konkret) melden, ist erst einmal irrelevant, die Frage ist ob die Platte beim Lesen der Daten mit einem Lesefehler geantwortet hat. Außerdem sollte man die Konfiguration beachten, bei SAS Platten ist es durchaus möglich das man die ECC der Platten selbst gar nicht nutzt, sondern diese mit 520 oder 528 Byte pro Sektor formatiert, dann schreibt der SAS RAID Controller selbst eine ECC in die übrigen 8 oder 16 Byte und sie konfigurieren die Platten so, dass sie die Daten direkt bekommen, dann prüfen sie die Daten selbst aufgrund ihrerer eigenen ECC und können eben sofort bei Fehlern die Daten aus der Redundanz des RAID rekonstruieren, was Zeit spart, aber hängt eben voll von der Korrektheit der Arbeitsweise des RAID Controllers ab und da gab es auch schon Fälle wie deren FW Bug hatte.

Weil es solche Bugs immer mal geben kann, ist so ein Filesystem eben kein Marketinggag, da es eben anderes als die ECC der Platten selbst auch Fehler der Host Controller und Übertragungen mit abdecken kann, diese sind aber eben sehr selten.
Redundanz vorrausgesetzt..
Man sollte nicht vergessen, dass Redundanz, auch die bei ZFS, immer Speicherplatz kostet.
 
Mensch Holt, jetzt lass mal die Kirche im Dorf, keine Ahnung welche Laus Dir über die Leber gelaufen ist: das „Redundanz vorausgesetzt“ bezog sich doch ganz offensichtlich auf die Reparaturfähigkeiten - das gilt immer und z.B. auch für Backup. Das ist doch völlig selbstverständlich. Hat mal absolut gar nix mit ZFS zu tun.

Ich hatte übrigens schon das Phänomen, dass ZFS Fehler beim Scrub gemeldet hat, für OS, HBA und Platte (SMART) die Welt aber völlig in Ordnung war. Lag am Ende an einer komischen Inkompatibilität (vielleicht auch Defekt) des konkreten HBA.

Ohne ZFS wäre mir das nicht aufgefallen, die Daten wären schleichend kaputt gegangen.
 
Zuletzt bearbeitet:
Wenn man irgendwelche SATA Consumer Platten an irgendwelchen alten, gebrauchten Enterprise SAS HBAs betriebt, sind Inkompatibilitäten wahrscheinlicher als wenn man die eben einfach SATA Host Controller hängt, denn zwar kann man SATA Laufwerke an SAS HBAs betreiben, aber dabei gab es eben immer wieder solche Probleme. Enterprise HW gehört zu Enterprise HW und gerade bei den SAS HBAs und RAID Controller, vor allem wenn sie auch noch von OEMs sind, werden eben nicht mit Priorität auf die Kompatibilität mit Consumer HW getestet. Aber die gibt es ja dann gebraucht oft billig zu kaufen, also greifen die Heimanwender immer wieder zu und wundern sich dann immer wieder über Probleme, aber die liegen eben nicht an den HDDs selbst, sondern dann an der Konfiguration des Systems.

Die Laus die mir über die Leber gelaufen ist: Es wird immer so getan als würden HDDs einfach so falsche Daten liefern, was aber nicht der Fall ist, dies Märchen hält sich ähnlich hartnäckig, genau wie der Unsinn man müsse bei Ausfall des Hardware RAID Controller dann genau den gleichen wieder nehmen um an die Daten zu kommen und dann wird immer wieder getan als wäre ZFS das einzige Mittel Datenkorruption zu verhindern.
 
Zuletzt bearbeitet:
Glaube du bekommst das in den falschen Hals: keiner behauptet, dass es das EINZIGE Mittel wäre. Es ist (meiner Meinung nach) nur so, dass es wirklich viel kann und viele Fehlerquellen/-folgen abfedert, ohne dass man Profi bei der Konfiguration bzw. im Betrieb (zur Erkennung wenn was nicht so läuft wie es soll) sein müsste.

Jedem das Seine. :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh