Warnung vor Seagate Archive Festplatten - der Ausfall kommt schleichend

chicken

Enthusiast
Thread Starter
Mitglied seit
06.02.2003
Beiträge
277
Hallo,

will euch mal meine Erfahrungen mit meinen Seagate Archiv Festplatten mitteilen und für das Fehlerverhalten von diesen Festplatten sensibilisieren. Ich habe zwei dieser Festplatten in der 8TB Version (Seagate Archive HDD v2 8TB, SATA 6Gb/​s (ST8000AS0002)). Gekauft hab ich sie vor 3 Jahren und vier Monaten, so dass die Garantie gerade vor kurzem abgelaufen ist.

Diese Platten Schreiben ihre Daten mit Shingle Magnetic Recording. Falls dir das nichts sagt, kannst du hier kurz nachlesen:
8-TByte-Festplatte mit SMR-Aufzeichnung | c't Magazin
Shingled Magnetic Recording – Wikipedia

Eine unbestätigter Quelle im Internet sagte, dass die Streifen bei diesen Platten 40MB haben sollen.

Ich habe die Platten nach dem Kauf mit NTFS formatiert und auf jeder Platte einen 7451GB großen TrueCrypt-Container erstellt, welcher später durch einen VeraCrypt-Container ersetzt wurde. Mir war von Anfang an klar, dass diese Platten als Datengrab konzipiert sind und deshalb hab ich sie als Archiv für meine Videosammlung benutzt, das heißt in der Regel wurden große Videodatein abgelegt, die gelegentlich auch mal gelöscht wurden. Betrieben wurden die Platten an meinem HTPC im Wohnzimmer (Intel NUC i5) in diesen USB3-Gehäusen. Ergänzend sei gesagt, dass ich an diesem NUC auch 2x 6TB WD Red für die gleichen Zwecke betreibe, die allerdings etwas älter sind als die Seagate Archive.

Die letzten 3 Jahre liefen die Platten unauffällig. Ich konnte immer zuverlässig Videomaterial ablegen und abspielen, wenn es gebraucht wurde. Die Schreibraten waren konstant bei ca. 80MB/s sequenziellem Schreiben. SMART war immer unauffällig und ist es auch heute noch.

[Ausholen]
Um zu verstehen wie ich den defekten Platten langsam auf die Schliche gekommen bin, muss ich etwas ausholen:

Vor einigen Wochen ist mir dann folgendes passiert: Es war schon spät abends, kurz vorm ins Bett gehen. Win10 lief, alle genannten Platten waren am NUC angeschlossen und die Container waren alle gemountet. Weil ich tagsüber das Videoarchiv etwas ausgemistet hatte, hab ich den Papierkorb geleert. Da aber alle Festplatten wegen Inaktivität nicht mehr drehten, mussten diese erst wieder anlaufen. Da ich keine Lust hatte darauf zu warten, hab ich schon mal Strg+X - Herunterfahren gedrückt. Windows 10 hat daraufhin den Shutdown eingeleitet. Einige von euch werden wissen, dass Windows erst den PC ausschaltet, wenn alle USB-Laufwerke korrekt abgemeldet wurden. Also hat Windows vor dem Power-OFF gewartet, bis die Festplatten initialisiert waren und hat dann abgeschaltet.

Am nächsten Tag hab ich Windows gestartet. Nachdem Windows oben war und ich die Container verbinden wollte meldete mir der Explorer, dass der Papierkorb auf den 8TB-Platten defekt sei und repariert werden müsse. Zuerst habe ich den Reparaturvorschlag abgelehnt und manuell nachgeschaut, ob man auf das Dateisystem zugreifen kann. Als ich dann aber merkte, dass der Zugriff auf die VeraCrypt-Container nicht gelingen wollte, habe ich der Reparatur zugestimmt. Bei einer der 8TB-Platten hat diese Reparatur scheinbar geklappt - die Fehlermeldung verschwand. Bei der anderen 8TB-Platte lies sich diese Fehlermeldung nicht beseitigen, die Raparatur schlug fehl.

Zu diesem Zeitpunkt war am Dateisystem etwas ziemlich verbogen. Ich konnte die Container noch auf den Laufwerken sehen, aber Veracrypt verweigerte mir das Einbinden der Container, weile s die Dateien nicht richtig lesen konnte. Über einen Umgweg war es mir dann möglich, die Container trotzdem zu verbinden: Ich habe die Container als System-Favorit hinzugefügt. Das hat dazu geführt, dass VeraCrypt die Container beim Windowsstart bereits verbunden hatte. Somit waren die Container dann gemountet und ich hatte Glück, dass der Header nicht beschädigt war. Dummerweise hatte es aber auch das NTFS in den Container zerlegt. Ich hatte also gemountete Laufwerke, aber die Laufwerke zeigten mit eine Gesamtgröße von 0kb an.

Ich habe dann mit diversen Datenrettungstools gearbeitet. Mit TestDisk hatte ich keinen Erfolg, die Partitionen im Container wiederherzustellen - es hat wohl einfach zu viel zerschossen. Ein kurzer Test mit PhotoRec hat mich dann aber schnell beruhigt, denn diese Programm war grundsätzlich in der Lage, Videodateien auf dem defekten, gemounteten Laufwerk zu finden. Leiter ist PhotoRec nicht ganz so professionell und stellt jede Dateie die es findet, mit cryptischem Namen ohne Verzeichnisstruktur wieder her. Ich habe dann die Testversion von einer Datenrettungssoftware runtergeladen und einen kompletten Scan der Platte laufen lassen. Am Anfang des Scan-Prozesses hat dieses Programm auch nur Dateien ohne Baumstruktur gefunden, aber am Ende der Platte war wohl die Backup-MFT noch intakt. Das hat dazu geführt, dass ich alle Dateien samt Verzeichnisbaum wiederherstellen konnte.

Meine Theorie ist: Scheinbar hat Windows vor dem Power-Off, als die Platten noch am spinup waren, noch den Befehl zum Papierkorb leeren zur Verarbeitung im Speicher gehabt und diesen Befehl noch durchgedrückt. Zum Zeitpunkt des Power-Offs waren die 8TB-Platten aber noch nicht fertig, den Streifen mit den MFTs komplett neu zu schreiben.

Vergleichbar ist das mit USB-Sticks, die beschrieben werden und herausgezogen werden, bevor auch tatsächlich alle Daten weg geschrieben wurden, auch wenn der Ladebalken vom Kopierprozess schon nicht mehr sichtbar war.


Nebenbei: Die 6TB WD Reds hatten keinen Datenverlust oder Dateisystemproblem, weder direkt auf der Platte, noch im VeraCrypt-Container.

[/Ausholen]

Glücklicherweise waren die 8TB Archivplatten nach diesem Vorfall noch vollständig lesbar. Da ich keinen Speicherplatz hatte um vernünftig Datenrettung betreiben zu können, hab ich mir zunächst zwei 10TB WD Red gekauft.
Auf die erste WD-Red habe ich dann zunächst einen Container von der ersten 8TB-Archiv gesichert. Diesen konnte ich dann ohne Problem mounten.
Von diesem gemounteten Laufwerk mit ebenfalls zuerschossenem NTFS, konnte ich dann den Inhalt mit Datenrettungssoftware auf die zweite 10TB Red wegsichern.


Nachdem die erste 8TB Platte komplett gesichert war, konnte ich mich daran machen, diese wieder nutzbar zu machen. Ich wollte sie mit DBAN einmal komplett mit Nullen überschreiben. Zum einen um die GTP und das Dateisystem neu aufspielen zu könne, zum anderen weil DBAN in der Regel stehen bleibt, wenn es gröbere Probleme mit defekten Sektoren gibt. Und so war es dann auch, DBAN lief bei dieser Platte an und die Schreibrate ist bereits zu Beginn des Überschreibprozesses derart eingebrochen (auf ca. 1000kB/s und weniger), dass ich das Löschen abgebrochen habe. Ich habe dieses Verhalten zunächst auf den alten Laptop in Verbindung mit dem USB3-Gehäuse geschoben auf dem ich den Prozess laufen lassen sollte.

Einen Tag später habe ich die Platte dann nochmal am NUC angeschlossen. Da die ersten paar hundert MB der Platte ja von DBAN gelöscht wurden, war auch keine GPT mehr da. Ich habe die Platte daraufhin initialisiert, mit NTFS am Stück formatiert und einen neuen VeraCrypt-Container drauf geschrieben (der Speicherplatz wurde gleiche allokiert, bis die 7451GB geschrieben waren vergingen ca. 15h) . Erstaunlicherweise hat das ohne Probleme geklappt. Der Container wurde komplett ohne Fehler erstellt, die Schreibrate war konstant hoch bei ca. 100-80MB/s, was erfahrungsgemäß ein normaler Wert dieser Platten ist.

Also habe ich angefangen, diesen Container wieder mit Videodateien von der Sicherung die auf der 10TB-Platte lag zurück zu füllen. Auch das hat ohne Fehlermeldung geklappt, die 5,4TB Videodateien liesen sich ohne Probleme mit FreeFileSync ohne Probleme auf die 8TB Platte kopieren.

Als ich dann aber versucht habe, Videodateien von der 8TB-Platte zu öffnen, war keine einzige Datei lesbar. Es war nicht nur eine Datei betroffen, sondern wirklich keine Datei lies sich öffnen und alle waren korrupt. Kurioserweise funktionieren die Dateisystem direkt auf der Platte als auch im Container und die Ordner/Datei-Struktur im Container scheint auch lesbar zu sein. Allerdings mach die Struktur vom Dateisystem und dem VeraCrypt-Container auch nur wenige Kilobyte aus. Die Nutzdaten (Videodateien) hingegen sind ja eher Gigabyte groß.

Ich fragte mich wie das sein kann? Normalerweise brechen Schreibvorgänge ab oder bleiben stehen, wenn defekte Sektoren oder Hardwaredefekte im Spiel sind. In diesem Fall wurden sogar zwei Schreibvorgänge ohne Fehlermeldung durchgeführt. Einmal beim Erstellen des Containers und einmal als ich den Container mit Videodateien gefüllt habe.

Ich hatte natürlich gleich Sorge, dass das Backup auf der 10TB-Platte auch korrupt war, aber die gesicherten Videodateien auf der 10TB-Platte liesen sich ausnahmslos öffnen.

Ab diesem Zeitpunkt hatte ich die Befürchtung, dass die Seagate Archiv 8TB-Platten nicht mehr vertrauenswürdig sind und möglicherweise das SMR eine tickende Zeitbombe ist. Ich habe mir die SeaTools von Seagate heruntergeladen um die Platten zu checken. Die SeaTools bestätigten dann meinen Verdacht. Quicktests der Platten sind mit Fehlermeldungen abgebrochen. Ein vollständiger Fehlerscan inkl. Reparatur der Platten um defekte Sektoren auszuklammen schlug ebenfalls fehl. Ich habe euch mal die Fehlermeldungen der SeaTools angehängt (Bitte beachtet, dass die Modellnummer wegen dem USB-Gehäuse nicht korrekt angezeigt wird).

SeaTools_Test_long.png

Festplatteninfos1.png

Festplatteninfos2.png

Das USB-Gehäuse kann ich als Fehlerquelle übrigens ausschließen: Zum einen lief es die letzten drei Jahre mit den Archivplatten ohne Problem. Auch die 6TB-Platten laufen in solchen Gehäusen ohne Problem. Zudem hab ich die neuen Gehäuse, die ich für die 10TB-Platten bestellt habe, auch mit den 8TB-Platten getestet.



Das wirklich tückische an diesen Platten ist, dass sie scheinbar fehlerfrei Daten wegschreiben, aber nichts als Müll ausgelesen werden kann. Es muss ja nicht wie in meinem Fall ein komplett neues beschreiben der Platte zu Datensalat führen, das kann auch passieren, wenn man einfach nur irgendwelche Dateien auf ein bestehendes Dateisystem schreibt - möglicherweise an Stellen, die schon öfter beschrieben wurden und nicht mehr ganz so frisch sind.
Entweder sind die Schreibvorgänge nicht mehr sauber oder die Leseköpfe können die Spuren nicht mehr richtig auseinander halten. Altern die Köpfe/Magnetscheiben oder was ist da los?

Ich werde die Platten durch WD Red 10TB ersetzen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Klingt mir eher nach Software-/Anwendungsfehler als Problem bei den Platten im Sinne von Hardware. Runterfahren während Dateioperationen laufen und dann noch in Kombination mit Veracrypt, dessen Aktionen/Status für das OS min Zweifel nicht transparent sind, schreit ja geradezu nach sonderbaren Verhalten im Anschluss.

Ich würde mal vermuten, dass die Platten ohne Veracrypt-Gedöns dazwischen noch 1A funktionieren, auch weil Smart ja unauffällig ist.

Vielleicht etwas vorsichtiger bei der Titelwahl - von dem was du beschrieben hast, würde ich die Hardware der Platten ZULETZT verdächtigen...
 
Viel Text, wenig konkreter Inhalt.
1. Die Seatools sind für Seagate-HDDs ideal, wenn sie denn als Seagate HDDs erkannt werden. das ist hier eindeutig nicht der Fall, daher spucken die Seatolls auch keine brauchbare Fehlermeldung aus >> HDDs direkt an SATA anschließen und dann prüfen.
2. was sagt CDI (oder ein anderes Smart Tool) ? sind da jetzt schwebende Sktoren, unkorrigierbare Sektoren oder viederzugewiesene Sektoren (screenshot).

MMn ist der größte Fehler auf SMR HDDs einen Verschlüsselten Container als Blockdevice mit eigenemem Dateisystem zu verwenden. Sowohl das Blockddevice als auch das interne Dateisystem sind von den internen SMR Aktivitäten der HDDs losgelöst.
Wenn unbedingt Verschlüsselung auf SMR, dann Deviceverschüsselung / die komplette HDD, ohne Container. (Kann Veracrypt das nicht auch?)
 
Zuletzt bearbeitet:
Kann mich dem nur anschließen sehr reißerische Überschrift und solang du es nicht direkt am SATA Controller im PC getestet hast, würde ich auch als letztes von einem Hardware Defekt ausgehen.
 
Ich würde so ein.....Konstrukt.....auch nicht unbedinkt als Riesen-Dauerdatenlager für Files verwenden, auf die ich nicht verzichten will.
 
Du kennst die genaue Ursache nicht stellst Theorien auf und sprichst ganz unfundiert eine Warnung aus.
Du bist ein Spezi. :hust:
 
Ich stimme zu, dass ein Test direkt am Mainbordcontroller verlässlicher ist, als ein Test am USB-Adapter. Dennoch heißt USB-Adapter nicht automatisch, dass das Testresultat nicht zu gebrauchen ist. Das kommt auf den verwendet Chipsatz im USB-Gehäuse und auf die Diagnosesoftware vom Plattenhersteller an. Zu UBS1.x- und teilweise auch zu USB2.x-Zeiten hab ich Festplatten auch immer direkt am Controller und nie im Gehäuse getestet, aber heutzutage geht das auch oft im Gehäuse. Lediglich Modelname und Seriennummer werden in der Regel vom USB-Chip überschrieben.

Zum Thema Datenverlust: Natürlich ist Hherunterfahren in solchen Situationen kritisch und ehrlich gesagt hab ich in dieser Situation spät abends nicht drauf geachtet. Dennoch Ist NTFS eigentlich so robust (Journaling, MFT, Backup-MFT, etc.), dass deshalb eigentlich nichts passieren sollte und wenn doch, ein Checkdisk in der Regel reicht um solche Fehler wieder gerade zu biegen.

Ich glaube aber auch nicht, dass SMR-Platten für VeraCrypt ungeeignet sein sollen. Es gibt weder Performanceinbusen bedingt durch SMR, noch hat SMR irgendwelche nachteilige Eigenschaften, die einer Verschlüsselung auf Dateisystem- oder Dateiebene widersprechen. Der Datenverlust, wie er bei mir entstanden ist, ist nicht nur im Container entstanden, sondern auch auf Dateisystemebene direkt auf der Platte. Hardwareverschlüsselung unterstützt dieses Modell dieser Platte übrigens nicht.

Mit TrueCrypt und VeraCrypt hab ich Erfahrung, seit es die Software gibt und ansonsten hab ich auch vorher schon mit SafeGuard Easy und dergleichen gearbeitet. Bisher hatte ich einen solchen Fehler (zerschossenes Dateisystem direkt auf einer Platte oder im Container) in den vergangenen 20 Jahren nie, trotz Zwischenfälle wie Stromausfall in kritischen Situationen, zu früh abgeschaltete Steckdosenleisten obwohl der PC noch am runter fahren war, Software, die ungefragt neustarts macht, etc, etc...

Dass die Ursache der korrumpierten Dateisysteme im Zusammenhang mit dem ungünstigen Herunterfahren steht, bestreitet glaub ich niemand. Darum gehts aber nicht.

Es geht drum, dass die Platten, seit ich sie habe, unauffällig waren. SMART war immer in Ordnung und ist jetzt erst seit diesem Vorfall bzw. meiner Testerei leicht auffällig. Im Lesen und Schreiben gab es nie unauffällige Verhaltensweisen - außer dass die Platte fasenweise mal mehr, mal weniger scheinbar die Bänder neu geschrieben hat. Erst nach diesem Zwischenfall ging es los. Dass das Dateisystem und der Container korrupt waren ist eine Sache, aber spätestens durch reinitialisieren der GPT, neu formatieren und neu erstellen des Containers hätte die Platte wieder nutzbar sein müssen. Stattdessen zeigte sich folgendes Bild:

Nach diesem Zwischenfall konnte ich immerhin die Container vollständig sichern. Das heißt: Lesen der Bestandsdaten hat zum Glück noch wunderbar geklappt.

Erst nach der Sicherung habe ich die Platten nullen wollen, was nicht richtig geklappt hat und was ich wegen niedriger Schreibraten abgebrochen habe. Wann hat eine Platte niedrigen Schreibraten die ins Bodenlose einbrechen? In der Regel wenn sie Hardwaredefekte hat (z.B. defekte Sektoren). Dabei ist zu beachten, dass das nichts mit SMR zu tun hatte, denn die Platte ist so performant, dass man sie von vorne bis hinten in einem Rutsch mit 80-120MB/s vollschreiben kann. Erst wenn Daten in einzelnen Bändern neu geschrieben werden müssen, geht die Platte früher oder später in die Knie.

Interessant ist auch, dass das neu initialisieren, neu formatieren und neu beschreiben mit einem VC Container augenscheinlich geklappt hat. Was dann aber nicht geklappt hat, war die Platte tatsächlich mit Inhalt zu füllen - die Videodateien waren wie gesagt alle korrupt. Ein Vergleich der Dateien (mit Dateiinhalt Bit für Bit) mit FreeFileSync hat das auch bestätigt, zudem liesen sich die Videos nicht abspielen. OK, ich gebe zu: Ohne VeraCrypt dazwischen wäre es aussagekräftriger, aber ich besitze in diesem .... Konstrukt ... 14 Jahre Erfahrung und kann mir nicht vorstellen, warum auf einmal VC nicht zuverlässig arbeiten soll.

Im Vorgehen selbst kann ich daher eigentlich keinen Fehler finden, wenn doch wäre ich um sachliche Hinweise dankbar.



Sei es drum. Das ist vielleicht auch alles nicht so wichtig. Ich hab die Kritik verstanden und gestern und letzte Nach nochmal eine Reihe von Tests mit folgendem Setup gemacht:

i7 2600k
Asus P8Z68-V Pro Gen3
16GB Ram
1080TI
OCZ Vertex 3 128GB
2x besagte 8TB Seagate Archive

Win10 64bit hab ich gestern frisch auf die SSD installiert. Keine Zusatzprogramme, lediglich die Treiber die sich Windows automatisch über Windowsupdate geladen hat. Einzig SeaTools in der aktuellen Version und CDI wurde installiert. Die SSD und die beiden Seagate HDDs waren direkt am Mainboard angeschlossen.

Hier die Screenshots:

CrystalDiskInfo SMART:

CDI2_danach.png

CDI1_danach.png

SeaTools Platteninfos:

festplatteninfos1.png

festplatteninfos2.png

SeaTools SMART-Auswertung:

smart.png

SeaTools Kurzer Festplattenselbsttest FAILED:

kurzer_selbsttest.png

SeaTools Einfach Kurztest PASSED:

einfacher_selbstttest.png

SeaTools Lange Reparatur FAILED:

Lange_Rep.png


Ich würde sagen, dass die Platten eindeutig ein Problem haben. Oder zweifelt jetzt immer noch jemand dran?
 
Zuletzt bearbeitet:
Hab gerade noch versucht Erase Sanitize zu starten um zu schauen, ob das vielleicht noch etwas ändert. Hat auch nicht geklappt.

sanitize_overwrite_FAILED.png

Am meisten Vertrauen haben diese Platten verspielt, weil sie sich ganz normal nutzen lassen obwohl offensichtlich was nicht stimmt. Die interne Fehlerkorrektur und Fehlererkennung scheint wohl im normalen Betrieb nicht zu greifen...
 
Am meisten Vertrauen haben diese Platten verspielt, weil sie sich ganz normal nutzen lassen obwohl offensichtlich was nicht stimmt. Die interne Fehlerkorrektur und Fehlererkennung scheint wohl im normalen Betrieb nicht zu greifen...

Du wolltest scheinbar viel Speicher möglist günstig. Dir war wohl auch bewußt, dass du die Festplatten außerhalb der Specs betreibst. Dazu auch noch fahrlässig gehandhabt. Klar führt das nicht zwangsweise zu Problemen oder gar Ausfällen. Wenn doch, dann sollte man sich auch nicht auf Stammtischüberschrift drüber beschweren.

Versuch mal die Firmware neue einzuspielen, falls du bei den Dingern die Möglichkeit dazu findest. Vielleicht hat die was abbekommen, da ja scheinbar SMR total rummurkst.
 
Is ja gut, hab kapiert dass euch das Topic nicht schmeckt. Ich würde es heute, nachdem mein Ärger verflogen ist, wahrscheinlich auch etwas neutraler schreiben. Trotzdem merkwürdig, dass gleich zwei Platten mit dem gleichen Fehlerbilder aussteigen. Interessant wärs trotzdem, was Besitzer dieses Plattentyps mit ähnlichem Alter/Schreibraten berichten, wenn sie die Platte mal etwas testen...

Und nochmal: Fahrlässigkeit durch ungeschicktes runterfahren ist auch nicht Stein meines Anstoßes... Davon sollten maximal Daten auf der Platte kaputt gehen, aber nach Neuinitialisierung sollte die Platte wieder nutzbar sein. Ist sie aber nicht.

Ich glaub Plattentechnologie aus 2015 darf man auch dann funktionierende Fehlererkennung unterstellen, wenn sie nicht gerade fürs Datacenter gemacht ist oder mit goldener Farbe, aggressiven Raubfischen oder sonst wie beworben wird. Oder bin ich da zu naiv? Werde trotzdem nicht hergehen und für mein Datengrab auf teuren Speicher setzen, aber dafür meine Backupstrategie anpassen.

Inwiefern hab ich sie außerhalb der Spec betrieben? Wurden sie mal zu warm oder woran machst du das fest? (Hab die SMART-Werte jetzt nicht dem Datenblatt gegenübergestellt). Würde mich doch sehr interessieren, um zukünftig darauf Rücksicht nehmen zu können.

Firmwareupdates hab ich schon geprüft - es gibt leider keine.
 
Zuletzt bearbeitet:
Über 10000 Stunden in 3 Jahren sind imho zu viel für die Dinger. Das wäre ja quasi eine normale daily Datenplatte. Daher die Aussage mit Specs, da die nun mal einfach als Datengrab konzepiert sind und es durchaus sein kann, dass da die entsprechenden Qualitätsoffensiven gelaufen sind um unter dieser Prämise die Herstellkosten zu optimieren.

Dazu kommt noch der USB-Adapter, der mutmaßlich die SMART-Probleme verschleiert hat. Sehr unglückliche Konstellation. Wirst das wohl unter Lehrgeld verbuchen müssen.
 
Die ist als 24/7 spezifiziert.

Ich hab auch so eine, in Betrieb seit Oktober 2015, also auch jetzt 3 Jahre, als Backup/Archiv Disk.

Filesystem ist ZFS, bei den regelmäßigen scrubs würde auffallen, wenn die Daten korrupt würden. Bisher ohne Probleme.
 
Zuletzt bearbeitet:
12000 Betriebsstunden entspricht etwa 1,4 Jahren. Wenn ich das dem Nutzungsprofil des NUCs, an dem sie hängen, gegenüberstelle, dann kann ich daraus nur schlussfolgern, dass dieser Betriebsstundenzähler hochzählt, sobald die Platte Strom bekommt. Interessanter wäre vielleicht, wieviel Betriebsstunden die Spindel hat, aber da kann ich nur die Spindelanläufe ablesen. Ich hatte meine USB-Gehäuse bzw. den Chipsatz explizit danach ausgewählt, dass das Powermanagement der Platten vom OS gesteuert werden kann und die Platten nicht dauerhaft vom USB-Chip wach gehalten werden. Heißt: Die Platten bekommen nach 30 Minuten inaktivität einen Spindown. Ich gehe davon aus, dass die Betriebszeit der Spindeln etwa die 1/2 bis 2/3 der Betriebsstunden hat. Ist aber auch nicht so wichtig, weil die Platten eigentlich Dauerläufer sind...

besterino: Ich stecke in ZFS nicht so tief drin. Liest ein Scrub nur Blöcke aus und stellt diesen dann einem Hashwert gegenüber oder schreibt das Dateisystem regelmäßig Daten neu bzw. um (auch um kippende Bits durch auffrischen zu vermeiden - die Hersteller lassen ja kaum Infos zu aktuellen Plattentechnologien raus, wie lang die Bits stabil bleiben)?

Mein Problem war bzw ist ja, dass ich meine Daten noch auslesen konnte, aber das neu Schreiben nicht zuverlässig zu klappen scheint. Daher könnten Probleme ggf. unerkannt bleiben, wenn nur gelesene Daten einem Hash gegenüber gestellt werden. Das Dateisystem würde es evtl. erst dann merken, wenn neue Daten geschrieben werden und der Hash nicht mehr zum Block passt. Bestandsdaten könnten evtl. recht lange auf der Platte liegen bleiben, ohne dass eine Degeneration bezüglich Schreibvorgängen auffällt.


Edit:

Dieses Thema hier ist ähnlich, geht aber nicht so in die Tiefe: Seagate Archive 8TB - Defekt?

Läuft auch problemlos, besteht aber gewisse Selbsttests nicht und hat auch ein paar defekte Sektoren.
 
Zuletzt bearbeitet:
Nein, ein permanentes Re-Write ("auffrischen") gibt es auch bei ZFS nicht. Das wäre bei den SMR-Platten z.B. ein Perfomance-Desaster.

Bei jedem Lesevorgang eines Datenblocks (Metadaten und Nutzdaten) werden aber die Prüfsummen abgeglichen mit den Live-Daten. Wenn da eine Inkonsistenz auftaucht, wird ZFS sofort selbsttätig versuchen, den Inhalt aus Redundanzinformationen (also bei Mirror oder Raidz-vdevs) wieder konsistent zu bekommen. Da ZFS Filesystem und Volumemanager in einem Guss ist, weiß es wo welche Datenblöcke z.B. zu einer Dateigehören und wo redundante (also gespiegelte oder Paritätsdaten) genau dafür auf einem anderem Device oder ggf. auch als Blockkopie (kann man auch noch einstellen) am gleichen Device liegen.
D.h. ZFS wird bei einem Lesefehler selbsttätig versuchen, genau diesen Fehler (z.B. eben aus Bitrot) zu korrigieren, sprich die korrekten Daten abzulegen. D.h. der User bekommt darüber dann Info (so er sie abruft), aber wird niemals die falschen Daten bekommen. Ist eine Rekonstruktion nicht möglich, gibts nen Lesefehler und man kann aus ZFS genau abfragen, welche Files oder ggf. Volumes (z.B. bei ISCSI) betroffen sind.

Genau das kann man per "scrub" auch für ganze ZFS-Pools manuell anstoßen, mit einstellbarer Priorität soweit ich weiß.

Ein dummer Hw-Raid-Controller für z.B. Raid 5/6 oder diverse Chipsatz/Windows-Raids haben da keine Chance, da die nicht wissen, welche Blöcke zu welchem File gehören. Drum geht eine Reparatur bei ZFS sehr schnell. Ein Windows-Softraid könnte sowas eigentlich wissen, aber sowas glaub ich ist dort nicht für normale NTFS-Volumes implementiert. Erst bei ReFS und StorageSpaces.

Zitat Ixsystems (Firma hinter FreeNas und Anbieter von Storagesystemen darauf): "OpenZFS checksums every new data block upon completion of each write operation and will verify each checksum when a read operation is performed."
https://www.ixsystems.com/blog/data-integrity-openzfs/.
=> heisst, ja, ZFS sichert beim Schreiben die Datenintegrität. Damit wäre Dein Konsistenzproblem sofort aufgeflogen.

Ich weiß schon, warum ich seit 2013 nur noch ZFS und Plattformen mit ECC-Speicher und nix mehr anderes für Storage/Archive nutze. :bigok: Die Lernkurve anfangs von Windows nach BSD war zeitweise steil, aber hat sich rentiert. Ich hab seither kein Byte mehr durch das Storagesystem verloren. Vorher mit Storage auf irgendwelchen Windows-Desktops, Hw-Raid5/6-Controllern oder Softraids schon.
Und: mein ZFS-Filer wird regelmässig auf nen 2. ZFS-Filer gesichert.

Drum daher auch weiter oben meine diplomatische Bezeichnung "....Konstrukt.....", weil mit diesen zamgeschusterten "Storage"-Systemen bin ich schlicht durch aufgrund der Erfahrung.
Dementsprechend setz ich dafür auch nur noch (preiswerte, nix superteure, aber auch nicht billigstmögliche) Enterprise-Hardware für ein.
 
Zuletzt bearbeitet:
So ist es. ZFS erkennt Probleme auch beim schreiben, da es über die Prüfsummen kontrolliert, ob auch die richtige Information auf der Disk gelandet ist.

Der Scrub checkt dagegen in der Tat nur, ob die Daten noch korrekt sind.

Wenn eine Platte dabei auffällt, setzt das OS Sie inaktiv, damit eben nix Schlimmeres passiert.
 
Klingt ja nicht schlecht. Kann ZFS unter Einbehaltung seiner ganzen Features auch AES-Verschlüsslung mit AES-NI-Support?
 
Ja. Unter Solaris glaub seit ca. 2012 - andere OS keine Ahnung.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh