habe schon 4x problem bekommen das NTFS formatierung verloren hat und RAW geworden ist. Wenn das passiert was bedeut das?
Das bedeutet, dass die Metadaten des Filesystem bzw. die Partitionierungsinformationen korrupt geworden sind, dann kann Windows eben das Filesystem nicht mehr erkennen, wobei NTFS eigentlich recht robust ist. Das kann von einem HW Fehler wie einem schwebenden Sektor kommen, das kann auch einfach ein SW- Problem sein oder vom harten Ausschalten kommen, wenn gerade noch wichtige Daten im Schreibcache, der Platte oder von Windows, stehen.
Im grunde gehen meine 2x WD 1TB Black Faex 1002. Und Programm CrystalInfo zeigt als Zustand GUT an.
Das GUT alleine saht nicht alles, es gibt nur zwei Arten solcher S.M.A.R.T. Tools, die hysterischen die überall Probleme sehen und die Anwender oft verleiten heile Platten unsinnigerweise zu entsorgen und die anderen, die manche Probleme auch mal übersehen, wozu CDI gehört.
Poste die Screenshots von CDI, so dass alle Attribute und Rohwerte sichtbar sind, dann kann man sagen ob es Probleme gibt, denn den Blick von jemandem der sich damit wirklich auskennt, ersetzt eben immer noch keines der Programme.
Auf der Externen USB 3.0 Seagate STBV4000200 Festplatte habe ich alle daten drauf gemacht die auf meinen 2x Internen WD 1TB FAEX drauf waren.
Aber hoffentlich stehen wenigstens die wichtigen davon auch noch auf einer anderen Platte, wie z.B. eines der internen WD, denn sonst ist es auch kein Backup oder eine Datensicherung, sondern eine Auslagerung des Daten und damit eine pure Verlagerung des Verlustrisikos.
Und die Seagate STBV4000200 läuft immer wenn ich PC anmache. Ist das Gut? Ich mache das über Halben Jahr so.
Ob es gut oder schlecht ist, hängt davon ab wofür die Platte genutzt wird, bedenke das ein Verschlüsselungsvirus oder ein Bedienungsfehler, wenn man etwa ein Image auf einen USB Stick ziehen will aber stattdessen die USB Platte auswählt, dann den Verlust der Daten zur Folge haben können. Wenn es eine Backupplatte sein soll, dass gehört sie nur zum Erstellen, Aktualisieren und Prüfen des Backups an den Rechner, sonst nicht. Da greift man auch nicht dauernd auf die Dateien dort zu, die liest man von der internen oder einer anderen externen für die die Backupplatte die Datensicherung darstellt.
Mache einfach folgenden Test: Denke Dir der Reihe nach jedes Gehäuse in dem Platten steckt auf Deinen Daten sind, also den PC, das NAS, jede USB Platte einzeln, einfach mal weg. Stell Dir vor das ist runtergefallen und kaputt, geklaut oder vom Blitz erschlagen worden, irgendwas, aber jedenfalls kommst Du da nicht mehr an die Daten dran. Fehlen jetzt wichtig Daten, wie Familienfotos, Urlaubsvideos, etc.? Wenn ja, dann überdenke mal die Datensicherung, denn dann ist die jetzt nicht optimal.
Ich habe nur sehr gute Festplatten, keiner wird mir sagen das ich schlechte habe.
Den Satz hättest Du Dir sparen können, denn wie gut sie waren, weiß man immer erst hinterher, solange sie laufen scheinen sie immer gut zu sein, aber erst wenn sie wirklich lange gelaufen sind, dann waren sie wirklich gut.
Was hält länger SSD oder Mechanische Festplatten.
Das kann man pauschal nicht sagen, beides kann jederzeit auch mal spontan ausfallen, wie jede anderen HW auch jederzeit spontan ausfallen kann. Beides unterliegt aber auch Verschleiß und kann eben nur begrenzte Datenvolumen übertragen, bei den SSDs zählen da vor allem die geschriebenen Datenvolumen, bei HDDs die gelesen wie auch die geschrieben, aber den normalen Heimanwender reichen die gewöhnlich aus, da sterben die HDDs eher an Altersschwäche oder Misshandlung, wenn man also Desktopplatten einfach 24/7 laufen lässt oder gar im RAID und womöglich noch mit einem Scrubbing pro Woche. Gute SSDs dürften vor allem an Elektronikfehlern eingehen, die weniger guten SSDs mit NANDs minderer Qualität oder suboptimalen Controller durchaus auch an kaputten NANDs, da gibt es ja immer wieder mal Beispiele, aber immer von SSDs von Herstellern ohne eigene NAND Fertigung.
Sollte man wenn Datensicherheit sehr wichtig ist auf SSD oder HDD die Daten sichern?
Das ist im Prinzip egal, da ein Backup auf dem Prinzip beruht, dass wohl kaum beiden Datenträger zeitgleich ausfallen werden, dafür müssen sie natürlich so gut wie getrennt sein, also in unterschiedlichen Gehäusen mit unterschiedlicher Stromversorgung um am Besten eben auch eigenem Betriebssystem (wie im NAS, in der Cloud) oder dürften eben immer nur kurz angeschlossen sein (UBS Platte). Nur sind SSDs als Backupmedium eben teuer und deren Vorteil der hohen Performance spielt für Backups kaum eine Rolle.
Oder auf welchen Medium sollte man die Daten sichern für leben lang nicht verloren geht?
Langzeitarchivierung ist ein anders Thema, für den Heimanwender ist die Sicherung auf mindestens zwei Medien, wie zwei USB Platten die regelmäßig (so alle 3 Monate) geprüft, ggf. auch mal refresht oder umkopiert und nach 5 bis 10 Jahren aber spätestens nach dem Ausfall einer der beiden dann ersetzt werden, wohl der gangbarste Weg. Bei entsprechend hohen Datenvolumen wären auch Tapes eine Alternative, die Laufwerke sind teuer, die Medien aber dafür sehr günstig.
so ausgelegt sind, daß sie am haltbarsten / zuverlässigsten sind / bleiben, wenn sie betrieben werden - mit gewissen mehr oder weniger großen Toleranzen natürlich - wie es diesen Erwartungen entspricht
Die sind so ausgelegt, dass sie dann die üblichen 5 Jahren plus x halten, wenn man sie so nutzt, jedenfalls ungefähr so. Es wird ja keiner nach 6,5 Stunden den PC ausschalten und dem Chef sage, ich muss jetzt los, die HDD hat ihre 6,5 Stunden rum, dafür komme ich auch am Samstag und Sonntag, denn sie darf ja jeden Tag 6,5 Stunden laufen. 6,5 Stunden täglich, also * 7 / 5 Arbeitstage pro Woche sind 9,1, das reicht also für den 8 Stunden Arbeitstag und die Stunde Mittagspause
Auf Basis wird das gerechnet und ob man zuhause nun den PC abends je ein paar Stunden und am Wochende dafür länger an hat, ist auch egal. Aber wenn er eben wirklich vom Aufstehen bis zum Schlafengehen, also 16 Stunden oder mehr am Tag und jeden Tag läuft, dann liegt man da deutlich drüber und die 5 Jahren plus werden schwerer erreichbar.
Das sieht man dann eben auch an den Seagate Barracudas, im Dauerbetrieb nach so grob 20.000 Stunden ist das meist der Lack ab und die Probleme fangen an, bei 2400 Stunden pro Jahr wären das über 8 Jahre, da meckert dann wohl keiner wenn sie anfängt Probleme zu machen, wobei das eben auch kein lineares Verhalten ist, Überbelastung verschleißt die Platten überproportional und neben den Stunden zählt auch das Datenvolumen.
Workload-Belastung
Der Einfluss der Workload auf die Zuverlässigkeit ist etwas schwerer verständlich.
Per Definition ist die primäre Funktion von HDDs das Speichern und Abrufen von Daten, wobei Hunderte von Gbits an Daten auf jedem Quadratzoll an Speicheroberfläche aufbewahrt werden. Sie können Daten bei anhaltenden Datenraten in der Größenordnung von 200 MB/s oder mehr aufzeichnen und abrufen.
Um diese hohe Aufzeichnungsdichte und einen hohen Datendurchsatz zu erreichen, werden magnetische Lese- und Schreibkomponenten physisch mehrere Nanometer (1 nm = 0,001 µm) von schnell rotierenden Medien gehalten. Das ist eine komplexe technische Designaufgabe, die erfordert, dass Festplatten für eine bestimmte Arbeitsumgebung entwickelt, getestet und klassifiziert werden, die unter anderem durch den Bereich der Nutzungsdauer und der Benutzer-Workload charakterisiert wird.
Workload ist ein technischer Begriff, mit dem die Größe der Arbeitsbelastung definiert wird, der die Festplatte beim Normalbetrieb ausgesetzt ist. Beispielsweise könnte Festplatte A täglich mehrere GB an Daten lesen und schreiben, während Festplatte B täglich mehrere hundert GB liest und schreibt. In diesem Fall würden wir sagen, das Festplatte B unter viel höherer Workload-Belastung arbeitet.
Um eine Vorstellung zu bekommen, wie viel Workload zu viel ist, betrachten wir drei typische Szenarien (Festplatten A, B und C):
Betrachten wir eine Seagate Constellation ES.3 HDD mit 4 TB. Diese Festplatte ist zu einer anhaltenden Datenübertragungsrate von 175 MB/s fähig. Stellen wir uns drei dieser Festplatten vor, die alle unter ähnlichen Bedingungen arbeiten (und mit demselben Server). Die erste Festplatte (Festplatte A) überträgt stetig 5 MB/s (oder durchschnittlich 158 TB/Jahr), während die zweite (Festplatte B) 10 MB/s (durchschnittlich 315 TB/Jahr) überträgt. Die dritte Festplatte schließlich (Festplatte C) überträgt in diesem Beispiel 100 MB/s (durchschnittlich 3.150 TB/Jahr).
Aus den obigen Szenarien ist einfach zu erkennen, dass Festplatte B einer 2× höheren Workload-Belastung ausgesetzt ist als Festplatte A und dass Festplatte C eine 20× höhere Workload-Belastung als Festplatte A hat.
Unter Annahme einer linearen Abhängigkeit würden die nächsten vernünftigen Schlussfolgerungen annehmen, dass Festplatte B eine 2× höhere Ausfallrate als Festplatte A hat und Festplatte C eine 20× höhere Ausfallrate als Festplatte A. Seagate-Daten legen jedoch nahe, dass die Annahme einer linearen Skalierung der Ausfallrate mit Workload falsch ist.
Jahre an Forschung und Experimenten ermöglichten Technikern von Seagate, die komplexen Effekte von Workload auf Festplattenzuverlässigkeit zu verstehen und die folgenden Schlüsse zu ziehen:
•Jeder HDD-Typ hat eine sichere Workload-Schwelle, die jetzt als das Limit für die Workload-Rate (WRL) definiert wird.
•Solange die Workload das WRL nicht überschreitet, hat die Workload-Belastung sehr wenig bis gar keinen Einfluss auf die Zuverlässigkeit und die Ausfallrate dieses Produkts.
•Wird das WRL überschritten, beginnt die Zuverlässigkeit dieses Produkts nachzulassen.
Man sollte diese Workload Ratings also beachten, sonst wird man mit erhöten Ausfallraten bestraft und das geht nicht linear.
Etwas ähnliches zum Workload gibt es auch von WD:
Nur auf Angaben des Workload Ratings der WD warten man zumindest bei den einfach Platten leider vergebens, die Re hat 550TB und die Se 180TB pro Jahr, aber für die anderen Baureihen findet man die Angaben bei WD leider nicht. Daher unterstelle ich auch den WD Heimanwender HDD die für Desktopplatten üblichen 55TB pro 8760 Stunden, was für 2400 Stunden dann 15TB im Jahr sind.
einen solche Platte jedes Jahr 2.400 Stunden am Stück laufen zu lassen oder jedes zweite Jahr 4.800 Stunden am Stück, würde oder könnte sich dann wohl nachteilig auf die Platte auswirken.
Das denke ich wäre eher nachteilig, aber kaputt geht sie davon sicher auch nicht, die hält am Ende dann weniger lange.
Gut, dann kann man also getrost Platten wie MyBook, Elements, die ja nach der Gestaltung ihrer Gehäuse offenbar für den stehenden Betrieb gedacht sind, auch auf eine ihrer Seitenflächen
Benutze sie stehend, oder ist das Risko das sie umfallen so hoch? Alleine wegen des Lüftungskonzepts, die Dinger haben doch oben und unten Schlitze, würde ich sie so betreiben, wie der Hersteller es vorsieht.
Ja, wirklich sehr interessant das Video guruhacker, noch nie gesehen.
Da kann man Vibrationssensoren bei der Arbeit sehen und bekommt eine gute Vorstellung davon wie empfindlich HDDs sind.
Auch sehr interessant, gut, das zu wissen, aus diesem Umstand ergibt sich also unbedingt, würde ich sagen, daß, falls man bei einer Platte Anzeichen, etwa (verdächtige), sonst nicht vorhanden gewesene Geräusche wahrnimmt, sie auf keinen Fall abzuschalten, sondern erst alle Daten zu sichern.
Von wichtigen, unwiederbringlichen Daten sollte man immer einer Sicherung haben und nicht erst bei ersten Anzeichen von Problemen an eine Rettung denken. Denn wenn es erst Probleme gibt, dann ist das eine Rettung und keine Sicherung mehr. Die Feuer- oder Hausratversicherung kannst Du auch nicht erst abschließen, wenn der Rote Hahn schon auf dem Dach steht, dann kannst Du nur noch hoffen da möglichst viel beim rausrennen mitnehmen zu können.