Stimmt das: ein-, abschalten belastet Festplatten? Beeinträchtigte Haltbarkeit, Zuver

Belastbare Daten zu finden ist schwer, aber es dürfte im wesentlichen diese 3 Klassen von 55TB, 180TB und 550TB pro Jahr geben, wie sie auch bei Toshiba hier extra rot hervorgehoben sind:

attachment.php


Leider auch mit den Hinweis Confidential unten rechts, der ebenfalls rot hervorgehoben ist. Die selben Werte findet man bei Seagate und auch bei einigen WD HDDs, so gibt WD 180TB für die Se und 550TB für die Re an.

Einzig bei Seagate findet man auch den Hinweis auf die 55TB bei Desktopplatten und der Hinweis wie hier das mit dem Jahr interpretieren ist:
Also 55TB Workload (Datenvolumen Lesend und Schreibend) pro Jahr, wobei ein Jahr sich auf 8760 Stunden bezieht, die HDD ist aber nur für 2400 Stunden im Jahr ausgelegt, was aber so direkt wieder nur im Datenblatt steht (Power-On Hours: 2400) und damit ergibt sich dann nur ein jährlicher Workload von maximal 15TB, wenn man als jährlich einen Zeitraum von 365 Tagen versteht.

Obwohl auch WD anerkennt, dass der Workload sehr wichtig ist, sogar eine Mean Petabytes to
Failure (MPbF) gegenüber der Mean Time To Failure (MTTF) als bessere Maßeinheit für Aussagen zur Zuverlässigkeit von HDDs vorschlägt und schon im Juni 2013 versprochen hat auch das Workload Rating zu veröffentlichen, ist das bisher für Consumer HDDs leider ausgeblieben:
Dabei wäre es ein wichtiger Wert um eine Green oder Red besser einschätzen zu können. Ich unterstelle aber mal, dass die WD HDDs sich von denen der anderen Hersteller nicht unterscheiden werden, das scheinen ja "genormte" Kategorien zu sein an die die Hersteller sich da halten.

Das Thema Workload Rating ist noch relativ neu und das gab es früher gar nicht, da war es auch nicht nötig, da die Datendichte viel geringer war, damit war die Fläche auf der ein Bit gespeichert wurde auch viel größer und die Köpfe ebenso, die magnetischen Kräfte waren entsprechend höher und die Köpfe hatten mehr Abstand zum Plattern. Aber für die heutigen Datendichten braucht man Dynamic Fly Height (DFH) Technologie um die Abstände der Köpfe während der Zugriffe auf bis zu 1nm zu senken, was über Hitze für eine Ausdehnung sorgt die die Schreib- Leseelemente von z.B. 10nm bis auf 1nm an die Plattern bringt. So sieht das aus:

attachment.php


Bzw. so, wobei hier das Verhältnis von 1ns zu 10ns weniger krass dargestellt wird, dafür sieht man aber die Lubifizierung der Oberflächen, die gerade eine Moleküllage dick und was für eine Kraterlandschaft so eine Diskoberfläche im Verhältnis zu solchen Abständen ist, weshalb man auch die Oberflächen lubifiziert, dann es ist praktisch unvermeidbar dass es beim Lesen und Schreiben immer zu einem Kontakt der Köpfe mit der Oberfläche kommt und daher man muss also die Schäden dabei reduzieren statt zu versuchen diese komplett zu vermeiden.

attachment.php


Deshalb spielt eben der Workload heute eine große Rolle, die eben eine Platte sich nicht nur dreht und die Köpfe drüber fliegen, beim Lesen und Schreiben schmirgeln sie dann von der Oberfläche eben immer ein wenig ab, die Köpfe werden dadurch aber sicher auch nicht besser. Irgendwann ist halt ein Punkt erreicht, da funktioniert die Platte nicht mehr.

Ratet mal warum die HDDs für wirklich Mission Critical Anwendungen, also die 2.5" mit 10.000rpm und vor allem mit 15.000rpm in der Kapazität praktisch stagnieren und weit zurückliegen. Da kann man das nicht machen, denn die sind für Dauerlast ausgelegt, also darauf wirklich dauernd ohne Pause zu lesen und zu schreiben.

Dynamic Fly Height (DFH).png
Dynamic Fly Height (DFH) 2.jpg
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mit dem Dokument sagt Seagate damit eigentlich ganz klar, daß deren grosse Desktop-HDDs für keinerlei Szenario geeignet ist - auch nicht als Desktop HDD!
Vor allem die Lücke zwischen 15 TB bei Desktop HDDs und 180 TB bei den Nearline bzw. Enterprise Cloud Class ist schon denkwürdig.
Wenn es bei den anderen Herstellern genauso gesehen wird, dann weiss man wohin der Zug fährt - "Zielbahnhof der grosse Datencrash"!
 
Die hersteller bauen die Festplatten das lebenslang halten und nicht für "Zielbahnhof der grosse Datencrash"!

Es noch M DisK DVD und Bluray, es soll auch von Sony Archival Disk kommen die sind auf jedenfall lebenslange datensicherung.
Wobei Festplatten auch für Langzeitarchivierung sehr gut sind.
 
festplatten sind in keinster weise für eine langzeitachivierung gut, das ist ein komplett anderes thema und hat mit dem thread hier absolut nichts zutun
 
Dann nimm halt ein paar Ziegelsteine, eine recht und eine link der Platte, dann kippt sich nicht um
Ja, irgendwie Seitenhalt geben, ist natürlich auch eine gute Idee.

Du kannst sie auch hinlegen und wenn die nun eben auf dem Kopf liegend arbeiten muss, bringt sie das wohl auch nicht, es ist ja auch nur für ein paar Stunden.
OK, in Ordnung.

Leider auch mit den Hinweis Confidential unten rechts, der ebenfalls rot hervorgehoben ist.
Weshalb sind derartige Informationen als vertraulich bezeichnet?
 
Mit dem Dokument sagt Seagate damit eigentlich ganz klar, daß deren grosse Desktop-HDDs für keinerlei Szenario geeignet ist - auch nicht als Desktop HDD!
Vor allem die Lücke zwischen 15 TB bei Desktop HDDs und 180 TB bei den Nearline bzw. Enterprise Cloud Class ist schon denkwürdig.
Hä? Hab ich oder hast du dich verlesen?
Da steht 55Tb pro Jahr, nicht 15Tb und das würde ich mal als Heimanwender als eher Üppig betrachten, immerhin wären das 150Gb pro Tag. Sogar Videobearbeitung/Rendering sollte damit möglich sein sofern man das nicht tagein- tagaus macht.

Und "großer Datencrash"?
Jetzt überetreib nicht gleich. Die Realität sieht eher so aus dass sich das Ende eienr Platte meistens ankündigt durch Kopiercrashes oder den Smartwerten. Also _sogar_ wenn man keine Backups hat, was man natürlich haben sollte, kann man meistens den "Crash" abwenden.

Lebenslang halten HDDs natürlich auch nicht, wobei zumindest in meinem engsten Umkreis wurde so gut wie keine HDD aus Problemgründen abgelöst, sondern bisher immer wegen der Größe.
Als Langzeitarchivierung ist irgendwie nichts was für Consumer gedacht ist, wirklich geeignet. Auch CD/DVDs sollen kaputt gehen, SSDs sind viel zu teuer und auch beschränkt. Der Schlüssel zur Langzeitarchivierung ist halt alle 5-10 Jahre das Medium zu erneuern.
Das geht dann auch mit Festplatten, wobei es bei denen eventuell reichen müsste, nur neu zu schreiben (oder zersetzen die sich auch selbst mit der Zeit?)


Ja, irgendwie Seitenhalt geben, ist natürlich auch eine gute Idee.
Oder ein Gehäuse nehmen das horizontal ausgelegt ist!

Weshalb sind derartige Informationen als vertraulich bezeichnet?
Eventuell damit niemand aus diesen Daten einen Rechtsanspruch abzuleiten versucht...
 
Zuletzt bearbeitet:
Oder ein Gehäuse nehmen das horizontal ausgelegt ist!
Ja, das ginge auch, das würde wohl entweder die Auswahl beim Kauf einer externen Platte ganz schön einschränken oder fordern selber zu basteln, könnte ich mir denken.

Eventuell damit niemand aus diesen Daten einen Rechtsanspruch abzuleiten versucht...
Mit welcher Absicht könnte das jemand tun wollen?
 
Mit welcher Absicht könnte das jemand tun wollen?
Naja, die Firma zu verklagen falls eine Platte eben vor diesen angegebenem Wert aussteigt. Auch Schadensersatz wäre denkbar, wenn es dadurch zu Datenverlust gekommen ist etc. Ist jetzt aber nur Spekulation...
Holt sollte dir sagen können wieso er dort oben "leider Confidencial" geschrieben hat.
 
Naja, die Firma zu verklagen falls eine Platte eben vor diesen angegebenem Wert aussteigt. Auch Schadensersatz wäre denkbar, wenn es dadurch zu Datenverlust gekommen ist etc.
Hmmm, ja, aber das gälte ja vermutlich dann grundsätzlich, habe aber überhaupt keine Ahnung von Recht oder irgend etwas, für alle Angaben / Daten / Informationen, die etwa auf Datenblättern über die angepriesenen Produkten im üblichen Alltagsgeschäftsleben vorhanden wären und wohl darüber hinaus.
 
Hä? Hab ich oder hast du dich verlesen?
Da steht 55Tb pro Jahr, nicht 15Tb...

Average rate of <55TB/year. The AFR specification for the drive assumes the
I/O workload does not exceed the average annualized workload rate limit of 55TB/year.
Workloads exceeding the annualized rate may degrade the drive AFR and impact
product reliability. The average annualized workload rate limit is in units of TB per year, or
TB per 8760 power-on hours. Workload rate limit = TB transferred × (8760/recorded
power-on hours

55 TB x (8790h/Jahr / 2400h ) = ca. 15 TB / Jahr
 
Mit dem Dokument sagt Seagate damit eigentlich ganz klar, daß deren grosse Desktop-HDDs für keinerlei Szenario geeignet ist - auch nicht als Desktop HDD!
Das sehe ich nicht so, denn selbst 15TB im Jahr sind für viele Anwendungen üppig und wen man mehr verbraucht, dann wird sie eben vermutlich weniger lange halten. Will man eine HDD die lange hält und viele TB pro Jahr übertragen kann, wird man mehr bezahlen müssen, das sind die auch die Werte der HDDs die am billigsten sind, die sind eben massiv auf den Preis optimiert und liefern gerade genug für den vorgesehenen Einsatzzweck. Wenn man sich an den hält, reicht es auch, denn Probleme mit der Haltbarkeit gibt es meist nur bei Leuten die den Platten viel mehr abfordern als das wofür die gebaut wurden.

Vor allem die Lücke zwischen 15 TB bei Desktop HDDs und 180 TB bei den Nearline bzw. Enterprise Cloud Class ist schon denkwürdig.
Moment, Enterprise Nearline HDDs haben 550TB pro Jahr, so wie die Toshiba MG Serie oder WDs Re (nicht Red!), Enterprise Cloud sind bei Toshiba die MC und bei WD die Se. Seagate hat auch entsprechende HDDs im Angebot und HGST sicher auch, aber welche das nun jeweilis sind, muss mal jeder selbst nachsehen.
Wenn es bei den anderen Herstellern genauso gesehen wird, dann weiss man wohin der Zug fährt - "Zielbahnhof der grosse Datencrash"!
Das werden andere Anbietet ähnlich halren, aber das hat mit Datencrash nichts zu tun bzw. trifft nur die Idioten (anderes kann ich sie leider nicht nennen) die die Einsatzempfehlungen der Hersteller für die jeweiligen HDDs komplett irgnorieren und keine Backups machen. Das Ignorieren geht zwar teilsweise, man kann höherwertige Platten für weniger anspruchsvolle Aufgaben verwenden, so kann man eine Enterprise Nearline HDD auch im Desktop verbauen, aber eben nicht umgekehrt. Zwar kann man auch eine Consumer HDD anstelle einer Enterprise Nearline verbauen und die macht das auch eine Weile mit, wenn die Vibrationen nicht zu heftig sind, aber eben nicht sehr lange.

Die hersteller bauen die Festplatten das lebenslang halten
Genau solche Beiträge sorgen für das Image welches Du dann im Forum hast, denn die Hersteller bauen eben die HDDs nicht so, dass sie ein lebenlang halten. Das wäre extrem aufwenig, also auch teuer und würe nur sehr viel geringere Kapazitäten ermöglichen als die Kunden heute erwarten.

Weshalb sind derartige Informationen als vertraulich bezeichnet?
Keine Ahnung, WD rückt ja mit dem Workload Rating der meisten, HDDs wie z.B. aller Consumer HDD gar nicht raus. So wie vermutlich auch Digi-Quick überschätzen die meisten Leute extrem wie viele Daten sie wirklich übertragen, bei den SSDs ist es ja nicht anders, da glauben auch nicht wenige, dass die meisten Heimanwender bei 2 bis 4 TBW im Jahr liegen und nur wenige überhaupt über 10TB pro Jahr kommen. Das ist als würden alle Autofahrer denken, sie würden mindestens 100.000km pro Jahr fahren, nur weil sie nicht auf den Kilometerzähler schauen, den es aber auch leider bei vielen HDDs gar nicht gibt, Seagate ist auch da eine löbliche Ausnahme, bei denen haben viele HDDs S.M.A.R.T. Werte die anzeigen, wie viele Daten von Host gelesen und geschrieben wurden. Das sind die Attributte F1 und F2, da rechnet man den Rohwert in Dezimal um (Windows Taschenrechner in Ansicht Programmierer macht das ganz flott), dann mal 512Byte und schon hat man das Ergebnis.

Hab ich oder hast du dich verlesen?
Da steht 55Tb pro Jahr, nicht 15Tb
Du hast nicht aufgepasst, denn das muss man bei allen Angaben immer sehr, die sollen ja möglichst immer besser aussehen als sie es sind: "The average annualized workload rate limit is in units of TB per year, or
TB per 8760 power-on hours. Workload rate limit = TB transferred × (8760/recorded power-on hours" Das Jahr wird als 8760 Stunden definiert, aber eben nicht Stunden auf der Uhr, sondern Betriebsstunden und da sind nur 2400 pro Jahr mit 8760 echten Stunden vorgesehen.

Schau Dir auch diese Beitrag und meine Antwort darauf an und Du sieht wie schnell man da reinfallen kann, was wohl weder unbeabsichtigt noch auf HDDs beschränkt ist.
das würde ich mal als Heimanwender als eher Üppig betrachten, immerhin wären das 150Gb pro Tag.
ogar Videobearbeitung/Rendering sollte damit möglich sein sofern man das nicht tagein- tagaus macht.
Selbst 15 TB pro Jahr sind über 40GB pro Tag, für eine Desktoprechner immer noch mehr als ausreichen, erst recht fürs Datengrab.

Die Realität sieht eher so aus dass sich das Ende eienr Platte meistens ankündigt durch Kopiercrashes oder den Smartwerten.
Regelmäßig einen Blick auf die S.M.A.R.T. Werte zu werfen ist schon ratsam, gerade wenn man bei den Backups schlampig ist, denn wenn man die Probleme im Alltag schon merkt, ist der Datenverlust schon mehr oder weniger massiv eingetreten. Außerdem kündigen sich nicht alle Ausfälle an und nicht nur HW-Ausfälle bedrohen die Daten.
Lebenslang halten HDDs natürlich auch nicht, wobei zumindest in meinem engsten Umkreis wurde so gut wie keine HDD aus Problemgründen abgelöst, sondern bisher immer wegen der Größe.
Eben, daher ist das auch gar nicht nötig und würde die HDDs nur unnötig verteuern und auch in der Kapazität einschränken.
Als Langzeitarchivierung ist irgendwie nichts was für Consumer gedacht ist, wirklich geeignet.
Eben, dass ist sowieso ein andere und hoch komplexes Thema, da sollte der Heimanwender am Besten die Medien regelmäßig prüfen und in Zeitabständen von 5 bis maximal 10 Jahren auswechseln, schon wegen der Interfaces. In welchem modernen Rechner kann man heute noch Tapes auslesen oder auch nur eine alten IDE Platte mit CHS Adressierung? Von Platten die noch an MFM und RLL Controllern hängen gar nicht zu reden. Selbst wer noch so ein altes Schätzchen im Betrieb hat, dürfe bei einem Ausfall des Rechners ein ernstes Problem haben.
Das geht dann auch mit Festplatten, wobei es bei denen eventuell reichen müsste, nur neu zu schreiben (oder zersetzen die sich auch selbst mit der Zeit?)
Auch das würde ich nicht ausschließen, dann da sind verschiedene chemische Prozesse in gang, was mit dem Ausdünsten von Weichmachern aus Gummis und Kunststoffen über die Reaktionen der Schichten auf den Plattern.

Eventuell damit niemand aus diesen Daten einen Rechtsanspruch abzuleiten versucht...
Auch möglich, aber worauf soll der beruhen? Das eine HDD für eine bestimmten Zweck länger als die Garantiedauer hält, darauf hat man keinen Anspruch und wenn sie es nicht tut, bekommt man die Daten sowieso nicht ersetzt.

Meine persönliche Erfahrung sieht da über die Jahre eher anders aus.
Wenn sie nicht runterfallen oder durch Überspannug die Schutzdioden auslösen, zeigen HDD Ausfälle sehr häufig schon vorher in den S.M.A.R.T. Werten an, man muss sie aber auch regelmäßig auslesen.
Falsch, siehe meine täglich laufende Amiga HDD von 1990. :)
Die waren damals auch noch sauteuer und technisch mit den heutigen HDDs überhaupt nicht zu vergleichen, die Anforderungen an die HDDs sind in jeder Hinsicht heute um Längen höher und in vieler Hinsicht sind HDDs heute echt am Limit, z.B. was die Abstände der Köpfe zu den Plattern angeht, da sind wir bei bis zu nur einem 1nm angekommen, also im Teilkontaktbereich!

Deswegen ist ja die Workload heute so wichtig und war früher egal, denn die Köpfe und Plattern leiden heute unter dem Abrieb, die Ende der Köpfe werden zum Lesen und Schreiben erhitzt um den Abstände von so 10nm auf bis zu nur Senken indem der Kopf sich wegen der Hitze an seinem Ende ausdeht, wie es ja auch auf den Bildern in meinem letzten Post zu sehen ist. Daher ist es eben bei heutigen HDDs nicht mehr egal ob sich die Platte einfach nur dreht oder dabei auch Daten übertragen werden, wie es früher noch der Fall war.
Sehe ich genauso. Für mich ist ZFS in Verbindung mit vielen 'server grade' Festplatten, server grade Komponenten (v.a. ECC-RAM u. USV) der aktuell gültige Weg, die Daten frei von 'bit rot' in die Zukunft zu bringen. Ich traue ZFS mit beschriebenen Hardwarevoraussetzungen zu, die Datenintegrität zu gewährleisten. Auch um des Preises willen, dass in langen automatisierten sync-Vorgängen Backups auf ein ZFS-System andernorts mit leider gleich vielen Festplatten erfolgen müssen.

Viele, viele Festplatten. Aber dafür sicher. Und andere Leute fahren teure Autos.
Es war eben noch nie billig große Datenmenge sicher aufzubewahren und diese auch noch über lange Zeit zu wollen, erhöht die Kosten zusätzlich. Man kann es auch billiger haben, aber das geht dann auf Kosten der Sicherheit, es kann gut gehen oder auch nicht, da muss selbst Prioritäten setzen und eben auch mehr oder weniger ein Stück weit auf sein Gück vertrauen, wenn er den Aufwand gering halten möchte.

Holt sollte dir sagen können wieso er dort oben "leider Confidencial" geschrieben hat.
Nein das kann ich auch nicht, ich würde mir da mehr Offenheit von allen Herstellern wünschen, aber bisher ist Seagate da noch recht alleien was die Kommunikation solche Dinge angeht. Wenn ich die Reaktion von Digi-Quick "für keinerlei Szenario geeignet ist - auch nicht als Desktop HDD!" sehe, kann ich aber eben auch nachvollziehen, warum andere Hersteller da mauern, denn er wird da nicht der einzige sein. Das macht mir aber Seagate sympathisch und wo hier von Bit-Rot die Rede ist: Bei Seagate haben auch viele 3.5" Consumer HDD wenigstens eine Erkennung von Fehlern auf den internen Datenpfaden, was man bei anderen Herstellern meist vergeblich sucht.
 
Keine Ahnung, WD rückt ja mit dem Workload Rating der meisten, HDDs wie z.B. aller Consumer HDD gar nicht raus. So wie vermutlich auch Digi-Quick überschätzen die meisten Leute extrem wie viele Daten sie wirklich übertragen, bei den SSDs ist es ja nicht anders, da glauben auch nicht wenige, dass die meisten Heimanwender bei 2 bis 4 TBW im Jahr liegen und nur wenige überhaupt über 10TB pro Jahr kommen. Das ist als würden alle Autofahrer denken, sie würden mindestens 100.000km pro Jahr fahren, nur weil sie nicht auf den Kilometerzähler schauen, den es aber auch leider bei vielen HDDs gar nicht gibt, Seagate ist auch da eine löbliche Ausnahme, bei denen haben viele HDDs S.M.A.R.T. Werte die anzeigen, wie viele Daten von Host gelesen und geschrieben wurden. Das sind die Attributte F1 und F2, da rechnet man den Rohwert in Dezimal um (Windows Taschenrechner in Ansicht Programmierer macht das ganz flott), dann mal 512Byte und schon hat man das Ergebnis.

Haben meine Seagate-Platten ja leider nicht, F1, F2.
Wie kann man denn etwa eine komplette physikalische Oberflächen-Überprüfung, eine Vollformatierung / Low Level-Formatierung, Wartungsaufgaben (chkdsk etwa) und dergleichen mehr einordnen hinsichtlilch des Workloads / der Belastung / des Datentransfers? Also, beispielsweise, wieviel von den 15 TB ("Daher unterstelle ich auch den WD Heimanwender HDD die für Desktopplatten üblichen 55TB pro 8760 Stunden, was für 2400 Stunden dann 15TB im Jahr sind.") würde z.B. eine Vollformatierung einnehmen?
 
Bei einer 5TB Platten wäre das ein Drittel der 15TB. Wieso haben Deine Seagate die Werte F1 und F2 nicht?

Diese aus dem anderen Thread hat sie doch:

gHIyQ1f.png


F1 ist 0xAF98FD49 = 2946039113 (dezimal) * 512 Byte = 1508372025856 Byte = 1508GB = 1,51TB geschrieben
F2 ist 0x132BCDE5 = 321637861 (dezimal) * 512 Byte = 164678584832 Byte = 164,7GB = 0,16TB gelesen
Zusammen sind das 1,67TB Workload, also knapp über einem Zenhtel der 15TB und das nach 200 Einschaltungen und 500 Betriebsstunden. Und da der Verhältnis Lesen zu Schreiben nur so etwa 1:10 ist und Dein Kopierprogramm die Daten ja nach dem Schreiben prüft, muss das in 90% der Fälle wohl aus dem Cache erfolgt sein.
 
[Zitat]Selbst 15 TB pro Jahr sind über 40GB pro Tag, für eine Desktoprechner immer noch mehr als ausreichen, erst recht fürs Datengrab.[/Zitat]
Wenn man Videoschnitt betreibt ist das gar nichts! (Da gehören die Desktop-Platten mit ihren 5400 U/min auch nicht gerade zu den Empfehlungen, reichen aber zumindest theoretisch aus)
2x90 Minuten DV-Bänder sind schon 40 GByte.
 
Das ist dann auch kein Desktopeinsatz, sondern ein Videoschnitt Arbeitsplatz, auch wenn man das zuhause hobbymäßig betreibt. Wenn man das entsprechend intensiv betreibt, muss man sich entweder passende Platten mit ausrechend Workload Rating holen oder eine kürzere Lebensdauer bei den billigen Desktopplatten in Kauf nehmen. Letzteres kann ja durchaus die wirtschaftlich sinnvollere Vorgehensweise sein, denn ewig werden auch die Enterprise Nearline HDDs nicht halten, auch wenn man nur einen Bruchteil des möglichen Workloads ausgenutzt hat.
 
Bei einer 5TB Platten wäre das ein Drittel der 15TB.
Das scheint ja schon ganz schön viel. Also dann wohl für eine Oberflächenüberprüfung mit so einem Diagnose-Programm wie dem von WD 5 TB und eine Vollformatierung 10 TB.
Sollte man eine Platte nach dem Kauf eigentlich formatieren (falls es nicht wegen einer anderen Initialisierung erforderlich ist. Und reicht dann / in dem Fall eine Schnellformatierung?)? Oder bring das keine Vorteile / ist das unnötig?

Wieso haben Deine Seagate die Werte F1 und F2 nicht?

Diese aus dem anderen Thread hat sie doch:
Hatte ich gar nicht bemerkt, also sogar recht alte Platten können deartiges haben, dachte wohl, wenn die neue 5 TB-Seagate-Platte sie nicht hat, dann die alten erst recht nicht, sogar eine alte Fujitsu Siemens hat sie also; aber die verlor wohl zweimal während des Synchronisierens die Verbindung, verhielt sich also wie gar nicht angeschlossen, weshalb ich sie nicht mehr benutzen wollte.

F1 ist 0xAF98FD49 = 2946039113 (dezimal) * 512 Byte = 1508372025856 Byte = 1508GB = 1,51TB geschrieben
Die Rechnung ließe also die Annahme zu, alle auf der Platte vorhandenen Dateien wurden ein einziges Mal geschrieben. Und ("= 0,16TB gelesen" / "knapp über einem Zenhtel") nur ungefähr ein Zehntel davon jemals kopiert / verschoben oder aus anderen Gründen gelesen, falls ich recht verstehe.

F2 ist 0x132BCDE5 = 321637861 (dezimal) * 512 Byte = 164678584832 Byte = 164,7GB = 0,16TB gelesen
Zusammen sind das 1,67TB Workload, also knapp über einem Zenhtel der 15TB und das nach 200 Einschaltungen und 500 Betriebsstunden. Und da der Verhältnis Lesen zu Schreiben nur so etwa 1:10 ist und Dein Kopierprogramm die Daten ja nach dem Schreiben prüft, muss das in 90% der Fälle wohl aus dem Cache erfolgt sein.
Nein, nein, das ist ja eine der alten / älteren Platten, zu jener Zeit ihrer (vorwiegenden) Benutzung sah ich ja (leider) keine Veranlassung zum Überprüfen der Dateien, da ich von Korruption nicht die geringste Kenntnis hatte.
Aber um eben gerade das Lesen aus dem Cache zu vermeiden, sollte man beim Transfer also wohl auf jeden Fall erst alle Dateien komplett übertragen und dann erst alle übertragenen Dateien, damit die Kopien auch wirklich von der Platte gelesen werden. Wie wahrscheinlich ist es denn, daß die Dateien dann auch wirklich von der Platte gelesen werden (bei entsprechender, übertragener Datenmenge) und nicht aus dem Cashe?
 
bleiben wir doch mal bei dem Beispiel 5TB Platte, dann erreicht schon der "einfache" BURN IN die Workloadrate für das erste Jahr
1. Langsam Formatieren = alle Sektoren werden überprüft >> 5TB werden gelesen = 5 TB Workload
2. einmal mit h2wtest vollstandig überprüfen >> 5TB werden geschrieben und anschliessend gelesen = 10 TB Workload
in der Summe sind das schon 15 TB Workload ohne daß ein einziges Bit an tatsächlichen Nutzdaten auf die Platte geschrieben wurde
Für jeden weiteren Prüflauf von h2wtest kommen weitere 5 TB dazu (es gibt ja durchaus die Empfehlung einiger mindestens 3-5 durchläufe zu machen, bevor einer Platte Nutzdaten anvertraut werden).
 
Bei werden alle Platte vor der Inbetriebnahme trotzdem ordentlich einem BurnIn Test unterzogen, egal wie viel Workload der erzeugt und wie viel für die Platte angegeben ist. Dann hält sie eben weniger lange, das ist mir auch egal, zumal ich die Platten bei denen ich viel Workload erwarte, dann auch entsprechend auswähle.
 
(es gibt ja durchaus die Empfehlung einiger mindestens 3-5 durchläufe zu machen, bevor einer Platte Nutzdaten anvertraut werden).
Also das halte ich jetzt mal für etwas übertrieben.
Wenn man solche Angst ums eine Daten hat, sollte man eventuell über ein Raid 1 nachdenken...

Davon abgesehen @Holt: Gilt das hier nicht was du immer bei SSDs erwähnst, dass die Hersteller den Workload absichtlich niedriger beschreiben als er technisch der Fall ist, damit mehr Leute zu den Enterprise Laufwerken greifen?
 
Es kann nicht falsch sein, ruhig etwas mehr Aufwand bei neuer Hardware (RAM, spinning disks) zu betreiben.
Naja, es geht nicht nur um den Aufwand das selbst zu tun, sondern das was Digi-Quick andeuten wollte. Wenn man 4 mal mit h2wtest die Platte testet, kommt man auf nen Workload von 40Tb o_O Also schon mehr als 2,5 Jahre der Lebensdauer eingebüßt, sollten die Werte aus den Folien vorhin, realitätsnah sein (was ich etwas bezweifle).

Davon abgesehen frage ich mich schon was für ultrawichtige Daten man so als Privatperson auf seinem Alltagssystem hat.. Klar, alte Famillionfotos/Videos, etc, aber grade die hat man extern im Backup.
Wenn meine Datenplatte plötzlich ausfallen würde, wäre das zwar eine Unnanehmlichkeit, aber kein riesiges Problem und das Hochschulzeug und die Projekte an denen ich täglich arbeite sind auf Cloudservices (hauptsächlich wegen der Synchronisation mit dem Tablet). Deswegen habe ich auch keine Angst um meine Daten obwohl ich keinen besonderen Aufwand in dem Bezug betreibe.
Der einzig mögliche Verlust wären ein par Bookmarks und etwas Skype-Historie.
 
Zuletzt bearbeitet:
Wenn man solche Angst ums eine Daten hat, sollte man eventuell über ein Raid 1 nachdenken...
RAIDs ersetzen keine Backups!
Davon abgesehen @Holt: Gilt das hier nicht was du immer bei SSDs erwähnst, dass die Hersteller den Workload absichtlich niedriger beschreiben als er technisch der Fall ist, damit mehr Leute zu den Enterprise Laufwerken greifen?
Wenn ich mit das Abschneiden von z.B. der ST3000DM001 bei backblaze und auch die Berichte von User in Foren ansehe, bei denen die Barracudas dann auch nach etwa mehr als 2 Jahren und ab so 20.000 Betriebsstunde, also klar unter Dauerbetrieb, gehäuft ausfallen, dann glaube ich das nicht wirklich. Mehr Workload scheint auch wirklich mehr Geld in der Fertigung zu kosten und die meisten Hersteller geben ja die Workload gar nicht an. Da ist Seagate die Ausnahme und selbst da steht 55TB und dann an anderer Stelle erst der Hinweis, dass diese eben nicht wie üblich pro Jahr, also 12 Monate, sondern pro 8760 Betriebsstunden gelten. Damit scheint die Angabe auf den ersten Blick sogar höher zu sein und nicht geringer, wobei wohl nur wenige überhaupt in die Product Manuals bei Seagate schauen werden.
 
Du musst mir nicht diesen Link an den Kopf werfen... ;)
Natürlich ist ein Backup zusätzlich, was ja klar ist, und zweitens ging es ja um die das Risiko eines Festplattenausfalls (wir reden ja die ganze Zeit von Lebensdauergeschichten). Genau dagegen hilft/schütz ein Raid dieser Art sehr wohl, oder irre ich mich? Jedenfalls steht in dem Link nichts gegenteiliges.
 
Das sollte aussagen, dass wenn man Angst um seine Daten hat, sich vor allem erstmal um ein ordentliches Backup Gedanken machen sollte, bevor man an ein RAID 1 denkt, RAID bieten eben keine wirkliche Erhöhung der Datensicherheit, sondern vor allem der Verfügbarkeit im Falle eines Ausfalls einer Platte. Deshalb sollte man besser zuerst ein Backup und dann oben drauf ein RAID 1 erwägen, wenn man Angst um die Daten hat.
 
@Holt
dazu eine Farge, leider ot, wenn ich ein nas bertreibe mit 2 HDs im raid1 und eine hd kaputt geht, kann ich also nicht die noch intakte HD entnehmen und die Daten auslesen ?
 
Doch, aber das RAID schützt eben nicht vor versehentlichem Löschen/Überschreiben von Daten oder bei Virenbefall.
Bei einem Schaden durch Überspannung, der das NAS und die darin enthaltenen Platten zerstört hilft auch kein RAID, sondern nur ein Backup.
Im Idealfall hat man sogar noch (mindestens) ein anderes Backup an einem sicheren Ort außerhalb des Gebäudes gelagert, damit die Daten nicht durch einen Brand oder eine Überschwemmung zerstört werden können.

Ein RAID soll nur Verfügbarkeit garantieren, wobei bei 1 und 5 nur eine Platte ausfallen darf. Zudem könnte es bei Hardware-RAIDs noch das Problem geben, dass man den gleichen Controller benötigt, um die Daten lesen zu können.
Bei einem NAS sollte das Auslesen es mit Linux gehen, da die Firmware meist darauf basiert.
 
Zuletzt bearbeitet:
dazu eine Farge, leider ot, wenn ich ein nas bertreibe mit 2 HDs im raid1 und eine hd kaputt geht, kann ich also nicht die noch intakte HD entnehmen und die Daten auslesen ?
Das hängt von dem RAID ab, HW RAID Controller legen am Anfang Metadaten ab, da sind die Partitionierungsinformationen dann nicht bei LBAs 0 der Platte sondern haben einen Offset von z.B. einem MB, stehen dann also auf LBA 2048. Betreibst Du so eine Platte ohne das RAID und damit ohne das der Offset berücksichtigt wird, dann wirst Du da keine Daten drauf finden, außer mit einem passenden Recoverytool.

Aber wozu sollte man das überhaupt wollen? Da tauscht man die kaputte Platte und lässt das RAID ein Rebuild machen, dann ist wieder alles in Ordung und man kann ja auch auf ein RAID welches degraded ist, noch zugreifen. Die zweite Platte darf dann aber keine Probleme wie schwebende Sektoren haben oder bekommen, sonst hat man ein Problem und dann wird auch das Rebuild scheitern.

Außerdem gilt was CHAOSMAYHEMSOAP beschrieben hat und was auch hinter diesem Link steckt, der bei meinem Satz "RAIDs ersetzen keine Backups!" verlinkt ist! Klickt doch einfach mal auf die Links die ich setze, das mache ich ja auch nicht zum Spaß.
 
Eine alte Fujitsu Siemens verlor wohl zweimal während des Synchronisierens die USB 2.0-Verbindung zum Notebook (könnten Strom-Spannungen in Festplatten - hier wohl eher nicht, da ja verschiedene Modelle von Korruption betroffen sind -, Notebooks, gar der Stromanschluß in diesem Haus mit der Korruption in Verbindung stehen, die auf einige Platten sich so auswirken, daß Korruption entsteht / entstehen kann, auf andere Platten so, daß sie den Kontakt zum Rechner verlieren?), verhielt sich also wohl wie gar nicht angeschlossen, weshalb ich sie nicht mehr benutzen wollte. Wie könnte ich am einfachsten feststellen, ob die Platte wirklich kaputt ist oder ob die Ursache vielleicht eine andere ist als ein Defekt an der Platte?

F1 ist 0xAF98FD49 = 2946039113 (dezimal) * 512 Byte = 1508372025856 Byte = 1508GB = 1,51TB geschrieben
Die Rechnung ließe also die Annahme zu, alle auf der Platte vorhandenen Dateien wurden ein einziges Mal geschrieben. Und ("= 0,16TB gelesen" / "knapp über einem Zenhtel") nur ungefähr ein Zehntel davon jemals kopiert / verschoben oder aus anderen Gründen gelesen, falls ich recht verstehe.

F2 ist 0x132BCDE5 = 321637861 (dezimal) * 512 Byte = 164678584832 Byte = 164,7GB = 0,16TB gelesen
Zusammen sind das 1,67TB Workload, also knapp über einem Zenhtel der 15TB und das nach 200 Einschaltungen und 500 Betriebsstunden. Und da der Verhältnis Lesen zu Schreiben nur so etwa 1:10 ist und Dein Kopierprogramm die Daten ja nach dem Schreiben prüft, muss das in 90% der Fälle wohl aus dem Cache erfolgt sein.
Nein, nein, das ist ja eine der alten / älteren Platten, zu jener Zeit ihrer (vorwiegenden) Benutzung sah ich ja (leider) keine Veranlassung zum Überprüfen der Dateien, da ich von Korruption nicht die geringste Kenntnis hatte.
Aber um eben gerade das Lesen aus dem Cache zu vermeiden, sollte man beim Transfer also wohl auf jeden Fall erst alle Dateien komplett übertragen und dann erst alle übertragenen Dateien, damit die Kopien auch wirklich von der Platte gelesen werden. Wie wahrscheinlich ist es denn, daß die Dateien dann auch wirklich von der Platte gelesen werden (bei entsprechender, übertragener Datenmenge) und nicht aus dem Cache?
 
Bei solchen Vorfällen gibt es ja aber eine Fehlermeldung und dann sollte auch klar sein, dass die Übertragung nicht funktioniert hat und dadurch ggf. auch andere Dateien geschädigt werden können, wenn etwa noch Dinge die zu den Metadaten des Filesystems gehören, im Cache der Platte gestanden haben. Also stabil müssen die Platten schon laufen, wenn man Probleme wie Datenkorruption vermeiden will.

Prüfe mal die Netzteile, ob die sicher in den Steckdosen steckt, die Federkontakte der Steckdosen geben ja mit der Zeit auch nach und dann sind die Kabel der Netzteil selbst auch oft sehr dünn und werden schnell brüchig, wenn man sie immer wieder aufwickelt, besondern an den Ende, also am Netzteil selbst und am Stecker der in die Platte kommt.

Wenn es eine 2.5" Platte ist und die nur einen USB Stecker und Y-Kabel hat, würde ich auch einen Aktiven Hub empfehlen, also einen mit eigenem Netzteil, nimm da gleich einen USB3 Hub und häng da dann auch alle USB3 3.5" Platten dran, da brauchst Du auch nicht dauernd die Buchse am Notebook zu verschleißen, die vertragen ja auch nur eine bestimmte Anzahl an Ein- Aussteckvorgängen und dann werden die Verbindungen unsicherer.

Im Gerätemanager sollten die Einstellungen so aussehen:

attachment.php


USB_Gerätemanager_Richtlinien.png
 
Hier meine SMART Werte meine Festplatten seht bilder an von CrystalDisInfo
Ich hoffe das alle Festplatten in ordnung sind, die beiden WDC WD1002FAEX habe ich seit 5Jahre.
Externe 4Tb Mybook habe ich seit 2013
Die externe Seagate habe ich seit 2014.
Die Samsung SSD 840Pro 256GB habe ich seit 2012.
 

Anhänge

  • 1TB WD FAEX 1002 HDD die andere.JPG
    1TB WD FAEX 1002 HDD die andere.JPG
    117,1 KB · Aufrufe: 94
  • 1TB WD FAEX 1002 HDD.JPG
    1TB WD FAEX 1002 HDD.JPG
    117,2 KB · Aufrufe: 71
  • Externe 4TB Expansion  STBV4000200 USB 3 Festplatte.JPG
    Externe 4TB Expansion STBV4000200 USB 3 Festplatte.JPG
    121,1 KB · Aufrufe: 57
  • Samsung SSD 840Pro 256GB.JPG
    Samsung SSD 840Pro 256GB.JPG
    110,7 KB · Aufrufe: 63
  • Externe 4TB Expansion  STBV4000200 USB 3 Festplatte.JPG
    Externe 4TB Expansion STBV4000200 USB 3 Festplatte.JPG
    138,1 KB · Aufrufe: 85
Zuletzt bearbeitet von einem Moderator:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh