Wobei ich da einigen Punkten unter "Was ist der Maximum Rated Workload?" (den Rest habe ich nicht gelesen) widersprechen möchte.
Bei SSDs kennen wir die Angabe TBW – Terabyte written (geschriebene Terabyte) – schon länger. Dort gibt es die Angabe der Abnutzung der Speicherzellen und sie sagt aus, wieviel „Wearlevel“ bzw. Lebenszeit der SSD noch zur Verfügung steht.
Nein, die TBW ist nur eine zusätzliche Einschränkung der Garantie und während manche Hersteller da übervorsichtig zu sein scheinen, übertreiben es andere offenbar. Hohe TBW Angaben helfen die SSD zu verkaufen und die wenigsten Heimanwender werden es schaffen auch nur einen Bruchteil der TBW innerhalb der Garantiedauer zu schreiben, aber als Chia aufgekommen ist und damit das Risiko real wurde das viele die TBW innerhalb der Garantiedauer ausreizen werden, hat z.B. PNY bei der XLR8 CS3030 massiv gesenkt:
Buyers beware
www.tomshardware.com
Bei Enterprise SSDs würde das eher zutreffen, aber da wird normalerweise keine TDP angegeben, sondern die DWPD.
Bei Festplatten gibt es diese Einschränkung nicht, da, bis auf den Lagerverschleiß des Hauptantriebs und eventueller begrenzter Lebenszeit der Elektronik, das eigentliche Schreib-/Leseverfahren berührungslos im Flug über den Platter geschieht.
Dies stimmt schon lange nicht mehr, die HDDs arbeiten schon lange im Teilkontaktbereich und genau als dies eingeführt wurde, kam auch die Workload Rating Angaben auf. Die HDD Hersteller haben da nie offen drüber gesprochen, aber dies war damals eine gewaltige Änderung und hat eben damit zur Folge, dass die Oberflächen der Platter und Köpfe mit Schutzschichten versehen wurden und es ein Schmiermittel gibt, eben um den Verschleiß zu minimieren und dabei gibt es offenbar eben auch Unterschiede zwischen verschiedenen Modellen, was dann zu unterschiedlichen Workload Ratings geführt hat.
Die Köpfe werden bei Aktivität durch Erwärmung noch dichter an die Oberfläche des Platter gebracht:
Auch hier ist es idealisiert dargestellt, da die Köpfe eben über die größeren Erhebungen nicht mehr immer hinwegfliegen, sondern darüber schliddern, deswegen braucht man ja die Oberflächenbeschichtungen und Schmierung, die ihrerseits wieder Probleme machen.
Würden die Köpfe wirklich immer ohne Kontakt zur Oberfläche über diese hinwegfliegen, gäbe es keine Abrieb, aber der ist eben vorhanden und daher gibt es auch das Workload Rating, denn immer wenn gelesen oder geschrieben wird, dann "schleifen" die Köpfe eben über einige Stellen der Oberfläche, statt darüber hinweg zu fliegen.
Toshiba hat sogar ein Dual Heater System entwickelt:
Auch diese Darstellung ist idealisiert, denn so plan wie in der Zeichnung ist die Oberfläche in Wirklichkeit eben nicht, wenn man in den nm Bereich geht um den es hier geht. Außerdem wird man kaum das Read Element so weit absenken wollen wie das Write Element, denn das Problem mit der Verkleinerung der Strukturen ist ja das Schreiben, da bekommt man dann irgendwann einfach kein ausreichend starkes Magnetfeld mehr hin um die Magnetisierung damit ändern zu können, weshalb man ja z.B. bei HAMR eben einen kleinen Bereich erwärmt da sich die Magnetisierung dann dort leichter ändern lässt. Das Lesen ist weniger problematisch, da reichen auch kleine Magnetfelder um diese noch zu erkennen, den Lesekopf braucht man also nicht so dicht an die Platteroberfläche zu bringen wie den Schreibkopfe und damit hätte man dann beim Workloadrating im Prinzip auch einen Unterschied zwischen den gelesen und dem geschriebenen Datenvolumen.
Aber die Hersteller sprechen eben nicht darüber. Dies kam ja ungefähr in der Zeit auf, als auch die ersten SSDs in Consumerbereich aufgetaucht sind und damals hatten alle Sorgen um die Haltbarkeit der NANDs, die ja eben nicht ewig halten, sondern nur eine bestimmte Anzahl an P/E Zyklen überstehen und damit einem Verschleiß unterliegen. Vermutlich wollten die HDD Hersteller es da nicht so offen sagen, dass dies bei HDDs nun auch der Fall ist. Wobei die 15krpm Enterprise HDDs übrigens meines Wissens nach nie ein Workload Rating bekommen haben, weil man da die Datendichte nie so weit erhöht hat, dass man in den Teilkontaktbetrieb übergehen musste. Die Erhöhung der Datendichte war eben der Grund dafür, da man hierfür den Abstand der Köpfe noch weiter senken musste eben um beim Schreiben die Magnetisierung überhaupt noch ändern zu können, weil die immer kleineren Schreibköpfe sonst zu schwach dafür gewesen wären.
Jeder Hersteller gibt eine MTBF – Mean Time Between Failure – an. Diese mittlere Betriebszeit bis zum statistischen Ausfall des Gerätes, ist bei Festplatten eine recht hohe Stundenanzahl.
Die gilt aber nur während der vom Hersteller geplanten Nutzungsdauer und die beträgt in aller Regel 5 Jahre, weshalb es eben auch keine Lebenserwartung ist oder in eine Lebenserwartung umgedeutet werden kann.