Erfahrungswerte Festplatten im Dauerbetrieb mit Spindown

fsironman

Neuling
Thread Starter
Mitglied seit
12.09.2013
Beiträge
226
Hallo zusammen,

Ich frage mich schon sein längerem:
Wie verhält es sich mit Festplatten die nicht für den 24/7 Betrieb freigegeben sind, trotzdem aber den ganzen Tag an sind (wenn auch 90 % der Zeit im Spindown).

Ich hole mal etwas weiter aus:

Ich habe bei mir nen Server stehen der 24/7 an ist und 8 Festplatten hat.
Im Verlauf des Tages hat eine Festplatte folgendes Lastszenario:

-Ø 5-10 Spinups
-Ø 22-23 h im Spindown (standby)
-Ø 1 h Volllast (snapraid sync / scrub)
-Ø 1 h sporadisch schreiben / lesen (downloads, entpacken, abruf)

Jetzt ist die Frage Festplatten die für 24/7 freigeben sind sind ja darauf ausgelegt sich auch die ganze Zeit zu drehen, die Consumer Festplatten nicht, wie gehen diese aber damit um im Standby zu sein ?

Das obige Szenario entspricht ja so in etwa der Desktop Nutzung, mit dem Unterschied das die Festplatten anstatt komplett vom Strom getrennt sind sich nur schlafen legen.

Die Festplatten haben dadurch bedingt auch nur Temperaturen um die 25°C bis 35°C (je nach Typ, Position und welche anderen Platten noch laufen)

Es gibt keinen Smart Wert für wie lange die Festplatte im Standby war oder ?

Mir ist vergangene Woche die erste Platte (Seagate Barracuda ST3000DM001) hart abgeraucht nach ca. 2,5 Jahren Power On Count.
Habe dank Snapraid nichtmal das Backup bemühen müssen.

Trotzdem ärgerlich und die Frage ist einfach nur Pech ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es ist nicht die Frage ob, sondern nur wann. Alle Festplatten gehen werden defekt enden. Mach ein offline Backup und fertig ist der Hase.
 
Es ist nicht die Frage ob, sondern nur wann. Alle Festplatten gehen werden defekt enden. Mach ein offline Backup und fertig ist der Hase.

Das ist mir soweit schon klar, wird gemacht und soll hier auch nicht das Problem sein.

Es geht mir eher darum eine Einschätzung zu bekommen wie arg außerhalb der Spezifikation der Anwendungsfall ist.
Bestes Beispiel ist ja Backblaze denen manche Festplatten wegsterben wie nix weil sie Consumer-Platten 24/7 im großen Pod mit 50 anderen Platten betreiben.
 
Solche einfachen Desktopplatten die nicht einmal für den Dauerbetireb freigegeben sind, haben auch keine Vibrationssensoren und sollten daher nicht mit 8 Platten in einem Gehäuse betrieben werden, da die Schwingungen die durch die anderen Platten entstehen, nicht kompensieren können. Du kannst froh sein, wenn sie etwas länger als die Garantiedauer halten, eben so 2,5 Jahre im Falle der Barracuda.

Außerdem haben die auch keine TLER, die sind für (HW-)RAIDs daher nicht geeignet, da sie im Zweifel länger versuchen werden problematische Sektoren doch noch korrekt zu lesen als das RAID auf eine Antwort wartet und dann fliegen sie als defekt aus dem RAID. Außerdem wirst Du den Workload wohl kräftig überschreiten, wenn Du täglich eine Stunden scrubbst.

Wenn die anderen 7 auch Barracudas sind, tausche sie so bald wie möglich aus, die werden bald folgen und nimm dann NAS Platten wie die WD Red, die Seagate NAS oder die HGST Deskstar NAS! Backblaze nimmt ja inzwischen von WD auch nicht die billigen Green, sondern die etwas teureren Red, weil die wenigstens eine 24/7 Zulassung und Vibrationssensoren haben. Wenn man von denen etwas lernen kann, dann eben die passenden Platten für den Einsatzzweck zu verwenden, weil Desktopplatten heute massiv kostenoptimiert sind und alles was für den Einsatzzweck nicht zwingend nötig ist, bei denen weggespart wurde.

Der Einsatzzweck für eine solte billige Desktopplatte ist alleine in einem Rechner zu stecken der 2400 Stunden pro Jahr läuft, was von Montag bis Freitag 9 Stunden, 8 Stunden Arbeit plus eine Stunde Mittagspause, entspricht. Seagate hat das bei der Barracuda sehr viel früher als andere Hersteller umgesetzt, denn bei Hitachi waren damals alle, auch die Desktopplatten mit Vibrationssensoren und 24/7 Zulassung ausgestattet und meist auch entsprechend teuer. Nur hat Hitachi seine Festplattensparte eben inzwischen verkauft und Seagate gibt es immer noch, deren Geschäftmodell nicht nur unterschiedliche Modelle für unterschiedliche Einsatzzwecke zu bauen, sondern das Modellprogramme auch nach untern mit extrem kostenoptimierten Desktop HDDs auszuweiten, war also offenbar erfolgreicher als das von Hitachi selbst die billigsten HDDs hochwertig auszustatten.
 
Zuletzt bearbeitet:
Zum Thema Spindown und 'Server'-Platten möchte ich noch hinzufügen - rechne Dir mal aus was Dich eine im Idle laufende Platte pro Jahr kostet... bei angenommenen 8 Watt (entspricht etwa einer 4TB HGST 7k NAS-Platte) sind das knapp €16. Dann vergleiche das mit den Anschaffungskosten einer neuen Platte und mit dem Aufwand die Platte zu tauschen und ggf. ein Raid wieder aufzubauen. Und das Risiko eine Platte zu schrotten ist bei häufigen Anfahren ungemein höher als beim 24/7 Betrieb.
 
Ganz ehrlich: Ob die Platten nun nach 3 Jahren hopps gehen weil das Schmiermittel ausgeschleudert ist im Dauerbetrieb oder weil die Parkzone verschlissen ist vom dauernden Parken.
Who Cares? Ist ne gute Zeit für ne Platte und man hat im Notfall ja ein Backup.


Ich betreibe 25 WD Green an meinem Fileserver seit ein paar Jahren (vor dem Unwetter dass die Preise so hat in die Höhe schnellen lassen gekauft) in 5-Bay-Gehäusen die die Platten bei nichtgebrauch (und auch alle Lüfter und Leds) ausschalten. Von den Platten sind in dieser Zeit zwei Stück ausgestiegen.
Warum? Ist mir doch herzlich egal, es WAR ZU ERWARTEN^^.

Wenn man sorum an die Sache rangeht wird ein Schuh draus.
 
Platten von vor Jahren waren weniger empfindlich, weil damals die Datendichte weitaus gering war und damals war vor allem Seagate der Vorreiter bei der Kostenoptimierung der einfachen Desktopplatten und zugleich bei hohen Datendichten, da hing und hängt WD immer etwas zurück. Das muss bzgl. der Haltbarkeit bei Einsatzbedingungen für die diese Platten nicht gemacht waren, allerdings kein Nachteil sein, nur nutzt das heutigen HDD Käufern nichts mehr. Inzwischen hat auch WD die Datendichte gesteigert, mit der Red eine Baureihe für Dauerbetrieb und mit Vibrationssensoren sowie die Green/Blue weiter kostenoptimiert.
 
Ach so, der TE kauft in der 8TB-Klasse. Das war mir nicht bewusst^^
NEINNNNN, es geht um seine 3TB-Seagate.

Ich hab 2 und 3 TB Platten verbaut. Liegt glaub ich im gleichen Segment.
 
Zuletzt bearbeitet:
Nicht nur 8TB Platten haben eine so hohe Datendichte, dass die Köpfe beim Lesen und Schreiben von Daten schon im Teilkonkatbereich sind.
 
Danke für eure Einschätzung bisher Ich gehe mal noch etwas genauer drauf ein:

Ganz ehrlich: Ob die Platten nun nach 3 Jahren hopps gehen weil das Schmiermittel ausgeschleudert ist im Dauerbetrieb oder weil die Parkzone verschlissen ist vom dauernden Parken.
Who Cares? Ist ne gute Zeit für ne Platte und man hat im Notfall ja ein Backup.
[...]

Mal den Energieverbrauch Askpekt ignoriert. Was ist schlimmer 3 Jahre Dauerbetrieb oder 10 mal anfahren + 3 h Am Tag ?


Solche einfachen Desktopplatten die nicht einmal für den Dauerbetireb freigegeben sind, haben auch keine Vibrationssensoren und sollten daher nicht mit 8 Platten in einem Gehäuse betrieben werden, da die Schwingungen die durch die anderen Platten entstehen, nicht kompensieren können. Du kannst froh sein, wenn sie etwas länger als die Garantiedauer halten, eben so 2,5 Jahre im Falle der Barracuda.[...]
Das ist ein Punkt der für erhöhten Ausfall sorgen könnte die Frage ist wieviel das ausmacht.
Wenn die Festplatten laufen dann laufen außer beim scrub / sync ehh nicht alle gleichzeitig.


Außerdem haben die auch keine TLER, die sind für (HW-)RAIDs daher nicht geeignet, da sie im Zweifel länger versuchen werden problematische Sektoren doch noch korrekt zu lesen als das RAID auf eine Antwort wartet und dann fliegen sie als defekt aus dem RAID. Außerdem wirst Du den Workload wohl kräftig überschreiten, wenn Du täglich eine Stunden scrubbst.
[...]
snapraid = jede Platte hat ihr eigenes filesystem somit ist für mich TLER aktuell kein Problem
scrub ist bei mir aktuell alle 30 Tage wird einmal gelesen bei 3 TB Platten mit so 80 % Füllstand um die 29 TB lesen pro Jahr mit normalen Zugriff + sync schätze ich um die 35 TB / Jahr die ST3000DM003 ist für bis zu 55 TB / Jahr spezifiziert.


Wenn die anderen 7 auch Barracudas sind, tausche sie so bald wie möglich aus, die werden bald folgen und nimm dann NAS Platten wie die WD Red, die Seagate NAS oder die HGST Deskstar NAS! Backblaze nimmt ja inzwischen von WD auch nicht die billigen Green, sondern die etwas teureren Red, weil die wenigstens eine 24/7 Zulassung und Vibrationssensoren haben. Wenn man von denen etwas lernen kann, dann eben die passenden Platten für den Einsatzzweck zu verwenden, weil Desktopplatten heute massiv kostenoptimiert sind und alles was für den Einsatzzweck nicht zwingend nötig ist, bei denen weggespart wurde.
[...]

Ist ne kunterbunte Mischung aus verschiedenen billigen 1,5 2 3 und 4 TB Desktop Platten. Die Frage die sich stellt ist lohnt es sich 40 € für 3 TB bzw. 70 € für 4 TB Platten mehr auszugeben.

Der Einsatzzweck für eine solte billige Desktopplatte ist alleine in einem Rechner zu stecken der 2400 Stunden pro Jahr läuft, was von Montag bis Freitag 9 Stunden, 8 Stunden Arbeit plus eine Stunde Mittagspause, entspricht. [...]

Schon klar die Frage ist Standby / Spindown wie ist das mit Hinblick auf die Lebensdauer zu bewerten bei mir laufen die Platten ja eher weniger als in einem Büro PC eher in Richtung Cold Storage Szenario wo nur die Festplatte anläuft auf der die Daten auf die zugegriffen werden soll sind.

[...]rechne Dir mal aus was Dich eine im Idle laufende Platte pro Jahr kostet... bei angenommenen 8 Watt (entspricht etwa einer 4TB HGST 7k NAS-Platte) sind das knapp €16. Dann vergleiche das mit den Anschaffungskosten einer neuen Platte und mit dem Aufwand die Platte zu tauschen und ggf. ein Raid wieder aufzubauen. Und das Risiko eine Platte zu schrotten ist bei häufigen Anfahren ungemein höher als beim 24/7 Betrieb.

Bei mir macht das bei mir ca. 100 € im Jahr aus

[...]Und das Risiko eine Platte zu schrotten ist bei häufigen Anfahren ungemein höher als beim 24/7 Betrieb.

Ich habe gerade mal bei den neueren Platten geschaut die bisher nur im Server liefen die alten waren noch in Desktop PCs
Damit komme ich auf Ø 2,1 spinups pro Tag



Die Seagate Archive HDD v2 8TB sind ja preislich pro TB im selben bereich die 3 TB und 4 TB Platten die ich habe. Die sind ja für Dauerbetrieb freigegeben werden vermutlich nur einmal beschrieben und danach nur sporadisch > 10 GB pro Tag.
Wie würden die mit 5-10 mal anfahren Pro Tag zurechtkommen.
 
Die ST3000DM001 ist für bis zu 55 TB / Jahr spezifiziert, aber:
Diese 55TB Workload (Datenvolumen Lesend und Schreibend) pro Jahr, wobei ein Jahr hier auf 8760 Stunden bezogen ist, die HDD ist aber nur für 2400 Stunden im Jahr ausgelegt, was aber so direkt wieder nur im Datenblatt steht (Power-On Hours) und damit ergibt sich dann nur ein jährlicher Workload auf ein Kalenderjahr bezogen von maximal 15TB.
 
Zuletzt bearbeitet:
Ja alles soweit klar² die Frage ist aber immer noch folgende:

PowerOnHours = Platte dreht sich ?
PowerOnHours = Festplatte hat Strom ist aber im Spindown?

Bzw. mit welchem Verhältnis zwischen drehender und stehender Platte wird da gerechnet das ist alles relativ undurchsichtig.

Aber ich denke jedem ist klar das zwischen Festplatte dreht sich 24/7, zu Festplatte ist im Spindown, zu Festplatte ist aus, einen unterschied geben muss.

Dieser ist, so habe ich so langsam das Gefühl, aber nicht wirklich greifbar.

Welchen Einfluss hat also der Spindown auf die Lebensdauer und wie unterscheidet sich der z.B. davon wenn man die Festplatte hart vom Strom trennen würde ?
 
Mal den Energieverbrauch Askpekt ignoriert. Was ist schlimmer 3 Jahre Dauerbetrieb oder 10 mal anfahren + 3 h Am Tag ?
Da gibt es ganz eindeutige Erfahrungswerte aus der Praxis und die sagen: bei mechanischen Platten ist der Dauerbetrieb (auch über mehrere Jahre) weniger riskant als Platten die regelmäßig oder unregelmäßig rauf- und runterfahren. Ob die Platte 1 mal oder 10 mal anfährt ist den meisten Betreibern egal.

Nicht umsonst ist der Wiederanlauf nach Wartung oder Störungen in großen Datenzentren ein Zeitpunkt den die Betreiber sehr fürchten: da sterben nämlich mit Abstand die meisten Platten.
 
Ich habe in Desktoprechnern früher WD RE3/RE4 eingesetzt, jetzt WD Red im NAS. Davor hatte ich Seagate und Samsung Consumer Platten. Die Seagate und Samsung Platten sind tot, alle anderen sind einwandfrei.
Mein persönliches Fazit: Platten, die nicht für den Dauerbetrieb ausgelegt sind, machen für niemanden einen Sinn. Genausowenig wie die meisten anderen "Consumerprodukte" wie Designerkörperfettwaagen, wo nach 2 Jahren Füße abbrechen, statt genaue Industriepaketwaagen, billiges Handwerkzeug statt teures oder Zitronenpressen aus Plastik statt aus Edelstahl. Eigentlich produziert man damit nur Müll und verbrennt Geld, wie ich finde.
 
PowerOnHours = Platte dreht sich ?
PowerOnHours = Festplatte hat Strom ist aber im Spindown?
PowerOn bedeutet einfach, dass die Platte Strom hat.

Welchen Einfluss hat also der Spindown auf die Lebensdauer und wie unterscheidet sich der z.B. davon wenn man die Festplatte hart vom Strom trennen würde ?
Frag doch mal den Support der Hersteller.

Mein persönliches Fazit: Platten, die nicht für den Dauerbetrieb ausgelegt sind, machen für niemanden einen Sinn.
Doch, wenn der Rechner nur maximal 8 Stunden pro Tag läuft, dann kann man damit Geld sparen, denn dann halten sie auch die üblichen 5 bis 7 Jahre durch, sind aber eben günstiger.
Eigentlich produziert man damit nur Müll und verbrennt Geld, wie ich finde.
Was wäre denn die Alternative? Nur noch Nearline Enteprise HDDs wie die WD Re oder die Constellation ES.3 anzubieten? Dann wären die HDDs alle im den Faktor 2 bis 3 teurer, auch alle in den Rechnern die pro Tag nur ein paar Stunden laufen. Oder sollte die Datendichten wie früher verwenden und eine 1TB HDD wäre das Limit? Dann würde viel mehr HDDs gebraucht werden. Bei den 15000rpm Enterprise HDDs stockt die Kapazität seid Jahren bei 600GB, weil man dort eben die Datendichte nicht erhöhen will, da man dann im Teilkontaktbereich landet und damit die Haltbarkeit stärker limitiert, aber das sind halt die Platten für die höchsten Ansprüche die man als HDDs kaufen kann.

Statt irgendwas zu verteufeln muss man einfach nur die passende Platte für den Einsatzzweck nehmen, die kosten eben je nach Einsatzzweck etwas oder viel mehr als die billigsten Desktopplatten, aber man bekommt auch mehr dafür, selbst wenn man das von außen eben nicht sieht.
 
Zuletzt bearbeitet:
Allerdings schätzen sehr viele Leute sehr falsch ein, wie lange ihr Rechner läuft, weil er eben oft zum Film anschauen, Musikhören etc. läuft und man oft nur die Zeit bedenkt, in der man auch tatsächlich dran sitzt. Meine m4 hat zum Beispiel 10.725 Stunden drauf. Und ich sitze normalerweise nicht 12 Stunden am Tag aktiv am PC und habe zusätzlich noch ein Laptop.
Für den Einsatz, wie hier beschrieben, würde ich von WD oder HGST Platten suchen, die mindestens für den Dauerbetrieb geeignet sind, und wie gesagt: Für mich persönlich ist der Haken im Geizhals immer an der Stelle drin, das andere beachte ich gar nicht mehr, weil der Aufpreis die Datensicherheit wert ist, und was anderes legt man ja heutzutage auch nicht mehr auf Metallplatten.
 
Datensicherheit gibt es nur durch Backups, nicht dadurch zu versuchen eine möglichst ausfallsichere Platte zu kaufen, denn nicht nur HW Ausfälle führen zu Datenverlust!
 
Da stimme ich einerseits zu, nur habe ich zum Beispiel ziemlich viele unkomprimierte BluRays(edit: und andere Aufnahmen) digital gespeichert, was also jedesmal so 20GB sind. Natürlich kann ich die jederzeit wieder draufspielen, aber ich habe dazu echt absolut keine Lust. Und noch ein Backup von 12TB Daten ist halt nicht gerade billig. Folglich gibt es eben auch Situationen, in denen diese Regel leider nicht anwendbar ist, sondern ein redundantes Raid mit Ausfallsicherheit für 2 Platten und ein Überstromschutz dann doch die kostengünstigste Alternative darstellt.
 
Zuletzt bearbeitet:
Natürlich hat fast jeder gute Gründe warum er nun gerade kein Backup von bestimmten Daten hat, aber jeder sollte sich auch klar sein, dass alle Daten von denen er kein Backup hat, jederzeit verloren sein können. Dazu braucht es nicht einmal einen HW-Ausfall!

Wer aber denkt, HDDs gibt es für unter 30€/TB, dann kann ich ja 12TB für 360€ auch auf dem PC / NAS / Heimserver speichern, der muss eben wissen, dass die Daten dann nicht sicher sind. Damit es sicher wäre, müsste man etwa noch einmal so viel für die Backupplatten ausgeben, es war eben noch nie billig größere Datenmengen auch wirklich sicher aufzubewahren! Es ist mit den €/TB für die man schon HDDs bekommt, einfach nicht getan, man muss wenigstens das Doppelte einrechnen und wenn man dann auch noch einen gewissen Schutz für die Zeit seid dem letzten Backup haben möchte, sollte man ein RAID 5 wählen, denn auch wenn die Kapazität des RAIDs und die UBER der Platten ein Rebuild im Fall eines Falles zum Glückspiel machen, so hat man immer noch eine gute Chance die Dateien zu sichern, die im letzten Backup noch fehlen, nur wer alles Sichern (was dann fast schon ein Retten ist) muss, der geht eben das gleich Fehlerrisiko wie bei einem Rebuild ein.
 
Natürlich hat fast jeder gute Gründe warum er nun gerade kein Backup von bestimmten Daten hat, aber jeder sollte sich auch klar sein, dass alle Daten von denen er kein Backup hat, jederzeit verloren sein können. Dazu braucht es nicht einmal einen HW-Ausfall!

Also ich hatte ja mal nen Fall wo es mir mal alle daten auf ner Festplatte zerlegt hat. Das waren 3 TB. Hatte auch zum glück von 80% nen Backup und die restlichen 20% waren nicht so wichtig. Und an der Platte liegts vermutlich nicht da die an anderen Rechnern ohne Probleme funktioniert und die Smart werte auch OK sind. Deswegen vermute ich mal das irgendein Treiber amok gelaufen ist.

In dem Fall würde ein Raid auch nicht sicher sein wenn dir die Software einfach die Daten zerlegt. Das einzige sichere ist wenn die Daten auf einer externen Festplatte und elektrisch(am besten auch räumlich) vom restlichen System getrennt ist. Dann ist es kein so großen Problem wenn es einem mal die platte zerlegt.
 
Zuletzt bearbeitet:
Der Treiber ist nicht Amok gelaufen, der hat wohl einfach nur keine Platten mit mehr als 2TB unterstützt. Das merkt man meist wenn man die Platte initialisiert und sie nur mit so 746GB angezeigt wird, das ist die Warnung die leider viele übersehen. Die nehmen dann ein 3rd Party Tool zum Partitionieren welches gebootet wird und seinen eigenen Treiber mitbringt, der aber unterstützt schon Platten mit mehr als 2TB und daher klappt des damit auch. Da Windows bei partitionierten Platten die Größe der Partitionen aus der Partitionstabelle ausliest, fällt das Problem nicht weiter auf, ist aber noch da.

Der erste Gedanke ist dann, dass Windows mal wieder nichts taugt und die Datenträgerverwaltung nur Schrott ist, aber zum Glück hat man ja sein 3rd Party Tool dafür. Irgendwann wird dann jenseits der 2TiB Grenze geschreiben, da der MFT Reservierte Bereich ungefähr in der Mitte liegen meist wenn so etwa 1.8TB belegt sind, dann schneidet der Treiber aber das 33. Bit ab und es wird an den Anfang der Platte geschrieben, wobei die Partitionstabelle und die Metadaten des Filesystems (Kennung) überschrieben wird. Das fällt auch nicht sofort auf, Windows hat die Werte ja gecacht, aber beim Neustart ist der Schaden dann zu sehen.

Da kann Windows aber auch gar nichts dafür, die Treiber von Windows unterstützen Platten mit mehr als 2TB (zumindest die seid Win 7, ich meine auch die von Vista), aber die Herstellertreiber taten dies lange nicht, der Intel Treiber z.B. kann das erst seid dem RST Version 10.1! Da wird dann also Windows für einen Fehler von z.B. Intel gestraft und als es mit der falschen Kapazitätsangabe gewarnt hat, dann noch für dumm gehalten. Daher rate ich grundsätzlich davon ab überhaupt 3rd Party Partitionierungstools zu verwenden, die Datenträgerverwaltung kann außer dem Verschieben von Partitionen alles was man so braucht.
 
Ja das war ne 4TB mit ner einzigen großen Partition. Die Platte wurde aber mit der Windows Datenträgerverwaltung mit GPT initialisiert in Windows 7. Die Datenträgerverwaltung hat auch die 4TB erkannt. Da war kein einziges 3rd Party Tool in benutzung. Der Treiber war auch der von Windows automatisch geladene. Hat ja auch lange mit Datenmengen über 2,2TB funktioniert.

Wollte aber eigentlich in vorherigen Post nur sagen das ein Backup nur wirklich auf ner externen Platte sicher sind.
 
Zuletzt bearbeitet:
Moment, der von Windows ist der msahci und der unterstützt auch Platten mit mehr als 2TB Kapazität, der von Windows automatisch geladene ist ein meist älterer von Intel, der hat das offenbar nicht unterstützt und wurde erst geladen, nachdem die Platte initialisiert war. Da muss man eben sehr aufpassen, so ein Treiberwechsel ist bei älterer HW auf der auch noch die alten Treiber laufen die noch keine Platten über 2TB unterstützen sehr gefährlich und genau das ist dann wohl hier auch schief gegangen. Keine Ahnung wieso Windows Dir den Treiber überhaupt eingespielt hat, hast Du den Modus des Controllers auf RAID umgestellt oder hast Du die Optionalen Update mit eingespielt?
 
Das windows nicht den msahci lädt ist mir auch neu. Das system ist inzwischen leider schon neu aufgesetzt deswegen kann ich auch nicht mehr nachschaun welcher da drauf ist. Da ich keine Raid nutze hab ich den Controller natürlich auch nicht auf Raid eingestellt.

Also lags wohl doch am Treiber bzw. an nem falschen Treiber. Ich frag mich bloß wie der da drauf gekommen ist. 3rd Party Software wird wie gesagt nur sehr selten und nur wenn umbedingt notwendig installiert. Bei den optinalen Updates schau ich meistens auch erst welche von denen nützlich erscheinen. Aber welche ich da eingespielt hab weiß ich leider auch nicht mehr. Scheibar hat da sich echt irgendwie ein falscher Treiber eingeschlichen.

Aber mal Back to Topic:

Ich verfolge den Thread auch schon länger da ich ner ähnlichen Situation wie der TE bin.
Bei mir laufen die Platte momentan 24/7h im Fileserver aber halt ohne Spindown. Ich stell mir auch grad die Frage ob ich die bei sagen wir mal 2h nichtbenutzung in den Standby versetzen soll. Oder einfach rund um die Uhr drehen lassen wie jetzt gerade.

Bei mir sind es wahrscheinlich auch so um die 5-10 täglichen Zugriffe Pro Tag.

Ich muss aber sage das meine Platten vom Hersteller auch für den dauerbetrieb freigegeben sind(Seagate NAS, WD Red).
 
Also lags wohl doch am Treiber bzw. an nem falschen Treiber.
Vermutlich, aber es kann auch andere Gründe gegeben haben, z.B. ein RAM Fehler der dann gerade Unglück die Daten verfälscht hat die danach geschrieben wurden, aber am wahrscheinlichsten war ein Treiber die Ursache, der eben so große Platten nicht unterstützt hat.
Ich frag mich bloß wie der da drauf gekommen ist.
Das ist die Preisfrage, aber nachdem das System platt gemacht wurden, kann man es sowieso nicht mehr feststellen.
Bei mir laufen die Platte momentan 24/7h im Fileserver aber halt ohne Spindown. Ich stell mir auch grad die Frage ob ich die bei sagen wir mal 2h nichtbenutzung in den Standby versetzen soll. Oder einfach rund um die Uhr drehen lassen wie jetzt gerade.
zu viele Start-Stop der Spindel sind auch nicht gut für die Haltbarkeit, aber ein oder zwei am Tag würde ich nicht als kritisch ansehen.

Bei mir sind es wahrscheinlich auch so um die 5-10 täglichen Zugriffe Pro Tag.
10 am Tag wären schon nicht wenig, aber ob das dann reicht um am Ende die Haltbarkeit deswegen zu verringern, kann man auch nicht wissen.
 
<-- hat gerade mal nachgeschaut.
Ich betreibe einen File-Server mit zur Zeit 25 Platten.
Die sind alle vor der lustigen Überschwemmung gekauft, die die Preise in die Höhe getrieben hat.
Bedeutet irgendwann Ende 2010, Anfang 2011 angeschafft.
Von den 25 sind inzwischen 3 ausgestiegen.
Die restlichen 22 laufen also seit gut 5 Jahren mit Spindown


So viel zu "ihr macht euch zu viele Gedanken".

Backup ist alles.
 
Festrplatten von vor 5 Jahren sind nicht mehr die gleichen wie die heutigen Festplatten.
 
Und das bedeutet?
Sie halten nur noch 4 Jahre?
Sie halten jetzt noch länger? Also 6 Jahre?

COME ON .....

Worauf ich hinauswill: Es ist egal wie man es macht. Die Platten werden sterben. Das ist das einzige was wirklich SICHER ist. Am Spindown liegt es sicher nicht alleine.
Also macht man ein Backup.
 
Worauf ich hinauswill: Es ist egal wie man es macht. Die Platten werden sterben. Das ist das einzige was wirklich SICHER ist. Am Spindown liegt es sicher nicht alleine.

Klar sterben werden die alle irgendwann sind ja mechanische Geräte. Die Überlegung war ja eher ob die Platten im Durchschnitt mit oder ohne Spindown länger halten. Mir ist schon lieber wenn die Platte etwas länger halten. Wenn man erst sagen wir mal in 6 statt 4 Jahren später neue Platten kaufen muss bekommt man dann wahrscheinlich für selbe Geld bessere Technologie/mehr Speicherplatz. In der HDD technik tut sich ja auch was und irgendwie schaffen es die Hersteller dann doch immer wieder die Datendichte zu erhöhen.

Aber noch mal zum Spindup vs kein Spindup:
Ich schätze mal um das wirklich aussagekräftig zu beweisen wird eh nicht einfach. Da bräuchte man schon sehr viele gleiche Platten. Die eine hälfte läuft mit Spinup die andere ohne. Dann müssten die Platten auch noch alle gleich belastet werden. Am ende könnte man dann sehen welche im Schnitt länger leben. Aber wer würde sich solch einen Aufwand schon machen. Außerdem würde das dann eh wieder nur für das geteste Modell/die getestete Belastung gelten. Und am Ende stellt sich noch raus das es keinen Unterschied zwischen mit oder ohne Spindown macht :shot:.

Naja ich werd meine Platten mal weiterhin rund um die uhr laufen lassen und hoffen das die nicht allzu früh den Geist aufgeben.
 
Zuletzt bearbeitet:
Ist das denn in dieser Zeitspanne tatsächlich relevant? Nach 4-6 Jahren sind die Platten doch in der Regel schon viel zu klein und werden abgelöst durch größere.
Meine 2TB-Platten waren vor 5 Jahren die Speerspitze. Heute sind wird bei 8TB.
Und nach 4 Jahren kann man doch schon gar nicht mehr auseinanderhalten WELCHES Problem die Platte hat sterben lassen. Ob nun mit oder ohne Spindown, sie ist der Wahrscheinlichkeit eines Defektes sehr sehr sehr viel näher als nach 2 Jahren.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh