WD40EZRX Green läuft nicht mehr an

Master Luke

Enthusiast
Thread Starter
Mitglied seit
18.07.2006
Beiträge
3.785
Hallo zusammen,

Raid 1 (2x4TB)
Synology btfrs
Backupsystem mit etwa 100 Starts je Platte und ca. 100h Laufzeit. Ca. 2-3 Jahre alt.
War im 1HE Server im 19" Rack verbaut

1 Platte wurde heute aus dem RAID entfernt, von wegen BAD Sectors. Die Platte habe ich ausgebaut und sie lässt sich extern, mit 2 USB-Adaptern gegen getestet, nicht mehr hoch fahren.
Der Motor fährt 3s hoch, es klackt 1x derb, dann fährt der Motor wieder für 0,5s hoch und die Platte geht aus.
Ende.

Für immer tot oder gibts da einen Trick?
Danke!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Intern in nem PC anschließen, ist aber nur ne kleine Chance.
 
Die Green (die jetzt bei den Blue eingereiht wurden) sind ja auch als einfache Desktopplatten nicht für so einen Einsatz ausgelegt, sondern für 2400 Power On Hours pro Jahr und dafür als einzige Platte im Gehäuse zu arbeiten, weil alle Vorrichtungen um mit den Vibrationen der anderen Platten umgehen zu können, weggespart wurden. Nimm als NAS Platten wie die Red für diesen Einsatz. Das macht WD auch bei den MyBook Duo, da stecken auch zwei Red drin, während in den USB Gehäusen mit einer Platte die Blue verbaut sind.
 
Die Green (die jetzt bei den Blue eingereiht wurden) sind ja auch als einfache Desktopplatten nicht für so einen Einsatz ausgelegt, sondern für 2400 Power On Hours pro Jahr und dafür als einzige Platte im Gehäuse zu arbeiten, weil alle Vorrichtungen um mit den Vibrationen der anderen Platten umgehen zu können, weggespart wurden. Nimm als NAS Platten wie die Red für diesen Einsatz. Das macht WD auch bei den MyBook Duo, da stecken auch zwei Red drin, während in den USB Gehäusen mit einer Platte die Blue verbaut sind.

jaja, ich kenne deinen Standardtext dazu.
Aber du musst in meinem Fall auch alle meine Zeilen lesen. Die Green hätte nach deiner Beschreibung in meinem Anwendungsfall KEINE Probleme machen sollen.
 
Ein RAID1 ist ja wohl 2 Platten im gleichen Gehäuse gewesen und damit eine mehr als vorgesehen. Außerdem können Platten ja auch mal kaputtgehen, wenn sie innerhalb der Spezifikation betrieben werden.
 
Eben genau. Fazit von der ganzen Geschichte: Pech gehabt!


Btw: sie waren im selben Gehäuse entkoppelt und der Error kam nach einem Quickformat und anschließendem Fullbackup nach ca. 700GB.

Und wir hatten erst den Dialog, warum ich auch SSDs 1-2x nach Neukauf "wipe". Hatte ich mit diesen Platten auch gemacht. Wie gesagt, anscheinend einfach nur Pech nach Gauss.
 
Erkenntnis:
Mein NAS hat die Platte aufgrund von 4 Lesefehler aus dem RAID geschmissen.
Gestern hatte ich zum testen das falsche externe Netzteil gegriffen. Deswegen fuhr die Platte nicht hoch.

Heute früh im Rechner fuhr sie hoch, rödelte kurz und lief dann ohne mucken. Ich habe dann mit ****** einmal komplett genullt (~6h) und CDI zeigt mir folg. Screen:

Die Platte funktioniert wieder tadellos und ich muss die Errorrate im NAS höher stellen. :)
 

Anhänge

  • Green.png
    Green.png
    50,4 KB · Aufrufe: 56
Zuletzt bearbeitet:
Eine HDD sollte nicht wegen Lesefehlern aus einem RAID geworfen werden, die RAID Lösung sollte eigentlich dafür sorgen, das die Daten dann anhand der Redundanz wiederherstellst und die betroffenen Sektoren (die haben beim Versuch sie zu Lesen ja einen Lesefehler erzeugt) dann mit den korrekten Daten überschrieben werden.

Aus einem RAID fliegen HDDs immer wenn sie zu lange brauchen um zu antworten, bei HW RAID Controllern beträgt der Timeout gewöhnlich 8s. Einfache Desktopplatten ohne TLER wie die Green versuchen aber 14s lang die Daten doch noch zu lesen, bei Platten mit TLER ist diese Zeit einstellbar und per Default z.B. bei der Red auf 7s eingestellt. Man sollte eben unbedingt Platten nehmen die für den geplanten Einsatz auch wirklich geeignet sind.
 
was lernen wir daraus: Genau, TLER ist der Punkt. Das aber in Synology-Geräten sowas passiert, war mir neu. Von daher meine Verwunderung.
 
Die NAS verwenden ja normalerweise SW RAIDs und die haben normalerweise einen viel längeren Timeout. Aber man müsste da mal googlen wie lang der Timeout bis eine Platte aus dem RAID geworfen wird, bei btrfs konkret ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh