Holt
Legende
- Mitglied seit
- 05.07.2010
- Beiträge
- 29.846
Das nennt sich Scrubbing und schon weil das komplette Lesen solcher HDDs recht lange dauert, würde ich empfehlen das eher monatlich statt wöchentlich zu machen.An einem RAID-Controller ist es nicht unüblich auf Bit-Ebene wöchentlich ein Verify zu machen.
Wenn es nicht um HDDs mit SMR geht oder Vibrationen eine Rolle spielen, dann liegt dies vermutlich an der Art der Zugriffe, also Größe und ggf. Fragmentierung der Dateien die da gelesen werden. Dazu kann es auch am Filesystem oder Host liegen, z.B. auch an der SW die diese Dateien ausliest. Die einzige Situation, von Vibrationen abgesehen, in der HDDs für Unterbrechungen sorgen könnten, wäre wenn sie Probleme haben einen Sektor korrekt zu lesen und dies auch nicht mit Hilfe der ECC korrigieren können. Dann wiederholt die Platte den Versuch diesen Sektor zu lesen bis sie es schafft oder bis zum Timeout (dann meldet sie einen Lesefehler) und der ist Dank TLER einstellbar und dürfte bei denen meist auf 7s eingestellt sein.daher bitte nicht falsch verstehen, aber bei einer "Enterprise"-Platte würde ich mir auch einen Benchmark wünschen, bei dem die Festplatte einmal vollständig (meinetwegen mit großen Daten) beschrieben und ausgelesen wird. Meine Erfahrung ist, dass relativ früh die Platte anfängt "Pausen" einzulegen und die Datenate auch mal auf 30MB/s runterbricht oder die Platte sich auch mal länger reorganisieren muss.
Jede ordentliche RAID Lösung wird dann in einem echen RAID (also nicht RAID 0, welches eigentlich ein AID 0 ist) die Daten anhand der Redundanz rekonstruieren und den problematischen Sektor auf der Platte die den Lesefehler gemeldet hat, damit überschreiben. Dies kann man verhindern, indem man die SAS Versionen sind, da kann man die Sektoren mit einer anderen Größe Formatieren, also 520 oder 528 statt 512 Bytes und in diese zusätzlichen Bytes schreibt der HW RAID Controller dann eine eigene ECC. Er stellt dann die Platten so ein, dass sie einfach nur dumm die Daten lesen und so weitergeben wie sie gelesen wurden und macht die Fehlererkennung und -korrektur selbst und wenn er einen Fehler erkennt den er nicht korrigieren kann, dann liest er sofort die Daten aller anderen Platten um die Daten aus der Redundanz zu rekonstruieren und den Sektor mit dem Fehler zu überschreiben. Dies spart die Zeit für die Wiederholungen beim Lesen wie sie bei den SATA Platten eben anfallen, weil man da die Sektorgröße eben nicht ändern kann.
Das war aber vor allem für die Storages mit den 15krpm HDDs relevant, da diese für die anspruchsvollsten Anwendungen waren, aber die sind inzwischen von SSDs verdrängt worden, denn wenn es um Performance geht, sehen auch die schnellsten Enterprise HDDs gegen Enterprise SSDs einfach kein Land. Dies 3.5" HDDs mit hohen Kapazitäten sind für Storages wo die Performance nicht kritisch, aber der Preis pro TB gering sein soll und der Preis wird mit den SATA Varianten im Vergleich zu den SAS Versionen schon wegen der Host Controller eben noch ein wenig geringer ausfallen. Dafür muss man dann eben mit der Krücke TLER leben.
Keine Ahnung wieso du dir anmaßt definieren zu dürfen was Enterprise ist und was nicht. Wenn deine Anforderung ist, das die eine konsistente Performance liefern, dann musst du da tiefer in die Tasche greifen und die SAS Varianten nehmen und dazu einen ordentlichen SAS RAID Controller oder eben gleich SSDs. Am Besten gleich die Intel Optane, denn wie schrieb Tweaktown so passend im Review der Optane 905P:In meinen Augen verkaufen die Hersteller unter dem Marketing-Begriff "Enterprise" Festplatten, die einfach nur größer und im Zugriff lauter sind als die Pre-Helium-Generationen. Wirklich Enterprise ist da nicht viel.
Performance kostet eben und wenn man auch unter anspruchsvollen Lasten und Bedingungen Performance will, kostet es mehr, ggf. auch viel mehr. Da muss man dann ggf. auch mal die Umgebung überarbeiten in der die HDDs arbeiten, damit es doch keine Vibrationen gibt, auch nicht plötzlich laute Geräusche, denn was dann passieren kann, zeigt das Video "Shouting in the Datacenter".
Da sieht man die Vibrationssensoren bei der Arbeit. Damit die Köpfe bei Schreiben nicht Daten auf einer Nachbarspur überschreiben, wenn sie durch Vibrationen aus der Spur zu kommen drohen, werden die Schreibzugriffen dann abgebrochen und auch beim Lesen können Vibrationen eben dafür sorgen, dass die Lesevorgänge wiederholt werden müssen, weil die Köpfe eben nicht mehr korrekt in der Spur positioniert sind. Wir reden da von Toleranzen im unteren nm Bereich!