HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.862
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Welche sind deine Ansprüche an eine solche Platte?Danke für den Test, ich denke die Platte wird nichts für meine Systeme.
Mir erschließt sich der Zusammenhang zwischen "8+" Bays und einer guten Festplatte nicht.
Naja - und halt die Rate nicht korrigierbarer Lesefehler je gelesenem Bit ...Fällt die Betriebslautstärke unter Last weg, bleibt einzig der Preis als Kritikpunkt. Das möchte ich damit aussagen.
Ich habe hier 2x 16Tb und 1x 18Tb Seagate Enterprise Festplatten. Nur leises Brummen im Leerlauf zu hören (vom Gehäuse entkoppelt). Bei sequenziellen lesen (Spur für Spur) unhörbar. Die werden eigendlich nur laut, wenn der Schreibkopf mehrere Spuren auf einmal überwinden muss. Ich wüsste jetzt nicht, warum ich über 100€ mehr für dieselbe Leistung ausgeben sollte.
Was genau heißt denn das? Kann das mal einer genauer erklären?Naja - und halt die Rate nicht korrigierbarer Lesefehler je gelesenem Bit ...
Jein, es kann alle etwa 12TB ein Lesefehler passieren und die Platte verletzt ihre Spezifikationen trotzdem nicht, es muss aber nicht so häufig vorkommen. Meist steht ja auch < oder <= vor dem Wert. Das Problem ist aber, wenn es passiert und die ECC eben nicht gereicht hat um die Bitfehler beim Lesen eines physikalischen Sektors, die sind ja normal, erfolgreich zu korrigieren, dann gibt die Platte statt korrupter Daten einen Lesefehler als Antwort an den Host und die meisten RAID Lösungen brechen dann ein RAID Rebuild ab. Zumindest für RAID 5, bei RAID 6 wo nur eine HDD ausgefallen ist, kann das RAID dann ja immer noch auf eine Redundanz zurückgreifen und den Fehler überkommen. Daher sind solche HDDs mit einer UBER von 1:10^14 nur im RAID 6 verantwortlich nutzbar, aber keineswegs im RAID 5 oder auch nur in einem RAID 1 aus zwei HDDs.Statistisch gesehen passiert alle 11,4 TB gelesener Daten ein Lesefehler, bei welchem das gelesene Bit falsch gelesen wird und der Fehler nicht korrgiert werden kann.
Wobei man aufpassen muss, WD gibt auch gerne mal 10:10^15 an, was natürlich auch nur 1:10^14 ist, aber auf den ersten Blick besser aussieht.Für alle Red-, Red-Plus- und Red-Pro-Modelle hat WD bisher 1 pro 10^14 Bits angegeben.
Wo soll denn ein Geschwindigkeitsvorteil herkommen? Die maximalen Transferraten kommen von der Datendichte und der Drehzahl, denn daraus ergibt sich wie viele Daten in einer bestimmten Zeit unter den Köpfen vorbeikommen. Da MAMR ja zumindest in Zukunft eine höhere Datendichte erlaubt, ergeben sich dann daraus auch höhere Transferraten, aber die hätte es genauso gegeben, wenn man diese Datendichte auf anderem Wege erreicht hätte.Wo bleibt der MAMR Vorteil? Keine Kapazitätssteigerung, kein Performance Vorteil?
....und nicht korrigierbare Lesefehler pro gelesenem Bit, max. 1 Sektor pro 10E15Enterprise-Festplatten haben eine ganz andere Marge als NAS- oder NAS-Pro-Festplatten.
Worin unterscheiden sich N300 als HDWG180UZSVA und HDWG480UZSVA?
Das konnte ich leider noch nicht in Erfahrung bringen.
Wo soll denn ein Geschwindigkeitsvorteil herkommen? Die maximalen Transferraten kommen von der Datendichte und der Drehzahl, denn daraus ergibt sich wie viele Daten in einer bestimmten Zeit unter den Köpfen vorbeikommen. Da MAMR ja zumindest in Zukunft eine höhere Datendichte erlaubt, ergeben sich dann daraus auch höhere Transferraten, aber die hätte es genauso gegeben, wenn man diese Datendichte auf anderem Wege erreicht hätte.
Die einzige Technologie die bei HDDs die Performance unabhängig von der Datendichte und Drehzahl erhöhen kann, wenn man von irgendwelche NAND Caches mal absieht, sind die Multi Actuator Technologie die Seagate in den Mach.2 Modellen erstmal zum Einsatz bringt, eben weil damit zwei Datenströme möglich sind.
Wenn es beim Rebuild des RAIDs zu einem Lesefehler kommt, besteht (je nach RAID Lösung) die Gefahr das dieses Rebuld eben fehlschlägt und dann muss man das RAID neu erstellen und die Daten aus dem Backup rekonstruieren.Ja aber was passiert dann genau bei einem Raid 1 wie in meinem Fall?
Ja, wie bei jedem RAID 1, aber man muss wie gesagt eben damit rechnen, dass man nicht einmal in der Lage ist die gesamte Kapazität der Platte einmal fehlerfrei auszulesen. Dies muss nicht passieren, kann aber und daher ist eine Platte mit 12TB oder mehr und einer UBER von 1:10^14 im Grunde auch totaler Blödsinn bzw. eben Glücksspiel.Kann die Platte bzw. die beiden Platten ohne Probleme dann weiter genutzt werden
So viel höher ist die Datendichte aber eben offenbar nicht, wie man ja an den maximalen Leseraten sehen kann und weniger Platter zu verbauen wäre natürlich günstiger, zumindest nachdem die Mehrkosten für die Platter mit der hohen Datendichte entsprechend gefallen sind, aber nur weil man nun die erste MAMR HDD hat, wird man die Datendichte nicht gleich massiv steigern können. Ohne SMR und irgendeine Form von Energy Assisted Magnetic Recording (EAMR) hat man gerade mal so 2TB pro Platter erreicht. Es hat rund 9 Jahre gedauert um die Datendichte von 1TB Plattern zu verdoppeln, während die letzte Verdoppelung vorher nur 2½ Jahre gedauert hat.Durch höhere Datendichte wofür MAMR ja steht und dann wenigstens weniger Plattern, so wird die Platte nur teurer(?) in der Herstellung und den Kunden.
Das ist reine Wahrscheinlichkeitsrechnung, denn eine UBER von 1:10^14 bedeutet eben, dass man alle etwa 12TB gelesener Daten mit einem solchen nicht korrigierbaren Lesefehler rechnen muss. Bei einer 12TB HDD ist die Wahrscheinlichkeit daher 12TB/12TB = 1, man muss also mit einem Fehler rechnen, wenn man sie einmal komplett liest, bei einer 6TB Platten sind es nur 12TB-6TB/12TB = 0,5, man hat also ein 50% Risiko das ein Fehler auftritt und ebenso 50% Chance diese fehlerfrei lesen zu können. Bei einer 4TB ist das Risiko 4TB/12TB = 0,333 und die Chance entsprechend 0,667, man hat also statistisch und wenn die Platte wirklich alle 12TB gelesener Daten so einen Fehler hat, dann die Chance sie bei 3 Versuchen zweimal komplett fehlerfrei zu lesen, während man eben bei Platten mit 12TB oder mehr statistisch dann gar keine Chance mehr hat dies zu tun.Aber ihr redet immer von 12TB und mehr, sind da die kleineren bis 10TB nicht so arg gefärdet?
Welches Modell ist das genau? Mir wäre nämlich keine HDD mit 1:10^17 bekannt, die SAS 15krpm HDDs haben meines Wissens nach normalerweise 1:10^16, so wie auch die Savvio 15K.2:Meine 73GB 15k SAS Festplatte von Seagate wird mit 1 Fehler pro 10^17 angegeben.
Wobei bei den SAS Platten in RAIDs in aller Regel der SAS RAID Controller die ECC übernimmt und sie dafür dann auf 520 oder 528Byte pro Sektor formatiert und da seine eigene ECC ablegt. Die Platte führt dann keine eigene ECC durch, sondern liefert die Rohdaten direkt und der Controller kann im Fall eines Fehlers sofort die Daten aufgrund der Redundanz wiederherstellen und zurückschreiben. Dies macht man um die Verzögerung durch wiederholte Versuche der Platte die Daten doch noch erfolgreich zu lesen, zu vermeiden. Bei SATA Platten geht dies nicht, da muss man dann warten bis die Platte die Daten entweder doch noch erfolgreich gelesen hat oder der Timeout erreicht ist wo sie diese Versuche aufgibt, wobei die Dauer dieses Timeouts bei den Modellen mit TLER/ERC einstellbar ist und bei denen ohne TLER/ERC eben nicht und obendrein ist der Timeout bei denen mit TLER/ERD per Default meist geringer, i.d.R. auf 7s eingestellt und bei denen ohne beträgt er z.B. 14s im Fall der WD Green. Die Hardware RAID Controller warten aber i.d.R. nur 8s auf eine Antwort bevor sie eine Platte als defekt aus dem RAID werfen und schon deswegen sollte man an solchen Controller nur die passenden Platten betreiben.
Wobei aber die UBER bei SSDs eine anderes Verhalten als bei HDDs hat, die Fehlerwahrscheinlichkeit ist bei SSDs am Anfang 0 und steigt erst mit der Alterung der NAND Zellen an, während bei HDDs das Alter für die Fehlerwahrscheinlichkeit kein große Rolle spielt:10^17 haben heute die meißten SSDs