die Informationspolitik unterirdisch ist. Auch auf dem WD-eigenen Forum.
Das war damals als WD noch einen Supporter hier im Forum hatte, auch nicht anderes. Selbst einfache Frage wie die nach dem Workload Rating der Red wurden nicht beantwortet.
Lässt sich bei der Seagate Ironwolf die Zeit, die sie sich für die ›Error Recovery Control‹ (ERC) nimmt, eigentlich einstellen?
Zumindest unter Linux sollte es genauso mit z.B.
smartctl -l scterc /dev/sda auszulesen und mit z.B.
smartctl -l scterc,200,200 /dev/sda (auf 20s) einzustellen gehen wie bei denen von WD mit TLER. TLER oder ERC (oder CCTL damals bei Samsung und Hitachi) sind nur unterschiedliche Bezeichnungen für die gleiche Sache: Einen einstellbaren Timeout der i.d.R. ab Werk kürzer voreingestellt ist. Dies ist aber eigentlich nur relevant wenn man die HDDs im RAID an einem HW RAID Controller betreibt.
suche eine Festplatte, bei der die Wahrscheinlichkeit möglichst hoch ist, dass sie lange hält.
Die geplante Nutzungsdauer beträgt bei allen HDDs heutzutage 5 Jahre, wie Samsung früher auch immer recht offen in die Datenblätter geschrieben hat, so wie hier:
Bei Betrieb innerhalb der Spezifikationen solten sie diese mindestens erreichen, meist auch etwas überbieten können. Da HDDs eben auch altern wenn sie nicht benutzt werden, verbietet sich eine Umrechnung in Betriebsstunden, sondern es zählt wirklich der Kalender!
sich die ERC mit einem Tool einstellen lässt, käme für mich auch eine Ironwolf als Desktop-Platte infrage.
Glaubst Du denn ernsthaft das die Wahrscheinlichkeit einen problematischen Sektor noch erfolgreich zu lesen mit der Zeit so dramatisch steigt? Keine Ahnung wie die Timeouts bei den Seagate Modellen voreingestellt sind, aber früher waren die Werte bei den WD Red 7s was typischer Wert für Platten mit TLER/ERC ist da die HW RAID Controller per Default meist 8s auf eine Antwort der Platte warten bevor sie diese als defekt auf dem RAID werfen und bei den Green eben 14s. Bei 5400rpm kommt der Sektor 90mal pro Sekunde unter dem Kopf vorbei, der kann es also in 7s über 600 mal (er muss den innerhalb der 7s ja auch erstmal anfahren) versuchen (z.B. mit anderen Parametern wie der Vorspannung) den Sektor doch noch korrekt zu lesen, meist Du wirklich bei weiteren 630 Versuchen erhöhen sich die Chancen nennenswert, wenn es bei den ersten 600 mal schon nicht geklappt hat?
an erster Stelle stehen für mich hohe Zuverlässigkeit/Langlebigkeit und geringe Lautstärke.
Die Zuverlässigkeit, nur die wird durch die MTBF/MTTF ausgedrückt, spielt beim Heimanwender mit seiner geringen Anzahl an HDDs keine Rolle, da hängt es vor allem von der Behandlung (sowohl durch den User als auch vorher schon durch den Handel) ab, ob sie vorzeitig ausfällt. Jede HDD kann wie jede andere Hardware auch, jederzeit mal ausfallen, nur Backups schützen dann vor Datenverlust, der ja auch andere Ursachen als nur einen HW Ausfall haben kann. Was die Langlebigkeit angeht, so sind die HDDs alle auf 5 Jahre Nutzungsdauer ausgelegt, erreichen diese bei Betrieb innerhalb der Spezifikationen (bei einfachen Desktopplatten eben als einzige HDD im Gehäuse und mit bis zu 2400 Power-On-Hours pro Jahr) i.d.R. auch und überschreiten sie mehr oder weniger lang, aber wie weit, kann heute keiner vorhersagen. Die Lautstärke ist prinzipiell umso höher, je mehr rpm sie hat und je mehr Platter verbaut sind, mit Helium aber i.d.R. deutlich geringer, hängt aber sehr von der Einbausituation ab und unterliegt auch einer gewissen Serienstreuung. Außerdem muss man immer zwischen Idle und bei Zugriffen unterscheiden, es gibt HDDs sie Idle lauter sind, dann aber bei Zugriffen kaum noch lauter werden, andere sind im Idle sehr leise, dann bei Zugriffen aber sehr laut. Da ist es subjektiv was man bevorzugt, der eine mag dies der andere das lieber.
Okay, bei einer bestimmten Festplatte weiß man zwar im Vorfeld nie, wann sie ›zerfällt‹. Sie verhält sich da ähnlich wie ein Proton oder Neutron, aber Wahrscheinlichkeitsaussagen kann man trotzdem treffen, denke ich.
Nein, kann man da wenig vorhersagen, außer dass eben einfache Desktopplatten wie eben die Barracuda (nicht Pro) oder Blue die halt für nur 2400 Power-On-Hours im Jahr ausgelegt sind, bei Dauerbetrieb oft kaum länger als 2 Jahre durchhalten, dann haben sie aber auch so viele Power-On-Hours runter wie in über 7 Jahren beim vorgesehenen Betrieb angefallen wären.
Der Fokus der Hersteller scheint auf der Entwicklung von NAS-Platten zu liegen.
Die würde ich persönlich auch für den Einsatz im Desktop immer vorziehen.
Ist die Besonderheit "geeignet für Dauerbetrieb" mit Vorsicht zu genießen, weil diese HDDs viel geringere Start-Stopp-Zyklen haben?
Nein, die haben in aller Regel genauso 10.000 Start-Stopp Zyklen pro Jahr oder eben ingesamt 50.000 wie die einfachen Desktop HDDs. Es gibt Ausnahmen wie die alte ES.2, bei der nur 250 pro Jahr vorgesehen waren. Bei Enterprise Nearline HDDs wäre ich also vorsichtig, bei NAS und Surveillance HDDs habe ich sowas aber noch nie andere Werte wie z.B. hier sehen:
Wo war nochmal die Seite, auf der man sämtliche HDDs findet, die unterteilt sind in GB/Platter und Anzahl der Platter/HDD?
Bei Seagate kann man dies im Product Manual des jeweiligen Modells nachlesen, bei WD und inzwischen HGST wird man hingegen kaum noch wirklich sicher erfahren können wie viele Platter die konkrete HDD jetzt hat, außer man schraubt sie auf, was sie dann aber zerstört sofern man keinen Reinraum hat. Aber ist dies wirklich wichtig?
Ist die Größe des Cache der HDDs (zB 64 oder 256MB) beim Betrieb mit RAID-Controller @ RAID 5/6 egal?
Da sind 2GB ECC verbaut...
Was als Cache angegeben wird, ist i.d.R. nur die Größe des DRAMs des Controllers, der dann aber nur einen meist (s)eher kleinen Teil davon wirklich als Cache für die Daten nutzt. Die Größe des Caches ist daher auch für die praktische Performance total irrelevant.