HGST Deskstar NAS 4TB 7200rpm - meinungen, reviews ?

So aus dem Zusammenhang gerissen ist das jetzt schwer zu sagen, aber vielleicht zielt es darauf ab, dass man ja bei einem RIAD 5 die Kapazität einer Platte verliert, so dass der Unterschied prozentual geringer ist, wenn man mehr Platten nimmt. Man sollte aber die UBER beachten und bei normalen Consumer HDDs mit einer UBER von 1:10^14 besser ein RAID 6 nehmen, da man bei der Fehlerrate statistisch alle 12TB einen unkorrigierbaren Fehler bekommt und damit ein Rebuild zur Glückssache wird.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke. Irgendwo hatte ich mal gelesen, dass für Raid 5 eine bestimmte Anzahl von Platten vorteilhafter ist (9 besser als 10) woran liegt das ?!

Ich vermute, dass dies in Zusammenhang mit ZFS war und auf die erzielbare Schreibrate abzielt.

Bei der Anzahl an Platten wäre prinzipiell ein RAID 6 sinnvoller. Hier kommt es natürlich auch darauf an, wie wichtig es ist die Daten ständig verfügbar zu haben.
 
Es war ein Artikel der die Geschwindigkeit (MB/s) in Zusammenhang mit der Anzahl der HDD's gebracht hatte. Dabei meine ich aber nicht, dass mehr Platten schneller sind, sondern das bestimmte Anzahlen am besten passen würden. Also z. Bsp. 9 besser als 8 oder 10.
 
Versuche mal (10-1) durch 2 zu teilen.

Da wir uns in der EDV in einem binärem Zahlensystem bewegen sollte sich die Anzahl der Nutzplatten idealerweise glatt durch eine binären Zahlenwert teilen lassen - also durch eine 2er Potenz, als da folgende Zahlenwerte wären :2; 4; 8; 16; 32 etc.
Somit ergeben sich für Raid 5 folgende idealen Anzahlen an Platten: 3; 5; 9; 17; 33 etc.
Bei mehr als 9 Platten würde ich schon erhebliche Bauchschmerzen bekommen, auch bei kleineren Platten unter 1 TB)

Für Raid 6 analog :4; 10; 18; 34 etc.
Ein Raid 6 aus 4 Platten würde man eigentlich nicht einsetzen, da hier ein RAID 10 Performanter wäre bei gleicher Nutzdatenmenge.
Hier würde ich maximal 18 Platten als gerade noch vetretbar ansehen.

Für Raidz3 (ZFS) sind es dann 5; 7; 11; 19; 35 etc.
5 Platten wäre Unsinn, da das Verhätnis Nutzdaten zu Paritätsdaten 2:3 wäre (ob man ein soches VDEV anlegen könnte habe ich nicht probiert), bei 7 Platten ist das Verhätnis Nutzdaten zu Paritätsdaten 4:3, da wäre ein Raid 10 aus 6 oder 8 Platten zumindestens eine überlegenswerte Alternative. Raidz3 lohnt sich also erst ab 11 Platten. 19 Platten würde ich auch noch als Praktikabel ansehen, bei 35 Platten hätte ich wieder Bauchschmerzen.


Wobei ich gerade einen alten PC zu einem ZFS Storage umfunktioniert habe mit absolut unterirdischen Vorraussetzungen - und es Funzt trotzdem :-)
2x Raid 6 aus jeweils 7 Platten (also 5+2) - 7x2 TB und 7x3 TB
dabei unterschiedliche Drehzahlen (7200er und 5400er), Cachegrössen (8MB, 16 MB, & 64 MB) und Sektorgrössen (AF bzw. nonAF)
gemischt, das Ganze hat dann auch nur 4 GB Speicher!

Mein eigentlich geplantes ZFS Archiv musste ich aus Finanziellen Gründen erstmal ad acta legen.

NACHTRAG: von den Hitachi NAS Platten habe ich seit ca. 4 Wochen 5 Stück in einem HP N54L verbaut.
Inbetriebnahme war Problemlos, bislang keine Auffälligkeiten.
zum Thema Lautstärke: Ich (!) kann nicht meckern, Zugriffe hört man natürlich. Ich würde mich hier aber nicht unbedingt als Maßstab ansehen, da bei mir 'eh Grundsätzlich Musik läuft und daher derartige Nebengeräusche in den Hintergrund gedrängt werden :)
Den mitgelieferten Gehäuselüfter habe ich allerdings vorsorglich gleich gegen Black Wings ausgetauscht (ohne den originalen gehört zu haben). Mein Gestrickter ZFS Server ist aber Grundsätzlich lauter da: 15 HDDs gegen 6 HDDs ; 6 Gehäuselüfter (laufen auf 5V statt 12V) statt einem (PWM) ; Noctua NH-D14 gegen Zalman CNPS2X; einzig der Netzteillüfter vom HP dürfte lauter sein.

Im übrigen habe ich mich für die Hitachis und gegen Seagate oder WD NAS Platten auf Grund der höheren Drehzahl entschieden, da hier ein Scrub (oder auch ein Resilver) auf dem ZFS deutlich schneller über die Bühne gehen dürfte.
 
Zuletzt bearbeitet:
Also ist die HDD jetzt zu empfehlen für einen NAS da Preis-/Leistung ist ja wirklich Top! Habe jetzt 4 Stück gekauft, und würde mich über Feedback von Usern freuen die diese bereits im Einsatz haben.
 
und wie laufen deine 4 Stück?
Stehe im Moment auch vor der Qual der Wahl...
Entweder die 3tb Toshiba aca mit 7200 oder eben diese hier.
Platz ist erst mal egal, mir kommts auf die Geschwindigkeit an...
 
und wie laufen deine 4 Stück?
Stehe im Moment auch vor der Qual der Wahl...
Entweder die 3tb Toshiba aca mit 7200 oder eben diese hier.
Platz ist erst mal egal, mir kommts auf die Geschwindigkeit an...

Bisher habe ich die 4 HDD's noch nicht angerührt, da ich nicht sicher bin ob ich diese verwenden möchte/werde. Habe mir jetzt extra einen QNAP NAS mit 4 Slots gekauft wo ich die neuen HDD's einbauen würde. Nur mir fehlen noch Erfahrungsberichte von Usern oder Zeitschriften das die HDD wirklich gute Performance und 24/7 kompatibel ist.

Daher meine Frage nochmal in die Runde, noch jemand Erfahrungen mit der HDD gemacht?

Etwas anderes, meint ihr das eine 6TB HDD kompatibel ist zu derzeitig vorhanden NAS Systemen?
 
Hast du schon mal was von Kompatibilitätslisten für dein NAS gehört?
 
Wenn sie nicht gelistet sind, wurden sie nicht getestet. Wenn es NAS Platten sind, dürften sie auch 24/7 lauffähig sein. 24/7 belastbar sind NAS Platten eher nicht, aber auch da gibt i.d.R. das Datenblatt des HDD Hersteller Auskunft drüber. Einfach mal nachlesen. Übrigens fallen auch normale, nicht offiziell 24/7 fähige HDD nicht nach den ersten 24 Stunden ohne Pause ins Koma, die halten u.U. weniger lange, aber selbst das ist nicht zwangsläufig so.
 
Mittlerweile gibt es die Platte ja eine Weile. Wer hat die Platten im Einsatz und was für Erfahrungen habt ihr mit den HDDs gemacht?
Ich schwanke noch zwischen den HGST und WD Red. Die HGST wären im Moment günstiger.
 
ich hab 5 Stück in meinem HP N54L seit über einem Jahr, bislang keine Auffälligkeiten.
 
Wie sieht es denn mit der Garantieabwicklung bei HGST aus?
Bei WD ist diese ja vorbildlich und funktioniert auch gut. Vor allem der Vorabversand der neuen Platte bevor man die alte zurückschickt.
 
da kann ich nicht wirklich was zu sagen, von den 16 Hitachis die ich bislang in Betrieb habe war nur eine einzige DOA - Austausch über den Händler. Alle anderen laufen zum Teil seit ca. 5 Jahren Fehlerfrei.
 
Das habe ich doch zitiert und das bedeutet übersetzt,. das man sie zwar 24/7 laufen lassen kann, aber bitte nicht zu sehr rannehmen soll: "Intended for low duty cycle, non mission-critical applications" Wenn Du die in einem RAID 5 in einem NAS hast und das muss einen Rebuild machen, ist davon wohl kaum noch die Rede. Du kannst es natürlich trotzdem machen. steht ja nicht unter Strafe, geht aber vielleicht nicht gut, während es bei der NAS oder der UltraStar funktioniert hätte.

Außer der Listung in den Preisvergleichen habe ich zu Deskstar NAS noch nichts gefunden, die ist wohl noch brandneu und da kommen hoffentlich noch mehr Informationen. Die Infos im Preisvergleich sind ja auch noch äußerst dürftig.

Von 11 verschiedenen (teilweise sehr teuren Platten) war sie die zweitschnellste beim rebuild.
Sie bei einem rebuild mehr als doppelt so schnell fertig als eine WD Red. Und sogar schneller als eine Ultrastar.
Wer muss von beiden mehr aushalten...? :fresse:

Btw:
Schneller fertig bedeutet auch schneller wieder im "sicheren" betrieb der Daten.
Im übrigen sind die HGSTs laut Statistik die mit der geringsten Ausfallrate
 
Zuletzt bearbeitet:
Meine 5 Sück in einem HP-N54L versehen seit 2 Jahren klaglos ihren Dienst
 
Dwayne_Johnson, low duty cycle bezieht sich nicht auf die Gewschindigkeit sondern die Arbeitslast im Ganzen, was als Workload Rating für die meisten Platten angegeben ist. Wobei sich WD da bei den Consumer Platten gerne zurückhällt und nur bei Platten mit höhrem Workload Rating wie z.B. für die Se (180TB/Jahr) und die Se (180 TB/Jahr) Angaben macht. Zu beachten ist außerdem, welche Schutzmechanismen vor Vibrationen die Platten haben, also für wie viele Platten in einem Gehäuse die geeignet sind. Es gibt es z.B. in der NAS Drive Selection Guide von Seagate eine schöne Übersicht:

Und welche Statistik meist Du? Vermutlich die von Backblaze, aber die ist sowieso verzerrt, denn da werden Desktopplatten ohne Vibrationsschutz oder auch nur 24/7 Zulassung von Seagate und Toshiba (früher auch WD, jetzt werden dort die Red verwendet) mit den HGST Megascale Enterprise Platten in Racks mit über 40 HDDs und im Dauerbetrieb vergliechen. Aber selbst die alten Hitachi Deskstar hatten alle RV Sensoren und 24/7 Zulassung, waren also viel besser für diese Belastung ausgestattet als die extrem kostenoptimierten Seagate Barracudas, dafür aber auch deutlich teurer, von einzelnen Angeboten in der Phase der Übernahme durch WD oder im Moment von gebrauchten (wenn auch angeblich unbenutzten oder generalüberholten) 2TB UltraStar von 2011, einmal abgesehen. Diese gebrauchten sind aber auf, bei Mindfactory hatten die 10% RMA Quote, allerdings gibt es diesen Eintrag jetzt dort nicht mehr, aber ewig halten eben auch gute HDDs nicht und nach der Flut hatte kein Rechenzentrum mal einfach so Tausende Platten unbenutzt auf Halde liegen.

Bei der Statistik von hardware.fr auf Basis der RMAs bei einem franz. etrailer schneidet Seagate übrigens sehr gut ab, obwohl WD ja z.B. den besseren Austauschservice bietet und daher wohl Kunden von WD eher mal direkt beim Hersteller und nicht über den Händler tauschen werden:
Selbst die so gescholtene und bei Backblaze so viel ausgefallene ST3000DM001 ist nicht auffällig:
Die dürfte eben bei den meisten normalen Kunden gar nicht im Dauerbetrieb laufen müsen und außerdem beziehen sich die Daten auf Verkäufe vom 1. Oktober 2014 bis 1 April 2015 und Retouren bis 1 Oktober 2015, also 6 Monate bis 1 Jahr alte HW.

Es gibt eben von allen Hersteller Platten unterschiedlicher (Preis-)Kategorieren und eben de Desktopplatten und damit die unterste Preis- und Anforderungskatagorie bis zu den Enterprise Nearline, um mal nur bei den 3.5" zu bleiben. Wie sich das so grob aufteilt und was die HDDs so auszeischnet, kann man hier an der Übersicht aus dem Toshiba Programm sehen:

attachment.php
 
Zuletzt bearbeitet:
Mir ging es eher um den Vergleich unter den Desktop-Platten.
Und da scheint laut Tests, die im Titel verwendete HGST bei rebuilds mehr als doppelt so schnell fertig zu sein als die normal WD Red.
Was mich zu dem Schluss kommen lässt, das die HGST weniger Fehlerkorrekturen machen muss. Denn allein duch ihre 7200U/min. kann sie ja nicht mehr als doppelt so schnell fertig sein.

Jetzt eine ganz einfache Frage...
Wem ist es nicht lieber, dass sein Raid wieder schneller Redundanz hat?

Und welche Platte würdest du für Raid5/6 eher nehmen - die HGST oder die WD Red


btw:
Wo finde ich einen Vergleich der Arbeitstemperaturen zwischen dieser HGST und einer WD Red/Green?
Laut Hersteller geht es auch keine Leistungsangabe in Watt bei load (nur von idle)

Cool wäre, wenn jmd einen Vergleich messen könnte (muss ja kein ganzes Raid sein).
Aber ich schätze mal, dass die HGST sicher 10-12Watt bei load frisst, oder?
 
Zuletzt bearbeitet:
Die WD Red ist auch eine NAS und keine Desktopplatte, aber die hat nur 5400rpm und die HGST Deskstar NAS hat 7200rpm, also soltte es auch nicht verwundern, dass sie schneller ist und dazu kommen eben dann noch FW Optimierungen. Dafür ist die Red sparsamer bei der Leistungsaufnahme und wohl eher leiser, es muss also jeder selbst wissen was ihm wichtiger ist. Es ist schön wenn das Rebuild schneller fertig ist, aber ein Backup der Daten sollte man trotzdem immer haben, wenn man diese nicht verlieren möchte.
 
Hab mich mal etwas eingelesen (wenn auch nur englisch).
Nun verstehe ich, warum zb bei einer WD Red steht, dass diese für bis zu 8 HDDs im NAS als Array geeignet ist.
Sie hat ja eine URE von 1 zu 10^14 was rechnerisch alle 11,37TiB gelesene Daten garantiert einen unkorrigierbarer Lese-Fehler bedeutet.

Demnach dürfte man bei einem Array von 12TiB garkein Array erstellen können, weil (rechnerisch) immer irgendeine Platte rausfliegt, bevor 12TiB gelesen wurden. Ist das so richtig?

So steht es irgendwie hier... SAS vs. SATA - EnterpriseStorageForum.com

Und falls das Array doch zustande kommt ist nicht gesagt, dass man jemals mehr ein Rebuild fertigstellen kann, da rechnerisch alle 11,37TiB ein unkorrigierbarer Lese-Fehler auftritt bis schliesslich das ganze Array zerstört ist. :-[

Ich dachte die ganze Zeit, dass ich mich mit meinen 10x Samsung F1 1TB @ Raid5 auf dünnem Eis bewege.
Umso mehr war ich verwundert, dass diese eine URE von 1 zu 10^15 haben. Das findet man eigentlich nur bei WD Pro bzw. Enterprise-HDDs, oder? Das bedeutet, ich muss in Zukunft viel tiefer in die Tasche greifen, um in Zukunft meine 20TiB zu verwalten. :rolleyes:

Wäre es da nicht besser statt das Raid zu erweitern einfach gute und günstige Desktop-HDDs zu kaufen und diese zu spiegeln (nicht Raid1, nur einzeln gespiegelt)

btw:
Braucht man für SAS T10 PI detection spezielle SAS-HDDs oder spezielle Controller?

Achja, in dem Link oben steht auch das, was ich letztens angesprochen hab. Die billigen Platten brauchen bei einem Rebuild länger, weil ständig etwas korrigiert werden muss. Je länger der Rebuild dauert, desto länger besteht auch das Risiko für völligen Datenverlust bevor das Rebuild abgeschlossen ist.
 
Zuletzt bearbeitet:
Sie hat ja eine URE von 1 zu 10^14 was rechnerisch alle 11,37TiB gelesene Daten garantiert einen unkorrigierbarer Lese-Fehler bedeutet.
Garantiert werden die Fehler zwar nicht, aber es wird eben auch nicht garantiert, dass sie dann nicht auftreten.

Demnach dürfte man bei einem Array von 12TiB garkein Array erstellen können, weil (rechnerisch) immer irgendeine Platte rausfliegt, bevor 12TiB gelesen wurden. Ist das so richtig?
Das Erstellen des RAIDs ist weniger das Problem, dabei wird ja praktisch nichts gelesen sondern nur geschrieben, die UBER ist aber immer als unkorrigierbare Sektoren pro gelesener Bit angegeben. Das sind bei Platten die einzeln betrieben werden die Sektoren, die dann als schwebende oder unkorrigierbare Sektoren in den S.M.A.R.T. Werten erscheinen.

falls das Array doch zustande kommt ist nicht gesagt, dass man jemals mehr ein Rebuild fertigstellen kann, da rechnerisch alle 11,37TiB ein unkorrigierbarer Lese-Fehler auftritt bis schliesslich das ganze Array zerstört ist. :-[
Das Rebuild funktioniert halt nicht, damit kann das RAID dann unbrauchbar oder weiter nur degradiert sein. Auch muss man die Wahrscheinlichkeit auf die Fehlerwahrscheinlichkeit der einzelene Platten umrechnen, womit die Wahrscheinlichkeit etwas besser aussieht als wenn man einfach nur die Kapazitäten der Platten zusammenrechnet. Für eine 3TB HDD mit einer UBER von 1:10^14 liegt die Wahrscheinlichkeit sie einmal komplett fehlerfrei lesen zu können bei etwa 0,75, für 2 Platten (also bei Rebuild eines RAID 5 welches aus 3 solcher HDDs besteht) dann bei 0,75² = 0,5625. Für mein RAID5 mit meinen 5 3TB WD Red wäre also bei Ausfall einer Platte die Chance die anderen 4 fehlerfrei zu lesen noch 0,75^4 = 0,316, also bei fast einem Drittel und nicht praktisch 0. Mit 8 solcher Platten ist man dann aber schon bei 0,1 also 10% Chance angekommen und wenn man die großen 6TB Red oder Red Pro mit ihren ebenfalls nur 1:10^14 (bei Red Pro steht im Datenblatt zwar 10:10^15 aber soll nur besser aussehen, denn es ist auch nur 1.10^14, also ein klarer Fall von Kundenverarschung) nimmt, bei denen die Chance für eine Platte nur bei 0,5 liegt und davon 8 im RAID 5 betreibt, also im zweifel 7 beim Rebuild fehlerfrei lesen muss, dann sind es 0,5^7 = 0,0078, also keine 0,8% Wahrscheinlichkeit für ein Gelingen des Unterfangens. Dann muss man wirklich hoffen, dass die eigene Platten die Werksangabw deutlich schlagen, denn die ist ja immer <=.

Zum Vergleich ist bei einer UBER von 1:10^15 die Wahrscheinlichkeit eines Fehler pro etwa 120TB gegeben und damit kann man eine 6TB HDD also 19 von 20 mal fehlerfrei komplett lesen, also mit einer Wahrscheinlichkeit von 0,95, 7 davon also mit 0,95^7 = 0,698, hat also rund 70% Chance auf ein erfolgreiches Rebuild eines RAID 5 mit 8 solcher HDDs, im Vergleich zu weniger als einem Prozent wenn man HDDs mit einer UBER von 1:10^14 genommen hätte.

Nimmt man übrigens die Mission Critical Enterprise HDDs mit 15.000 rpm die eine UBER von 1:10^16 und maximal 600GB haben, so ist dort statistisch erst bei 2000 mal Lesen der Kapazität ein Fehler wahrscheinlich, es gibt also eine Wahrscheinlichkeit von 0,9995. Ein RAID 5 aus 8 davon hat bei Ausfall einer HDD immer noch eine Wahrscheinlichkeit von 0,9965 für ein erfolgreiches Rebuild und selbst bei 25 Stück davon in einem RAiD 5 ist die Chance das die verbleibenden 24 das Rebuild packen bei 0,988, also 98,8%, daher sind RAID 5 in Unternehemn durchaus nicht unüblich und bei 98,8% braucht man auch nicht viel Glück damit es klappt, da hat man viel Pech gehabt wenn es nicht funktioniert hat.

Ich dachte die ganze Zeit, dass ich mich mit meinen 10x Samsung F1 1TB @ Raid5 auf dünnem Eis bewege.
Das tust Du auch! Einmal haben die auch nur eine UBER von 1:10^14, also bei 1TB hast Du dann bei 9 Platten immer noch eine Chance von 45,7% auf ein erfolgreiches Rebuild, aber das sind RAID Platten, da gehst Du das Risiko ein wegen der Schwingungen der anderen HDDs, beim Rebuild sind ja immer alle gleichzeitig aktiv, dann mehr Probleme und danit eine erhöhte Fehlerwahrscheinlichkeit zu bekommen und dann könnte es bei einem HW-RAID auch noch Probleme mit der TLER (bzw. ERC bzw. CCTL) zu bekommen. Das sind alles verschiedene Begriffe für das Gleiche, TLER steht für Time-Limited Error Recovery, ERC für Error Recovery Control und CCTL für Command Completion Time Limit und meint die Zeit die eine Platte versucht selbst mit einem Fehler klar zu kommen. Das ist vor allem beim Versuch einen problematischen Sektor doch noch zu lesen relevant und das versuchen die SATA Platten alle bis sie es schaffen oder eben der Timeout erreicht ist und dann geben sie einen Lesefehler aus, wenn sie es nicht geschafft haben und haben einen schwebenden Sektor in den S.M.A.R.T. Werten.

Bei HDDs von denen man sagt sie hätten TLER (oder ERC..) ist das nicht anderes als bei denen die dies nicht haben, der Unterschied ist aber, dass bei denen mit TLER der Timeout einstellbar ist und ab Werk kürzer voreingestellt wurden. Bei SAS und FC Platten in Profi-RAIDs ist das übrigens i.d.R. kein Thema, die kann man auch mit 520 oder 528 Bytes pro Sektor formatieren und dann legt der Controller auf den zusätzlichen 8/16 Bytes eine eigene ECC ab und gibt den HDDs auch Befehle die Daten immer nur einmal zu lesen. Anhand der ECC erkennt er sofort selbst wenn eine Platte ein Problem mit einem Sektor hat, dann liest Daten aller anderen Platten an der Stelle, rekonstruiert anhand der Daten und der Parity die Daten des fehlerhaften Sektors und schreibt sie neu, wobei die Platten dann solche Daten prüfen und den Sektor wenn er defekt ist durch einen Reservesektor ersetzen, was auch bei den SATA Platten passiert und deshalb haben Platten in echten RAIDs (also nicht RAID 0, da gibt es ja keine Redundanz für die das R in RAID steht) auch nie schwebende Sektoren in den S.M.A.R.T. Werten.

SATA Platten erlauben es aber eben nicht andere Sektorgrößen zu verwenden und daher sind das sowieso eigentlich irgendwo Krüppellösungen die eben mit solche Problemen wie der TLER versuchen die Probleme zu umschiffen die echte Profisysteme gar nicht erst haben.
Umso mehr war ich verwundert, dass diese eine URE von 1 zu 10^15 haben. Das findet man eigentlich nur bei WD Pro bzw. Enterprise-HDDs, oder?
Bei der Red Pro steht 10:10^15 im Datenblatt, was nur eine Form ist 1:10^14 auszudrücken, man könnte auch 0,1:10^13 oder 100:10^16 dafür schreiben, ist alles das Gleiche, nur fallen eben viele Leser wenn sie nur 10^15 sehen drauf rein und achten gar nicht auf die 10 statt der 1 vor dem :, wobei das bei Toshiba sogar im Datenblatt der MG Enterprise Nearline steht: "Non-recoverable Error Rate: 10 errors per 10^16 bits read"! Für mich sind solche Verarschungen ein klarer Grund mich bei anderen Anbietern umzusehen! Die HGST Deskstar NAS hat leider auch nur eine UBER von 1:10^14, die Seagate Enterprise NAShaben dagegen eine "Nonrecoverable Read Errors per Bits Rate: 1 sector per 10E15" und 300TB Workload Rating im Datenblatt stehen und das ganz ehrlich ohne eine 10:10^x Verarschung und ebenso die 8 TB Surveillance, aber dort nur die 8TB und nicht die kleineren Versionen der Surveillance Reihe.
Das bedeutet, ich muss in Zukunft viel tiefer in die Tasche greifen, um in Zukunft meine 20TiB zu verwalten. :rolleyes:
Das würde ich empfehlen, wenn Du eine gute Chance auf ein Rebuild haben willst, aber Augen auf beim Blick auf die Angaben in den Datenblättern, da versuchen leider einige Hersteller den Kunden Sand in die Augen zu streuen.

Wäre es da nicht besser statt das Raid zu erweitern einfach gute und günstige Desktop-HDDs zu kaufen und diese zu spiegeln (nicht Raid1, nur einzeln gespiegelt)
Desktoplaufwerke in RAIDs, vor allem HW-RAIDs sind keine gute Idee und ein Backup, falls Du das mit spiegeln meist, ist sowieso Pflicht, da RAIDs keine Backups ersetzen können!

Braucht man für SAS T10 PI detection spezielle SAS-HDDs oder spezielle Controller?
Ja, das müssenPlatten sein die auf eine anderen Sektorgröße als 512 Byte formatiert werden können, was die SATA Norm gar nicht erlaubt. Aber das geht nun wirklich etwas weit, vorher sollte man schon bei anderen Dingen ansetzen, wie dem Backup des RAIDs und einem Rechner der auch ECC RAM unterstützt, liegen RAM Fehlerraten doch noch einmal deutlich höher, bei 778 bis 25.000 FIT/Mbit (FIT = failure rate in 10^9 device hours) als Harddiskfehler mit T10 PI.
Die billigen Platten brauchen bei einem Rebuild länger, weil ständig etwas korrigiert werden muss. Je länger der Rebuild dauert, desto länger besteht auch das Risiko für völligen Datenverlust bevor das Rebuild abgeschlossen ist.
Da ich jetzt die Quelle nicht gelesen habe, kann ich das nun nicht so einsortieren, aber im Prinzip ist die UBER natürlich für die Platte wie sie ist, also auch mit der TLER Einstellung ab Wert und da ist bei den Desktopplatten eben der Timeout höher voreingestellt. Bei den WD Green müsste es 14s sein, bei den Red ist es 7s, weil HW RAID Controller i.d.R. einen Timeout von 8s für die Anwortzeit der Platten haben, eine Platte die in der Zeit nicht antwortet dann also als defekt aus dem RAID fliegt. Passiert einem das beim Rebuild, dann ist das RAID danach nicht mehr nur degraded sondern FAILED und damit flöten. Daher ist der Eindatz von Desktopplatten für ein RAiD und vor allem für ein HW-RAID nicht zu empfehlen!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh