Toshiba MG10F im Test: Toshibas neue Enterprise-Festplatte mit 22 TB

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.944
Toshiba bringt die 22-TB-Variante der MG-Serie unter dem Namen MG10F auf den Markt. Daraus lässt sich bereits schließen, dass das neue Modell noch sehr nah mit der MG10 verwandt ist, welche wir mit 20 TB bereits getestet haben. Wie sich die Festplatte einzeln aber auch im RAID in unserem Festplattentestsystem schlägt, könnt ihr in diesem Artikel nachlesen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Firebl:

Weist du eigentlich wieso Toshiba oftmals 4 Datenleitung zum Inneren der HDD hat, Seagate, WD und co. aber nur 3? Fiel mir gerade das erste Mal bewusst auf.

EDIT:
Muster 1 klingt im Video aber sehr viel lauter/unruhiger, als Muster 2. oO Wurden beide auch bei der Schallpegelmessung mal verglichen? :hmm:

2 Seiten weiter ... :fresse:
 
Zuletzt bearbeitet:
hmmm ... 600€
Sollten nicht die QLC SSDs dafür so langsam interessant werden?
Ich habe mit letztes Jahr noch einen Schwung 8TB QVO SSDs für ~265€ geholt (halt mit Prozenten von shoop usw.).
D.h. 2x 8TB = 16TB für ~600€.
Die SSDs laufen in einem Raid5 Verbund und ich kann doch einige Unterschiede zu einem HDD Raid feststellen.
 
Die üblichen und gefallenden Toshiba's sind aber die MG08ACA, MG09ACA und die MG10ACA. Dieses F-Stück ist etwas seltsam. Weiß jemand was diese F-Stücke sind und worin sie sich von den C-Stücken unterscheiden?
 
Die SSDs laufen in einem Raid5 Verbund und ich kann doch einige Unterschiede zu einem HDD Raid feststellen.

Wikipedia meint man benötigt mindestens 3 Laufwerke für Raid 5. Vielleicht bin ich nur Müde und kann nicht sinnerfassend den Zusammenhang erkennen zwischen
2x 8TB SSD .... und laufen im Raid 5.
Querverweis: https://en.wikipedia.org/wiki/Standard_RAID_levels

Wenn man die nötigen SATA Anschlüsse hat kann man gern ein Raid5 mit SATA SSDs machen.
nur sollte man das nicht vergessen 1 Laufwerk mit 1 SATA Anschluss vs mehere Laufwerke mit mehreren SATA Anschlüssen und mehreren Befestigungsmöglichkeiten und mehreren Netzteil-Versorgungskabel pro Laufwerk.
 
hmmm ... 600€
Sollten nicht die QLC SSDs dafür so langsam interessant werden?
Wenn man Spielkram machen will, ja. Wir reden hier aber von der Enterprisewelt und da kostet eine 15TB SSD >1,2k, daher als für die Kapa 1,8k. Da scheinen wir 0,6k ein guter Deal zu sein.
Gepaart mit dem Umstand, dass es auf die Workload ankommt. Da wo ne HDD reicht, bringt ne SSD keinen Mehrwert. Das kann sogar nachteilig sein, z.B. Leistungsaufnahme (Problem beim green data center z.B.)
 
Die üblichen und gefallenden Toshiba's sind aber die MG08ACA, MG09ACA und die MG10ACA. Dieses F-Stück ist etwas seltsam. Weiß jemand was diese F-Stücke sind und worin sie sich von den C-Stücken unterscheiden?
Die MG10AFA22TE unterscheidet sich nur durch die erhöhte Dichte auf den Plattern von der MG10ACA20TE. Du hast halt 2,2 TB/Platter anstelle von 2 TB/Platter. Hab ich aber auch im Artikel geschrieben :) Man hat es geschafft noch ein paar mehr Spuren herauszuholen und die Tracks dichter zu schreiben


@Mr.Mito, nö, aber ich kläre das!
 
Die MG10AFA22TE unterscheidet sich nur durch die erhöhte Dichte auf den Plattern von der MG10ACA20TE. Du hast halt 2,2 TB/Platter anstelle von 2 TB/Platter. Hab ich aber auch im Artikel geschrieben :)


@Mr.Mito, nö, aber ich kläre das!
Dann hat die MG10AFA mit 20 TB einen Platter weniger und die Platter haben eine höhere Dichte?
 
Dann hat die MG10AFA mit 20 TB einen Platter weniger und die Platter haben eine höhere Dichte?
Nein, beide haben 10 Platter. Die MG10ACA20TE somit 2,0 TB/ Platter und die MG10AFA22TE hat 2,2 TB/Platter.
Bei der MG10F konnte man die Dichte der Daten steigern und kam so mit 10 Plattern auf 22 TB. So sollte es verständlicher sein. Das reicht aber nicht aus um mit 9 Plattern auf 20 TB zu kommen. Daher hat die MG10F mit 20 TB (MG10AFA20TE) auch 10 Platter
 
Nein, beide haben 10 Platter. Die MG10ACA20TE somit 2,0 TB/ Platter und die MG10AFA22TE hat 2,2 TB/Platter.
Bei der MG10F konnte man die Dichte der Daten steigern und kam so mit 10 Plattern auf 22 TB. So sollte es verständlicher sein.
Du schreibst noch: "Neben der Variante mit 22 TB ist auch eine MG10F-Variante mit 20 TB verfügbar." Das meine ich. Wieviele Platter hat dann die 20 TB Version? Die alte MG10ACA20TE hat ja 10 zu je 2 TB. Aber bei der neuen geht doch die Multiplikation nicht auf.

Wenn die neue MG10F mit 10 Plattern auch 10 hat, welche Unterschiede zur MG10 gibt es dann noch?
 
Schau mal, ich hatte es editiert, als du schon geschrieben hast. Sie hat natürlich auch 10 Platter und wird einer künstlich eingeschränkten MG10AFA22TE entsprechen. Genauso funktioniert es bereits seit Jahren. Die ersten beiden ST14000NE0008 hatten erst 8 Platter und dann 9 Platter bei gleichen 14 TB. Hier hat man einfach die überschüßige Kapazität beschränkt. So konnten damals sowohl die 14er als auch die 16er mit 9 Plattern vom selben Band laufen. Die MG10AFA20TE wird auch einfach nur eine beschränkte 22-TB-Variante sein. Alles andere würde Produktionsstillstand bedeuten zum Produktwechsel, was keinen Sinn machen würde.
 
hmmm ... 600€
Sollten nicht die QLC SSDs dafür so langsam interessant werden?
Nein, denn erstens sind diese 600€ natürlich total übertrieben, wie es der Handel bei neuer Hardware gerne macht, die pro TB günstigste 3.5" HDD ist derzeit die Seagate Exos X18 18TB ab € 265,21, also für € 14,734/TB, während die billigste SSD ab € 39,900/TB gelistet ist, also 2,7 mal so teuer pro TB und das ist eine Intenso Consumer SSD, also keineswegs mit einer Enterprise HDD zu vergleichen.
Ich habe mit letztes Jahr noch einen Schwung 8TB QVO SSDs für ~265€ geholt
Jetzt kostet sie über 526€:

Die NAND Preise waren im letzten Jahr extrem niedrig, weit unter den Herstellungskosten und daher haben die NAND Hersteller, die NANDs machen den Löwenanteil der Kosten einer SSD mit größerer Kapazität aus, ja auch Milliardenverluste gemacht und die Fertigung gedrosselt. Wer also auf der Basis der SSD Preise im letzten Jahr gehofft hatte, es würde nicht mehr lange dauern bis die SSDs pro TB so billig wie HDDs werden, der hat sich geirrt. Die NAND Hersteller können eben auch nicht dauerhaft mit Verlust arbeiten, denn dann würden sie früher oder später pleite sein.

Das Problem ist, dass man bei NAND die Fertigungskosten kaum noch senken kann, man ist schon in der dritten Dimension, aber mehr native Layer erhöhen die Kosten, da für jeden Layer zusätzliche Bearbeitungsschritte nötig sind, was Geld kostet und das Risiko erhöht durch Fehler den ganzen Wafer zu verlieren. Dann macht man schon Stacking, da spart man bei einem Stack die Logik, die braucht man ja nur einmal, aber wenn man zwei Dies übereinander packt, braucht man eben auch zwei Wafer um am Ende so viele Dies zu erhalten wie bei einem Wafer, so viel spart man damit also auch nicht. Dann kann man die Anzahl der Bits pro Zelle steigern, wir sind aktuell bei maximal 4 (QLC) und 5 waren schon vor langer Zeit mal angekündigt und man kann die Größen und Abstände der Zellen verringern, aber schon bei den letzten planaren 16nm NANDs waren diese so kritisch klein, dass es noisy neighbor Probleme gab, die Zellen sich also gegenseitig beeinflusst haben und sie waren so klar, dass da nur noch sehr wenige Elektronen pro Zelle gespeichert wurden:
Mit den 3D NANDs haben sie dann die Größen und Abstände der Zellen wieder deutlich erhöht, weshalb dann ja auch QLC möglich wurde, aber man kann eben nicht beides gleichzeitig machen, also nicht mehr Bits pro Zellen (was Nachteile bzgl. der Schreibgeschwindigkeit und Haltbarkeit hat) und zugleich die Abstände und Größe der Zellen zu weit reduzieren.

Welche Großen Schritte sollen da also noch kommen können um die Kosten signifikant zu senken? Dagegen haben die HDD Hersteller noch neue Technologien in der Pipeline, wie eben z.B. HAMR, wo Seagate ja nun scheinbar endlich vor dem Durchbruch steht um diese auf den Markt zu bringen:

Klar wird dies mehr kosten, gerade am Anfang dürften die Kosten für die neue Technologie einiges mehr kosten, aber mit dem Volumen wird dieser Aufpreis fallen und pro TB werden diese HDDs dann deutlich günstiger als heute sein. Deshalb sehe ich nicht, dass SSD jemals den Preis pro TB von solchen HDDs unterbieten werden.
Dann hat die MG10AFA mit 20 TB einen Platter weniger und die Platter haben eine höhere Dichte?
So einfach ist das nicht, denn für die 22TB wird Toshiba alle Platter mit einer sehr geringen Anzahl an Fehlern auf der Oberfläche brauchen und dann bringt man eben eine 20TB Version die auch 10 Platter mit theoretisch je 2,2TB bringen, dort aber die Platter verbauen die wegen zu vielen Oberflächenfehlern diese Kapazität in der Praxis aber nicht erreichen und sie dort verwursten.
Beitrag automatisch zusammengeführt:

Sie hat natürlich auch 10 Platter und wird einer künstlich eingeschränkten MG10AFA22TE entsprechen. Genauso funktioniert es bereits seit Jahren. Die ersten beiden ST14000NE0008 hatten erst 8 Platter und dann 9 Platter bei gleichen 14 TB. Hier hat man einfach die überschüßige Kapazität beschränkt.
Wobei ich eher davon ausgehe, dass diese mehr eine Restverwertung ist als ein rein künstliches Limit. Diese Restverwertung ist ja auch nicht neu:
 
Zuletzt bearbeitet:
@Firebl:

Weist du eigentlich wieso Toshiba oftmals 4 Datenleitung zum Inneren der HDD hat, Seagate, WD und co. aber nur 3? Fiel mir gerade das erste Mal bewusst auf.
Meinst du die Leitung, die an der Unterseite in die Mitte geht?
Das ist die Ansteuerung vom Motor und keine Datenleitung. Die Datenleitungen verschwinden unterhalb der Platine, weil da auch die Köpfe/Arme sind.

Warum 3 oder 4 Leitungen zum Motor gehen liegt an der Anzahl der Phasen, sprich wie der Motor selber gebaut ist.
Kann man sich wie bei einem normalen Motor in einer Kreissäge z.B. vorstellen. Da gibt es auch 1 oder 3 Phasenvarianten von.

@Firebl
Im 3. Absatz gehst du auf die Schnittstellen ein, allerdings fehlt die Angabe, dass es eine SATA Variante der Serie gibt.
 
Zuletzt bearbeitet:
So einfach ist das nicht, denn für die 22TB wird Toshiba alle Platter mit einer sehr geringen Anzahl an Fehlern auf der Oberfläche brauchen und dann bringt man eben eine 20TB Version die auch 10 Platter mit theoretisch je 2,2TB bringen, dort aber die Platter verbauen die wegen zu vielen Oberflächenfehlern diese Kapazität in der Praxis aber nicht erreichen und sie dort verwursten.
Beitrag automatisch zusammengeführt:


Wobei ich eher davon ausgehe, dass diese mehr eine Restverwertung ist als ein rein künstliches Limit. Diese Restverwertung ist ja auch nicht neu:
Praktisch eine Art Resteverwertung von Plattern, die die vollen 2,2 TB nicht schaffen. Die nämlich landen alle in der 22 TB Version.

Edit: @Holt Du hast es dann selbst geschrieben. (y)
 
Meinst du die Leitung, die an der Unterseite in die Mitte geht?
Das ist die Ansteuerung vom Motor und keine Datenleitung. Die Datenleitungen verschwinden unterhalb der Platine, weil da auch die Köpfe/Arme sind.

Warum 3 oder 4 Leitungen zum Motor gehen liegt an der Anzahl der Phasen, sprich wie der Motor selber gebaut ist.
Kann man sich wie bei einem normalen Motor in einer Kreissäge z.B. vorstellen. Da gibt es auch 1 oder 3 Phasenvarianten von.

@Firebl
Im 3. Absatz gehst du auf die Schnittstellen ein, allerdings fehlt die Angabe, dass es eine SATA Variante der Serie gibt.
Okay ich dachte auch an die Flachbandkabel von der Platine unterhalb und hatte nicht anchgesehen. Wenn die Leitungen zum Antrieb gemeint sind, die sind tatsächlich für die Versorung.
Der Antrieb dürfte eine bürstenlose Synchronmaschine (Modellbauer sagen gerne "Brushless") sein, aber wieso genau mal vier und mal drei kann ich auch nicht sagen.
 
Zuletzt bearbeitet:
Ja, de Geräuschkulisse der Toshiba Enterprise kann enorm werden! Das kenne ich von meinem NAS, in dem die 14TB-Variante verbaut ist. Aber sie ist eben auch ein sehr preiswertes Modell. Muß man mit leben oder schauen, wie man sie "gestillt" bekommt. Mir ist das mit Klettband gelungen....
 
Gerade Enterprise-Festplatten sollten fest verschraubt werden. wobei das bei allen Festplatten wichtig ist. So ein freies Schwingen geht auf die Haltbarkeit der Festplatte. Wenn dir die Lautstärke so wichtig ist, solltest du daraufhin optimierte Festplatten nehmen.
 
Warum sind denn nicht die 20TB und 18TB Vorgänger Modelle mit ihren Werten im Test aufgelistet?
 
Wir haben letztes Jahr ein neues Testsystem im Bereich Festplatten eingeführt.

Das ist der letzte Test des alten Systems:

Bei Gelegenheit würde ich die MG10ACA20TE nochmal durch laufen lassen, aber manche Festplatten wollten die Hersteller auch wieder zurück und sind somit nicht nocheinmal testbar.
 
Wir haben letztes Jahr ein neues Testsystem im Bereich Festplatten eingeführt.

Das ist der letzte Test des alten Systems:

Bei Gelegenheit würde ich die MG10ACA20TE nochmal durch laufen lassen, aber manche Festplatten wollten die Hersteller auch wieder zurück und sind somit nicht nocheinmal testbar.
Ein erneuter Test der MG10ACA20TE wäre sehr gut. Ich würde mir diesen definitiv anschauen.
 
Gerade Enterprise-Festplatten sollten fest verschraubt werden. wobei das bei allen Festplatten wichtig ist. So ein freies Schwingen geht auf die Haltbarkeit der Festplatte. Wenn dir die Lautstärke so wichtig ist, solltest du daraufhin optimierte Festplatten nehmen.
Ist ein Mißverständnis. Die Platten sind fest montiert! Sogar fester als original von Synology vorgesehen.
Der Trick geht so: Man besorgt sich selbstklebendes Klettband - für Synos DS (hier die DS1821+) in 20mm Breite. Da gibt es zwei Komponenten - die Seite mit den Häkchen und die mit dem Flausch. Und die Flausch-Streifen klebt man oben und unten in die Führungsschienen. Dann schiebt man die HDD-Rahmen wieder ein und verriegelt sie.

Das entkoppelt die HDD-Rahmen vom DS-Gehäuse. Alles andere bleibt, wie es ist, der Luftstrom kann ungehindert durch und die Platten schwingen auch nicht frei wie bei Gummi-Lagern. Eher im Gegenteil, die Schublade sitzt ja insgesamt strammer als zuvor im Gehäuse.


Der Trick wird im Synology-Forum hoch gehandelt und es wirkt kolossal! Ich sitze hier direkt neben der DS und höre eigentlich nur die Klopfgeräusche beim Zugriff auf die Platten. Die Motorschwingungen, die bei Toshibas Enterprise-Platten so hart werden können, daß das ganze NAS mit vibriert und es auch zu Interferenzeffekten aufgrund der gleichartigen Frequenz identischer Platten kommt, sind weg!
 
Hmm, ich war von der Angabe
maximaler jährlicher Workload550 TB
etwas irritiert. Habe aber gerade recherchiert, dass andere Hersteller bei Enterprise Platten offenbar im gleichen Bereich liegen. War mir ehrlich gesagt nie so aufgefallen.

Ist das nicht für eigentlich verdammt wenig? Mir ist klar, dass die Dinger in der Praxis regelmäßig mehr aushalten werden. Aber wenn man nach der Maßgabe mal rein von den garantierten „Drive Writes“ á la SSD ausgeht finde ich das irgendwie dünn?
 
Habe aber gerade recherchiert, dass andere Hersteller bei Enterprise Platten offenbar im gleichen Bereich liegen. War mir ehrlich gesagt nie so aufgefallen.
Die Enterprise HDDs sind alle mit 550TB / Jahr angegeben und dies bedeutet, dass man sie auch mit Dauerlast betreiben kann.
Aber wenn man nach der Maßgabe mal rein von den garantierten „Drive Writes“ á la SSD ausgeht finde ich das irgendwie dünn?
Ja, zumal bei HDDs eben auch das gelesene Datenvolumen zum Workload zählt und nicht wie bei SSDs nur das geschriebene. Aber wie gesagt sind die 550TB seit Jahren Standard und bedeuten eben, dass sie auch Dauerlast vertragen. Bei Enterprise HDDs muss man sich um die Datenvolumen also keine Sorgen machen.
 
Hmm, ich war von der Angabe
maximaler jährlicher Workload550 TB
etwas irritiert. Habe aber gerade recherchiert, dass andere Hersteller bei Enterprise Platten offenbar im gleichen Bereich liegen. War mir ehrlich gesagt nie so aufgefallen.

Ist das nicht für eigentlich verdammt wenig? Mir ist klar, dass die Dinger in der Praxis regelmäßig mehr aushalten werden. Aber wenn man nach der Maßgabe mal rein von den garantierten „Drive Writes“ á la SSD ausgeht finde ich das irgendwie dünn?
Was Holt sagte bringt es auf den Punkt.

Falls du noch etwas mehr darüber lesen willst, hatte ich das mal ausgiebig aufgedröselt.
 
Wobei ich da einigen Punkten unter "Was ist der Maximum Rated Workload?" (den Rest habe ich nicht gelesen) widersprechen möchte.
Bei SSDs kennen wir die Angabe TBW – Terabyte written (geschriebene Terabyte) – schon länger. Dort gibt es die Angabe der Abnutzung der Speicherzellen und sie sagt aus, wieviel „Wearlevel“ bzw. Lebenszeit der SSD noch zur Verfügung steht.
Nein, die TBW ist nur eine zusätzliche Einschränkung der Garantie und während manche Hersteller da übervorsichtig zu sein scheinen, übertreiben es andere offenbar. Hohe TBW Angaben helfen die SSD zu verkaufen und die wenigsten Heimanwender werden es schaffen auch nur einen Bruchteil der TBW innerhalb der Garantiedauer zu schreiben, aber als Chia aufgekommen ist und damit das Risiko real wurde das viele die TBW innerhalb der Garantiedauer ausreizen werden, hat z.B. PNY bei der XLR8 CS3030 massiv gesenkt:

Bei Enterprise SSDs würde das eher zutreffen, aber da wird normalerweise keine TDP angegeben, sondern die DWPD.

Bei Festplatten gibt es diese Einschränkung nicht, da, bis auf den Lagerverschleiß des Hauptantriebs und eventueller begrenzter Lebenszeit der Elektronik, das eigentliche Schreib-/Leseverfahren berührungslos im Flug über den Platter geschieht.
Dies stimmt schon lange nicht mehr, die HDDs arbeiten schon lange im Teilkontaktbereich und genau als dies eingeführt wurde, kam auch die Workload Rating Angaben auf. Die HDD Hersteller haben da nie offen drüber gesprochen, aber dies war damals eine gewaltige Änderung und hat eben damit zur Folge, dass die Oberflächen der Platter und Köpfe mit Schutzschichten versehen wurden und es ein Schmiermittel gibt, eben um den Verschleiß zu minimieren und dabei gibt es offenbar eben auch Unterschiede zwischen verschiedenen Modellen, was dann zu unterschiedlichen Workload Ratings geführt hat.

Die Köpfe werden bei Aktivität durch Erwärmung noch dichter an die Oberfläche des Platter gebracht:

Dynamic Fly Height (DFH) 2.png


Auch hier ist es idealisiert dargestellt, da die Köpfe eben über die größeren Erhebungen nicht mehr immer hinwegfliegen, sondern darüber schliddern, deswegen braucht man ja die Oberflächenbeschichtungen und Schmierung, die ihrerseits wieder Probleme machen.

HDD HDI Head Disk Interface.png

HDD HDI Head Disk Interface 2.png

HDD Head Wear.png


Würden die Köpfe wirklich immer ohne Kontakt zur Oberfläche über diese hinwegfliegen, gäbe es keine Abrieb, aber der ist eben vorhanden und daher gibt es auch das Workload Rating, denn immer wenn gelesen oder geschrieben wird, dann "schleifen" die Köpfe eben über einige Stellen der Oberfläche, statt darüber hinweg zu fliegen.

Toshiba hat sogar ein Dual Heater System entwickelt:
Dual-Heater.png


Auch diese Darstellung ist idealisiert, denn so plan wie in der Zeichnung ist die Oberfläche in Wirklichkeit eben nicht, wenn man in den nm Bereich geht um den es hier geht. Außerdem wird man kaum das Read Element so weit absenken wollen wie das Write Element, denn das Problem mit der Verkleinerung der Strukturen ist ja das Schreiben, da bekommt man dann irgendwann einfach kein ausreichend starkes Magnetfeld mehr hin um die Magnetisierung damit ändern zu können, weshalb man ja z.B. bei HAMR eben einen kleinen Bereich erwärmt da sich die Magnetisierung dann dort leichter ändern lässt. Das Lesen ist weniger problematisch, da reichen auch kleine Magnetfelder um diese noch zu erkennen, den Lesekopf braucht man also nicht so dicht an die Platteroberfläche zu bringen wie den Schreibkopfe und damit hätte man dann beim Workloadrating im Prinzip auch einen Unterschied zwischen den gelesen und dem geschriebenen Datenvolumen.

Aber die Hersteller sprechen eben nicht darüber. Dies kam ja ungefähr in der Zeit auf, als auch die ersten SSDs in Consumerbereich aufgetaucht sind und damals hatten alle Sorgen um die Haltbarkeit der NANDs, die ja eben nicht ewig halten, sondern nur eine bestimmte Anzahl an P/E Zyklen überstehen und damit einem Verschleiß unterliegen. Vermutlich wollten die HDD Hersteller es da nicht so offen sagen, dass dies bei HDDs nun auch der Fall ist. Wobei die 15krpm Enterprise HDDs übrigens meines Wissens nach nie ein Workload Rating bekommen haben, weil man da die Datendichte nie so weit erhöht hat, dass man in den Teilkontaktbetrieb übergehen musste. Die Erhöhung der Datendichte war eben der Grund dafür, da man hierfür den Abstand der Köpfe noch weiter senken musste eben um beim Schreiben die Magnetisierung überhaupt noch ändern zu können, weil die immer kleineren Schreibköpfe sonst zu schwach dafür gewesen wären.

Jeder Hersteller gibt eine MTBF – Mean Time Between Failure – an. Diese mittlere Betriebszeit bis zum statistischen Ausfall des Gerätes, ist bei Festplatten eine recht hohe Stundenanzahl.
Die gilt aber nur während der vom Hersteller geplanten Nutzungsdauer und die beträgt in aller Regel 5 Jahre, weshalb es eben auch keine Lebenserwartung ist oder in eine Lebenserwartung umgedeutet werden kann.
 
Zuletzt bearbeitet:
Das lustige Argument mit den SSD schon wieder. 15cent pro GB vs 80 bis 100 für Serverqualität. Spielsachen mit einer QVO sind doch nicht vergleichbar, auch nicht im NAS.
 
Die Enterprise HDDs sind alle mit 550TB / Jahr angegeben und dies bedeutet, dass man sie auch mit Dauerlast betreiben kann.

Ja, zumal bei HDDs eben auch das gelesene Datenvolumen zum Workload zählt und nicht wie bei SSDs nur das geschriebene. Aber wie gesagt sind die 550TB seit Jahren Standard und bedeuten eben, dass sie auch Dauerlast vertragen. Bei Enterprise HDDs muss man sich um die Datenvolumen also keine Sorgen machen.
Ich sehe das ehrlich gesagt etwas kritischer. An einem RAID-Controller ist es nicht unüblich auf Bit-Ebene wöchentlich ein Verify zu machen. Allein durch dieses Verify kommen bei 22TB im Jahr dann etwa 1100TB gelesene Daten zusammen, so dass die angegebene maximale Workload von 550TB p.a. um 100% überschritten wird - und die "echten" Lese- und Schreibvorgänge sind nichtmals inkludiert.

Ich freue mich über jeden Festplatten Testbericht, daher bitte nicht falsch verstehen, aber bei einer "Enterprise"-Platte würde ich mir auch einen Benchmark wünschen, bei dem die Festplatte einmal vollständig (meinetwegen mit großen Daten) beschrieben und ausgelesen wird. Meine Erfahrung ist, dass relativ früh die Platte anfängt "Pausen" einzulegen und die Datenate auch mal auf 30MB/s runterbricht oder die Platte sich auch mal länger reorganisieren muss. Bonus wäre Parity-Checks anschließend, aber da kann man den Herstellern, Dateisystemen etc. vielleicht auch einfach vertrauen.

Darüber hinaus wäre ein realistisches RAID-Szenario wir ein RAID-1/-5 und -6-Rebuild interessant. Stelle ich mir sowohl an einem Software-RAID im Synology als auch an einem Hardware-RAID wie ein Albtraum vor. Wie lange wird sowas dauern ein 66TB mit 4x22TB im RAID-5 zu rebuilden? Eine Woche? Ein Monat?

In meinen Augen verkaufen die Hersteller unter dem Marketing-Begriff "Enterprise" Festplatten, die einfach nur größer und im Zugriff lauter sind als die Pre-Helium-Generationen. Wirklich Enterprise ist da nicht viel.
 
Gerne kann ich deine Ideen mit in den Testparcours aufnehmen. Hast du einen bestimmten Benchmark im Sinn für das Vollschreiben oder einfach nur Daten kopieren?
Wie du vielleicht gelesen hast, haben wir, was Hardware-RAID angeht, mächtig aufgerüstet. Sollte uns mal mehr Muster zur Verfügung stehen, kann ich die Rebuilds gerne testen. Bis dahin bin ich sehr froh, dass wir auch wenigstens RAID-0-Ergebnisse bieten können.
Was die Angaben im Datenblatt angeht, so können wir daran nichts ändern :)
 
Gerne kann ich deine Ideen mit in den Testparcours aufnehmen. Hast du einen bestimmten Benchmark im Sinn für das Vollschreiben oder einfach nur Daten kopieren?
Wie du vielleicht gelesen hast, haben wir, was Hardware-RAID angeht, mächtig aufgerüstet. Sollte uns mal mehr Muster zur Verfügung stehen, kann ich die Rebuilds gerne testen. Bis dahin bin ich sehr froh, dass wir auch wenigstens RAID-0-Ergebnisse bieten können.
Was die Angaben im Datenblatt angeht, so können wir daran nichts ändern :)
Das wäre schonmal super. Einen bestimmten Benchmark habe ich nicht im Sinn. Vielleicht unter Linux mit dd auf Bit-Ebene kopieren, damit Dateisysteme keine Rolle spielen? Im Zweifel lesend nach /dev/null schreiben und für den Schreibtest lesend von /dev/random? Besser wäre natürlich Quelle und Ziel exakt gleich aufzubauen, da es ein realistischeres Szenario wäre, wenn der Bus zweimal belastet wird.

Grundsätzlich wäre es auch nochmal gut mit so Techniken wie TLER aufzuräumen bzw. da wieder mehr Transparenz rein zu bekommen. Für Software-RAID ist das ja eher nachteilig, aber der Trend geht ja (insbesondere bei SOHO) eher zu Software-RAIDs - da sollte man den Herstellern mal wieder etwas Druck machen, dass solche Daten in den Datenblättern auftauchen.


Edit: /dev/urandom etc. zu nehmen, ist nach sek googlen wohl nicht die beste Idee, da dort viele andere Dinge im Hintergrund im Kernel passieren - war jetzt nur so eine spontane Idee. Mit Benchmarking kenne ich mich nicht so aus - da solltet ihr mir nicht vertrauen :)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh