Wieso sollte man die Archive Platten in einem klassischen RAID benutzen?
Dafür sind sie einfach nicht ausgelegt.
Wenn man ein klassisches HW RAID mein, dann sollte schon das mangelnde ERC/TLER Feature jeden halbwegs vernünftigen Menschen davon abhalten dies zu tun, denn der Timeout bei HW-RAID Controllern ist meist auf nur 8s eingestellt.
Bei Problemen und Datenverlust ist man selber schuld.
Gegen Datenverlust helfen sowieso nur Backups und die Archive v2 ist ja genau die Platte auf der man das Backup anlegen sollte, das ist eine Verwendung für diese HDD.
Ich meine nur damit das ich dort von Seagate was besonderes erwartet hätte.
Du hast doch auch etwas besonderes bekommen: Die erste SMR HDD für Endkunden! Außerdem eine 8TB HDD für die Hälfte von dem was andere Anbieter für eine 8TB HDD verlangen.
Für mich kommt es so vor als ob der Kunden wieder zahlender (!) Beta Tester ist.
Das ist ein Kunde bei neuen Produkten immer, oder glaubst Du irgendein Hersteller kann seine Produkte mit der gleichen Vielfalt an Hard- und SW Bedingungen und Einsatzszenarientesten wie seine Kunden sie haben? Das ist unmöglich, dem kann man nur etwas näher kommen, wenn man wie Apple agiert und möglichst verhindert, dass etwas eingebaut bzw. eingesetzt wird, was man nicht selbst gebaut hat oder wenigstens von einem Drittanbieter kommt und bei Apple zertifiziert wurde. So eine geschlossene Welt reduziert die Vielfalt der möglichen Fehlerquellen natürlich, aber mir würde das nicht gefallen.
Sie läuft so einigermaßen, aber unter sehr suboptimalen Konditionen.
Es ist eben keine HDD wie jede andere und das sie gerade beim Schreiben ein Problem mit der Performance bekommen würde, was spätestens bei der Präsentation der SMR Technologie jedem klar, der ein klein wenig Verständnis für Technik hat. Durch den On-Disk-Cache mindert Seagate das Problem ja schon und mit angepassten Filesystemen wird man wes weiter mindern können, aber auch damit wird es immer Situationen geben, bei denen die SMR HDDs einfach extrem viel langsamer schreiben werden als normale HDDs das machen, das kann man bei der SMR Technik nun einmal nicht verhindern.
Ich bin auch nicht sicher ob ein deaktivieren des NCQ auf dauer die bessere Leistung bringt. Sowas müsste man mal durch testen. Eine Datein nach der anderen rüberschicken.
Erstens sollte man das bei HDDs sowieso immer so machen, da deren Performance bei parallelen Zugriffen wegen der hohen Zugriffszeiten immer extrem leidet, zweitens spielt NCQ dann auch keine Rolle wenn die QD 1 ist und drittens wird auch ohne NCQ nicht eine nach der anderen geschrieben, wenn man zwei gleichzeitig auf die Platte kopiert, dafür sorgt dann das Betriebssystem, das schreibt dann einen Teil der einen Datei, dann einen Teil der anderen usw.
Wenn nun alle großen Platten so lahm sein werden, hoffe ich das bald die 10TB SSD zu bezahlbaren Preisen kommen.
Wenn es um Performance geht, haben SSDs die Nase so weit vorne, da haben die HDD Hersteller den Kampf schon aufgegegen. Mit der Größe der Platte hat das auch nichts zu tun, nur damit obb sie SMR verwendet oder nicht. Es gibt die Archive v2 ja auch mit 5TB und 6TB.
Auch wenn du kein Fan davon bist, wäre vielleicht sogar 5,25" Festplatten die dann nur 4000 Umdrehungen haben schneller und größer.
Ich kann mir nicht vorstellen das es dort in 25 Jahren keine Entwicklung gibt welches die Vibrations Probleme nicht in Griff bekommen sollte.
Auch wenn Du es Dir nicht vorstellen kannst, aber die physikalischen Gesetze gelten noch immer und wenn der Hebel eben entsprechend groß ist, dann werden die Amplituden der Schwingungen auch entsprechend groß sein, was bei den heutigen Datendichten eben ein viel größeres Problem ist als früher. Die 5,25" HDDs werden nicht wiederkommen und es hat auch seinen Grund warum die Hersteller bei den Mission Critical Enterprise HDDs von 3.5" auf 2.5" gewechsel sind und dort die Platten nicht einmal die volle Breite ausnutzen, schau Dir mal an wie so eine HDD innen aussieht und vergleiche den Durchmesser der Plattern mit denen einer 2.5" Consumer HDD.
aber gerade bei Platten im Heimanwenderbereich sollte man das nicht so eng sehen.
Nur sehen die meisten Heimanwender es eben eng, wenn ihr RAID und ihre Daten plötzlich weg sind
Platten die tatsächlich für ein RAID "ausgelegt" bzw. konzipiert und freigegeben/empfohlen werden gibt es NUR im Business/Enterprise Sektor und nicht jeder privater Heimanwender will oder kann sich das leisten.
Das ist richtig, eigentlich sind alle RAID mit SATA Platten nur Krücken, denn bei richitgen SCSI/SAS/FC RAID Platten werden die Sektoren mit 520 oder 528 Byte formatiert und auf diesen 8 bzw. 16 zusätzlichen Bytes legt der RAID Controller selbst eine Prüfsumme ab um Lesefehler sofort erkennen zu können und die Daten dann aus der Parity zu rekonstruieren. Damit braucht die Platte keine wiederholten Leseversuche zu machen, die ganze ERC/TLER Problematik gibt es da gar nicht. Das sind eben die Hilfskrücken um die RAIDs auch mit SATA Platten zu realisieren. Wenn man das richtig macht, reicht das für Heimanwender auch, SAS/FC ist für Enterprise wichtig, aber für Heimanwender überdimensioniert.
Und gerade bei Festplatten ist es meines Wissens nach so daß viele Modelle vom Aufbau her gleich oder sehr ähnlich sind und lediglich die Firmware angepasst ist bzw. das Interface/der Controller etwas anders ist.
Das sind nicht mehr als unbestätigte Gerüchte, die werden nicht wahrer weil sie oft und überall wiederholt werden, denn keiner kann den Platten die Fertigungstoleranzen oder die genaue Zusammensetzung von den Materialien ansehen, etwa welche Legierungen in den Lagern verwendet werden. Oft werden sogar Unterschied wie eine einseitige oder beidseitige Lagerung der Spindel auch schlicht ignoriert. Aber selbst wenn nur die FW den Unterschied macht, so genügt es z.B. beim RAID schon vollkommen, denn alleine die TLER einstelle zu können bzw. wenn diese ab Werk kürzer ist, kann schon den Unterschied zwischen lange problemlos funktionieren und viel Ärger ausmachen.
Die meisten HW-RAID Controller haben ab Werk einen Timeout für die Reaktion der HDDs von 8s, reagiert die Platte nicht in der Zeit wird sie als defekt eingestuft. Der Timeout der WD Green ist ab Werk 14s, der der WD Red 7s, was das bedeutet sollte klar sein.
kein gewisses Schreibvolumen pro Jahr
Bei HDDs zählt auch das Volumen der gelesenen Daten zum Workload, der ist bei einfachen Consumer HDDs eben i.d.R. mit 55TB im Jahr angegeben, bei der Archive v2 mit 180TB / Jahr und bei richtigen 3.5" Enterprise HDDs dann mit 550TB im Jahr, die sind also darauf ausgelegt das Datenvolumen pro Jahr zu bewältigen. Die einfachen Consumer HDDs sollen dagegen nur möglichst billig sein und gerade so über die meist 5 Jahre gedachter Einsatzdauer bei 8 Stunden am Tag und 5 Tagen die Woche Betrieb durchhalten. Das würd edan also so 10400 Stunden (8*5*52*5) halten und im Leben 275 TB lesen bzw. schreiben.
Die doppelt so teure Enterprise HDD werden i.d.R. auf 7 Jahre Betriebsdauer ausgelegt, die dürften 24/7 laufen und bei 550TB im Jahr kommen sie dann im Leben auf 3850 TB (14 mal so viel) und 61320 Stunden, 6 mal so viele.
Ein ganz gutes Beispiel daß RAID eigentlich auch ganz gut mit nicht dafür ausgelegten Platten funktioniert zeigt das Unternehmen Backblaze:
https://www.backblaze.com/blog/best-hard-drive/
Was Backblaze macht kann man mit dem normalen Einsatz bei Heimanwendern überhaupt nicht vergleichen. Das geht schon mit Beschaffung, dem Transport und der Lagerung der Platten los:
Da möchte man gar nicht wissen, wie viele (Seagate) HDDs in den Blister Packungen vom dem Tisch gefallen sind und außerdem sind diese Verpackungen für den Transport in Kofferräumen und den Postversand total unzureichend, die Kartons von WD schützen die HDDs da schon weitaus besser.
Auf jeden Fall würde ich jedem dem diese Statistik über den Weg läuft empfehlen sich auch
diesen Artikel von tweaktown dazu einmal aufmerksam durchzulesen. Deren Fazit kann man sich daher nur anschließen:
Würden die Statistiken mit Enterprise Platten besser aussehen? Ich denke schon, wie viel besser ist halt die Frage.
Das hängt von der Behandlung und den Einsatzbedingungen ab, die sind bei Backblatz offenbar alles andere als optimal, wenn schon der Transport der fertigen Racks so einen Einfluss auf die Ausfallraten hat:
Das würde man bei Backblaze aber niemals offen zugeben, denn deren Geschäftsmodell und dafür sammeln sie regelmäßig Millionen bei Investoren ein, ist es ja mit billigen Consumer HDDs einen Online-Backupdienst zu realisieren.
Dem Konzept werden sie aber selbst zunehmend untreu, die alten WD Green wurden durch die WD Red ersetzt die mehr als die Green kosten, aber wenigstens 24/7 zugelassen sind, die HGST Megascale ist eine OEM Enterprise HDD und kostet deutlich mehr als günstiger Consumer HDDs, die alten HGST Desktop haben auch praktisch für so einen Einsatz relevaten alle Features die auch die Megascale hat, wie 24/7 Zulassung und Virbationssensoren (
HGST nennt die Technik Rotational Vibration Safeguard (RVS)), das waren im Grunde auch Enterprise Platten und mit den einfach Modelle wie der Seagate Barracuda gar nicht zu vergleichen, die waren auch deutlich teurer. Dafür haben sie bei Backblaze auch viel besser durchgehalten.
Bei einigen Modellen wo die Garantie länger ist hat man zumindest länger Anspruch auf Ersatz. Diese sind zwar (gerade nach längerer Zeit) wohl auch Refurbished Modelle, aber besser als nichts.
Tja nur würde das ganze viel mehr Geld kosten.
Das Geschäftsmodell von Backblaze bzw. überhaupt billige Consumer HDDs (und teils auch SSDs) zu verbauen und diese dann eben früher zu tauchen weil sie halt nicht so lange im Enterpriseeinsatz durchhalten funktioniert ja nur, weil die Preis pro GB weiter gefallen und die Kapazitäten weiter gesteigen sind. Auch bei den selbst gebauten Racks von Backblaze kostet jeder Einbauplatz für jede HDD Geld und damit lohnt es sich auch bei den robustesten Platte nicht, diese ewig weiter zu betreiben. Man tauscht sie also nach einiger Zeit soweiso gegen größere Platten aus, damit die Anzahl der Racks nicht so massiv steigt und daher kann man auch Platten nehmen deren Haltbarkeit eingeschränkt ist.
Wird sind aber erstmal an einem technischen Limit bzgl. der Kapazitätssteigerungen angekommen und damit wird auch der Preisverfall aufhören, denn wann HMR mal serienreif sein wird, kann man nicht nicht abesehen. Wenn sich jetzt aber z.B. 10 Jahre nichts mehr bei Preisen und Kapazitäten tut, dann invertiert sich die Situation und dann bringt es mehr eine doppelt so teure Enterprise HDD zu nehmen die auf den Transfer von 14 mal so vielen Daten und 6 mal so viele Betriebsstunden ausgelegt ist und dann am Ende auch 10 Jahre hält, als wenn man die billigen Consumer HDD in der Zeit 3 mal tauschen muss.
Der Punkt ist einfach, dass bisher die Plattenkapazitäten so schnell gewachsen sind, dass die längere Haltbarkeit bei Enterprise Platten einfach nicht genutzt wird, auch beim Heimanwender nicht.
zu der Frage warum man die Archive in einem klassischen RAID verwenden soll auch mit "Aktuell eher nicht" beantworten.
Aktuell nur auf eigenes Risiko und mit dem Wissen, dass diese Platten jeden Moment aus dem RAID fliegen können, ohne dass ein Defekt die Ursache ist.
Aktuell betreibe ich 8 x 4TB Seagate Desktop (ST4000DM000) an meinem LSI 9260-8i und hatte noch keine Probleme damit.
Die Desktop ist auch nicht optimal für ein RAID, die NAS wäre die bessere Wahl gewesen.
Mir stellt sich nun auch die Frage "Was machen?"
Reicht der Platz denn nicht mehr? Dann bist genau der Punkt um den es in den vorherigen Beiträgen auch gibt, dass man nämlich nicht nur die €/TB der HDD sehen muss, wenn man das Storage eine bestimmte Größe erreicht hat, sondern auch die Kosten für alles drum herum, wenn man eben keine freien Port, Einbauplätze und Netzteilanschlüsse mehr hat.
Die SMR Problematik haben wir ja anscheinend bei allen (?) Modellen mit 8TB und mehr die so geplant sind und nicht gerade Enterprise Klasse sind (wie die HGST mit Helium).
Richtig, nur mit He Füllung bekommt man derzeit 7 Plattern unter und ohne ist schon der Sprung von 5 auf 6 Plattern gelungen, aber ob am nun so schnell auch die 7. Platte dort noch unter bekommt, darf zumindest bezweifelt werden. Ohne SMR war lange 1TB Pro Platten das Limit, nun hat man auch 1,2TB geschafft, aber schafft man noich die 1,33TB die man braucht um mit 6 Platten auf 8TB zu kommen? Mit SMR geht es, dass zeigt die Archive v2 8TB ja.
Wie gut sich mein LSI Controller (mit älterer Firmware die ich gerne behalten würde) mit SMR Platten verträgt ist auch noch eine Frage.
Sehr wahrscheinlich gar nicht.
Ich denke das liegt an der Geschwindigkeit, denn die Platten sind zwar stetig in der Kapazität gestiegen, aber nicht im gleichen Umfang on der Leistung.
Das ist das Dilema der HDDs: Mit der Steigerung der Datendichte bekommt man mehrSektoren auf eine Spur, aber man hat auch mehr Spuren. Daher bewirkt eine Vervierfachung der Datendichte zwar eine Verdoppelung der Geschwindigkeit, aber eben auch eine Verdoppelung der Zeit um diese Vierfache Kapazität einmal komplett zu übertragen, also zu lesen oder zu schrieben (SMR mal außen vor). Da helfen mehr Plattern nichts, im Gegenteil man steigert dadurch nur die Kapazität. nicht aber die Datendichte und damit auch nicht die Geschwindigkeit. HDDs können immer nich von einem Kopfe Daten übertragen und arbeiten eben nicht parallel über die Plattern, sonst wären die Modellen mit 2TB auch doppelt so schnell wie die mit 1B der gleichen Familie mit der gleiche Drehzahl und Datendichte, aber nur halb so vielen Plattern.
einige der letzten waren ja die Quantum Bigfoot in den 90ern. Wird wohl seine Gründe haben warum diese nicht weiterentwickelt wurden.
So weit ich weiß waren das die letzten, da waren wir bei Kapazitäten in GB die wir heute in TB haben, die Datendichte war also noch um einige Zehnerpotenzen geringer also heute, Köpfe also noch viel größer und viel weiter von den Plattern entfernt und die Bigfoot war nicht als solide und haltbar bekannt. Die Probleme waren schon damals zu groß.