[News] Seagate 8 TB Festplatte für unter 250 € nagelneu , wo ist der Haken ?

Warte noch immer auf meine HDDs. Habe pro Stück 210 Euro gezahlt (Conrad). Für den Preis nimmt man die miese Schreibperformance gerne in Kauf. Wird ja nur zum Archivieren benutzt.

Wie sieht es mit der Leseperformance aus?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@ blubb0r87

Lesen ist kein Problem, Ich habe jetzt 3 Stück jeweils als einzel Platte am Intel Controller (Sata 2). Gigabit Ethernet wird immer voll ausgelastet. Intern kann ich große Datenmengen nicht mehr Testen, da ich nur noch 2 x 3 TB Seagate im Raid 1 (Windows) und 1 x 128 GB Samsung SSD (OS) 1 x 300 GB Sata Raptor (Daten Temp) und die 3 x 8 TB Seagate (Storage) in dem Server habe. Das große Raid ist komplett aufgelöst.

Ich schiebe heute abend mal 200 GB auf die Raptor ob der Speed gehalten wird.
 
Zuletzt bearbeitet:
Auf jeden Fall danke fürs Testen und berichten. Dann werden so lange die alten Backup Festplatten weiter genutzt und wenn dann mal irgendwann Ersatz da ist diese ersetzt.
 
Auch schließt die Technologie nicht die Geschwindigkeit aus.
Das einzige was hier gemacht wird ist den Schreibkopf weniger zu bewegen als sonst um die höhere Datendichte zu bekommen.
Es gibt Auslauf/Pufferzonen so dass man nicht die komplette Platte neu beschreiben muss bei einer klein Änderung. Wie groß diese Abschnitte sind sind bisher unbekannt.
Das entscheidene hast Du aber dabei ausgeblendet, nämlich das beim Schreiben einer Spur die Daten der Nachbarspur mit überschrieben werden und dann eben ggf. vorher gelesen und hinterher neu geschrieben werden müssen. Ggf. deshalb weil die Platte ja reichlich Cache, auch On-Disk-Cache hat und wenn in einem Schreibvorgang auch schon die Daten auf dieser (und den u.U. folgenden) Nachbarspuren ebenfalls überschrieben werden, dann kann der Controller sich das sparen und dort gleich die neue Daten schreiben, dann geht es schnell und das passiert offenbar auch wenn man sie wirklich sequentielle, etwa mit h2testw, überschreibt.

Jedenfalls sagt das jetzt alles nicht aus das die Platte zwangsläufig soviel langsamer schreiben muss.
Doch genau das sagt es, zumindest wenn die Schreibzugriffe eben nicht diese ganze Bereiche mit umfassen, die zwangsweise überschrieben werden weil die Schreibköpfe eben breiter sind als die Spuren.

Und der Vergleich zu anderen 8TB hinkt ein wenig. Gibt ja nur eine weitere Platte und diese Serie war schon immer teuer.
Ja das ist eine mit He gefüllt Enterprise HDD, aber anders lassen sich eben derzeit 8TB nicht realisieren, sonst gäbe es sicher schon andere 8TB Platten ohne SMR. Selbst HGST muss für die 10TB auf SMR zurückgreifen,

Ob die Technik nun so langsam sein muss werden wird ja bei WD dann sehen. Dort sollten ja auch bald die Platten kommen.
Haben die dann SMR oder hat man es auch so geschafft? Derzeit ist 1.2TB pro Plattern ohne SMR wirklich das Limit und 6 Plattern pro Platte ohne SMR, damit schafft man die 8TB einfach nicht. Aber vorher waren 5 Plattern und 1TB/Plattern das Limit, ein wenig hat man also auch ohne SMR und He-Füllung noch hinbekommen, vielleicht schafft man noch den 7. Plattern oder 1.33TB/Plattern um dann doch 8TB bei konventionellen HDDs zu erreichen.

Ansonsten verzichte ich lieber auf einen weiteren freien SATA-Port und kann wenigstens mein Gb-LAN ausreizen, weil 35,5MB/s doch schon arg langsam ist.
Diese 35MB/s sind ja auch nur unter bestimmten Bedingungen, wenn man immer nur wenig schreibt, also so viel wie in den Cache passen und der Platte dann Pause vergönnt ist, wirst Du nie so geringe Schreibraten haben. Wenn Du aber noch SATA Ports, Einbauplätze und Anschlüsse am Netzteil frei hast, dann brauchst Du auch nicht wirklich so eine große HDD, weil die Kosten pro GB eben im wesentlichen nur von dem Preis und der Kapazität der Platten abhängen.

Erst wenn man an den Punkt kommt wo das Gehäuse zu klein wird und / oder die Anzahl der Ports eben nicht mehr reichen um die nötige (bzw. gewünschte) Kapazität mit kleineren Platten zu realisieren, dann sieht die Rechnung u.U. schon anders aus. In meinem HP N54L habe ich 6 Platten, eine 2.5" für das OS und die 5. 3.5" oben im Schacht des optischen Laufwerks, es gibt auch 6 SATA Ports, wobei einer außen als eSATA ausgeführt ist und ich den per eSATA-SATA wieder nach innen legen musst. Mit Bastelarbeit lassen sich auch zwei 3.5" Platten oben einbauen, aber dann muss ich schon wenigstens einen SATA Zusatzcontroller für einen weiteren Port verbauen und wenn es mehr als 6 Platten sein sollen, wird ein neuere Rechner fällig, da sieht die Rechnung was mich die Speicherlösung pro TB kostet dann scnell anderes aus und es kommt dann nicht nur auf die €/TB der Platte an.
 
Warte noch immer auf meine HDDs. Habe pro Stück 210 Euro gezahlt (Conrad). Für den Preis nimmt man die miese Schreibperformance gerne in Kauf. Wird ja nur zum Archivieren benutzt.

Wie sieht es mit der Leseperformance aus?
Das is eigendlich ein guter Preis. 200€ wären mir die Platten auch noch wert. Aber nicht die 270€.

Leseperformance wollte ich gestern eigendlich testen, bin aber auf Probleme mit mein externen Gehäuse gestoßen wo dann 1MB/sek Lesen raus kamm.
Liegt aber wie gesagt am Gehäuse. Vielleicht kann ich die nächsten Tage das nochmal intern testen.

******* schrieb:
Wofür ich mich ausdrücklich bei Dir bedanken möchte.

Du hast es gekauft, ausprobiert und berichtet, so sollte das sein. Andere schaffen das nicht und müssen sich noch jede Investition im Nachhinein schön reden, was jetzt nicht für diesen Thread gelten soll, aber das kann man im Allgemein in jedem Hardware-Unterforum beobachten.

Für mich bleibt es daher dabei, dass diese Platte pro TB die günstigste sein muss, um interessant zu sein. Ansonsten verzichte ich lieber auf einen weiteren freien SATA-Port und kann wenigstens mein Gb-LAN ausreizen, weil 35,5MB/s doch schon arg langsam ist.
Nicht zu danken ;)
Die Sache bisher war halt das die Review und Tester hier das alles in ein NAS oder einer anderen Raid Konfig. getestet haben.
Das hat es für mich sehr schwer gemacht die Platte in einzel Betrieb einzuschätzen.
Ich hatte mir da ja wie schon erwähnt mehr erhofft als in ein NAS betrieb.

- - - Updated - - -

Das entscheidene hast Du aber dabei ausgeblendet, nämlich das beim Schreiben einer Spur die Daten der Nachbarspur mit überschrieben werden und dann eben ggf. vorher gelesen und hinterher neu geschrieben werden müssen. Ggf. deshalb weil die Platte ja reichlich Cache, auch On-Disk-Cache hat und wenn in einem Schreibvorgang auch schon die Daten auf dieser (und den u.U. folgenden) Nachbarspuren ebenfalls überschrieben werden, dann kann der Controller sich das sparen und dort gleich die neue Daten schreiben, dann geht es schnell und das passiert offenbar auch wenn man sie wirklich sequentielle, etwa mit h2testw, überschreibt.

Also ich habe da gar nix ausgeblendet ;)
Das die Spuren teilweise überschrieben werden sagt ja der Name der Technik. Ich glaube du verstehst mich in der Sache auch irgendwie falsch.
Das so eine Platte nicht ausgelegt ist um viele Kommandos/Datein gleichzeitig zu schreiben ist klar.
Dort erwarte ich dann aber das die Firmware das ganze regelt! Genauso konnte man im Ressourcen Monitor sehen das die Platte mit 5 Datein gleichzeitig belagert wurde.
Mit NCQ sollte es doch möglich sein das die Platte immer nur 1 Datein nacheinander abarbeitet.

Wenn dort also 5 Datein gleichzeitig geschrieben werden sollen dann is klar das die Platte nicht mehr hinterher kommt mit lesen, schreiben und neu schreiben.

Aber genau hier hätte ich nun das große "Know How" von Seagate erwartet. Das gleich die Firmware dort eingreift, da wie ja Digi-Quick sagt noch kein Support der aktuellen OS's da ist.



Haben die dann SMR oder hat man es auch so geschafft? Derzeit ist 1.2TB pro Plattern ohne SMR wirklich das Limit und 6 Plattern pro Platte ohne SMR, damit schafft man die 8TB einfach nicht. Aber vorher waren 5 Plattern und 1TB/Plattern das Limit, ein wenig hat man also auch ohne SMR und He-Füllung noch hinbekommen, vielleicht schafft man noch den 7. Plattern oder 1.33TB/Plattern um dann doch 8TB bei konventionellen HDDs zu erreichen.
Die News die ich gelesen hatte ließ vernehmen das die ebenfalls SMR haben wird.

Erst wenn man an den Punkt kommt wo das Gehäuse zu klein wird und / oder die Anzahl der Ports eben nicht mehr reichen um die nötige (bzw. gewünschte) Kapazität mit kleineren Platten zu realisieren, dann sieht die Rechnung u.U. schon anders aus. In meinem HP N54L habe ich 6 Platten, eine 2.5" für das OS und die 5. 3.5" oben im Schacht des optischen Laufwerks, es gibt auch 6 SATA Ports, wobei einer außen als eSATA ausgeführt ist und ich den per eSATA-SATA wieder nach innen legen musst. Mit Bastelarbeit lassen sich auch zwei 3.5" Platten oben einbauen, aber dann muss ich schon wenigstens einen SATA Zusatzcontroller für einen weiteren Port verbauen und wenn es mehr als 6 Platten sein sollen, wird ein neuere Rechner fällig, da sieht die Rechnung was mich die Speicherlösung pro TB kostet dann scnell anderes aus und es kommt dann nicht nur auf die €/TB der Platte an.

Ja bei sowas ist man schnell angesch..... ;)
Da ist dann der normale Tower mit z.b. ein Wechselrahmen klar in Vorteil.
Kommt aber auch wieder alles drauf an was man genau mit den Platten vor hat.
Seagate sieht sie ja wohl auch nicht unbedingt als NAS Platte.
 
Das so eine Platte nicht ausgelegt ist um viele Kommandos/Datein gleichzeitig zu schreiben ist klar.
Dort erwarte ich dann aber das die Firmware das ganze regelt! Genauso konnte man im Ressourcen Monitor sehen das die Platte mit 5 Datein gleichzeitig belagert wurde.
Mit NCQ sollte es doch möglich sein das die Platte immer nur 1 Datein nacheinander abarbeitet.

NCQ fasst mehrere (kleine) Dateien zu einem Kommando zusammen. und genau her käme Host Aware SMR zum tragen.
 
Zuletzt bearbeitet:
ich habe mal die Platte, die ich aus dem Raidz3 gezogen habe, mal in meinen rechner eingebaut, partion angelegt und schnellformatiert.

kopieren von ca. 250GB grössere Dateien vom internen Raid1 (Intel RST, 2x Samsung 750 GB HDDs), sicherlich nach aktuellen Maßstäben nicht gerade Schnelle HDDs:
pendelt sich laut Total Commander bei 50-60 MB/s ein (ich denke mal, daß die Samsungs hier schon limitieren, da 2. Plattenhälfte), Datenträger E/A laut Ressourcenmonitor zwischen 50 und 200 MB/s

Vor 15 Jahren wäre man damit äusserst Glücklich gewesen. Nichtmal die schnellsten SCSI Platten kamen da ran.

(habe mir gerade mal den Spass gemacht das c't Plattenkarussell Ausgabe 12/2000 anzuschauen)

Nachtrag:
Über's Netzwerk kopiere ich mit rund 100 MB/s auf die Platte

Ich habe mich jedenfalls nach den durchgeführten Tests prinzipiell schon dazu entschieden die Platten für mein Datenarchiv zu verwenden, da für meine Anforderung die Leistung und Performance ausreicht. Beim Resilvern muss ich halt abstriche machen, der dauert im Falle eines Falles tendenziell 3-4x Länger als bei Verwendung von non-SMR Platten. Dieser Fact wird sich aber in Zukunft irgendwann ändern, wenn ZFS mit SMR umgehen kann. Ich vermute mal, daß dann der Pool neu angelegt werden muss - wäre jedenfalls logisch. Das sind zur Zeit allerdings noch ungelegte Eier.
Wie bereits von mir vermutet wird von ZFS keine Platte wegen fehlendem ERC/TLER gedropped - das hätte theoretsich schon in den letzen 2 Tagen passieren müssen, seitdem der Resilver läuft.
 
Zuletzt bearbeitet:
Mit NCQ sollte es doch möglich sein das die Platte immer nur 1 Datein nacheinander abarbeitet.
Platten kennen keine Dateien, Platten kenne nur Zugriffe, ob das eine Datei ist oder was auch sonst immer da geschrieben wird, weiß eine Platte nicht.

Wenn dort also 5 Datein gleichzeitig geschrieben werden sollen dann is klar das die Platte nicht mehr hinterher kommt mit lesen, schreiben und neu schreiben.
Eben und das ist bei jede HDD so, nur wird es bei SMR eben noch einmal viel schlimmer.

Aber genau hier hätte ich nun das große "Know How" von Seagate erwartet. Das gleich die Firmware dort eingreift, da wie ja Digi-Quick sagt noch kein Support der aktuellen OS's da ist.
Was konkret soll den Seagate da machen? Man kann über die Drive_Identify Daten ja die maximal QD mittteilen, aber die gilt lesend wie schreibend und wenn man da 1 einstellt, gibt es auch lesend kein NCQ mehr.

Ja bei sowas ist man schnell angesch..... ;)
Eben, da ist die maximale Ausbaustufe eben größer, je größer die Kapazität jeder Platte ist und daher kann man die Kosten eines Storages eben nicht immer nur mit den Kosten der Platte in €/TB gleichsetzen, das geht nur bis zu einem bestimmten Punkt, darüber kommen dann auch die Kosten für Infrastruktur pro Platte.

NCQ fasst mehrere (kleine) Dateien zu einem Kommando zusammen. und genau her käme Host Aware SMR zum tragen.
Nein, genau das kann und darf NCQ natürlich nicht machen. "Native Command Queuing (NCQ, übersetzt integrierte Befehlsreihung)", es geht bei NCQ darum, dass eine Platte (egal ob HDD oder SSD) nicht nur einen Befehl bekommt, den abarbeitet und dann den nächsten erhölt, sondern der nächste Befehl kann schon vor der Abarbeitung geschickt werden und somit können mehrere Befehle ausstehen (die Queue Depth) und der Controller der Platte entscheidet selbst in welcher Reihenfolge er diese abarbeitet. Bei HDDs eben meist in der Art, dass dafür möglichst wenige Kopfbewegungen nötig sind.

Zusammengefasst wird da aber gar nichts, das geht auch nicht, denn die ATA Befehl funktionieren alle nach dem Muster das über LBA und Anzahl der nachfolgenden Bytes adressiert wird.
Dieser Fact wird sich aber in Zukunft irgendwann ändern, wenn ZFS mit SMR umgehen kann. Ich vermute mal, daß dann der Pool neu angelegt werden muss - wäre jedenfalls logisch. Das sind zur Zeit allerdings noch ungelegte Eier.
Das dann aber die Archive v2 davon profitiert, glaube ich nicht, weil bei der ja SMR transparent ist. Das bedeutet, dass das Filesystem gar nicht erfahren kann, welche LBAs jetzt nun zu welchen Spuren gehören und ob bzw. wie viele andere Daten zwangsweise überschrieben werden müssen, wenn man einen bestimmten LBA überschreibt. Nur mit der Information kann dann ein Filesystem welche SMR unterstützt auch die Ablaqe der Daten so optimieren, dass dies möglichst selten der Fall ist, vermeiden kann es das aber natürlich auch nicht, schon gar nicht wenn viele kleine Dateien geschrieben werden.

Aber vielleicht gibt es dann ein FW Update von Seagate damit die Platte diese Informationen liefern kann, wer weiß.
Wie bereits von mir vermutet wird von ZFS keine Platte wegen fehlendem ERC/TLER gedropped - das hätte theoretsich schon in den letzen 2 Tagen passieren müssen, seitdem der Resilver läuft.
Auch das halte ich für eine sehr optimistische Einschätzung, es kann jederzeit trotzdem passieren wenn etwa ein Sektor dann doch mal nicht gelesen werden kann oder zu viele Zugriffe parallel und an ungünstigen Adressen erfolgen, was dann gerade bei Schreibzugriffen eben eine sehr hohe Antwortzeit bedeuten dürfte. Ein Resilver ist sicher noch nicht das maximale Stressszenarion.
 
Laut https://github.com/Seagate/SMR_FS-EXT4 ist die aktuell ausgelieferte Seagate Archive 8 TB v2 bereits SMR-HA.
"Seagate has 2 drives shipping that are SMR-DM. Seagate's new 8TB Archive HDD v2 drive is SMR-HA"
Somit dürfte es auf Dateisystem-/Treiberebene einige Optimierungsmöglichkeiten geben. Sicherlich nicht so viel wie bei zukünftigen SMR-HM Drives.

Wenn ein Sektor nicht mehr gelesen werden kann, dann wird die Platte das melden, wie jede andere Platte auch. Das hat primär nichst mit ERC/TLER zu tun.
Raidcontroller sollten nach Möglichkeit mit Platten bestückt werden, die ERC/TLER unterstützen, ZFS ist das egal, da kein ERC/TLER explizit unterstützt wird.
Soweit ich mitlerweile herausgefunden habe gibt es wohl ein Timout von 100s, welches damit deutlich höher ist, als die Zeit, die normalerweise Festplatten damit verbringen einen Sektor doch noch zu lesen. In wie weit diese Info korrekt ist, kann ich natürlich nicht überprüfen - dazu müsste ich sämtliche Quellcodes überprüfen.

Ansonsten erinnere ich nochmal daran, daß es sich um eine Platte für Archivierung handelt, somit sind massiv Parallele Zugriffe eigentlich schon vom Anwendungsfall her ausgeschlossen bzw. nicht vorgesehen.
Das ein Resilver bei DIESEN Platten derzeit nicht das maximale Stresszenario ist, kann man aus der Dauer desselben ersehen, der Scrub ist da deutlich intensiver - wenn auch überwiegend nur lesend.
Im Normalfall würde ich sagen, daß ein Resilver mit gleichzeitiger intensiver paralleler Multiusernutzung sowohl schreibend als auch lesend das intensivste Szenario sein dürfte.

Ergänzung:
Mit der Aussage, daß eine Platte hätte wegen fehlendem ERC/TLER längst gedropped werden müssen meinte ich nicht auf Grund eines nicht lesbaren Sektors sondern allgemein wegen der zum Teil längeren Reaktions-/Antwortzeiten der Platten wegen des SMR-spezifischen Verhaltens. Das ging aus meiner vorigen Äusserung so nicht hervor. Nicht lesbare Sektoren würde ich bei neuen Platten nicht unbedingt als gegeben voraussetzen - können natürlich immer auftreten.
 
Zuletzt bearbeitet:
@ Digi-Quick
"Seagate has 2 drives shipping that are SMR-DM. Seagate's new 8TB Archive HDD v2 drive is SMR-HA
woran kann man das erkennen ? Steht das evtl. in den Smartwerten ? Hier meine ersten 2 und die letzte vom 14.04.2015 (Sollte eine aktuelle sein, da Alternate (Zack) ja vorher keine mehr hatte).

1 1.JPG ..... 2 2.JPG ....... 3 3.JPG 14.04.2015
 
Wüsste ich zur Zeit auch nicht!
Daher geniesse ich diese Aussage, die zwar wie es aussieht von einem Seagate Mitarbeiter kommt, mit Vorsicht.
 
Somit dürfte es auf Dateisystem-/Treiberebene einige Optimierungsmöglichkeiten geben.
Bleibt die Frage, wann die entsprechenden Filsysteme verfügbar sind, bisher ist ja wohl nur diese Erweiterung für EXT4 in Arbeit, aber viele User werden auch andere Filesystem nutzen wollen.

Wenn ein Sektor nicht mehr gelesen werden kann, dann wird die Platte das melden, wie jede andere Platte auch. Das hat primär nichst mit ERC/TLER zu tun.
Genau darum geht es bei ERC/TLER: Um die Einstellung des Timeout der bestimmt wie lange eine Platte maximal bei einem Fehler intern versucht diese zu beheben bis sie eine Fehlermeldung ausgibt. Jede Platte hat da ein Limit, aber nur bei den Platten mit ERC/TLER Feature kann man diesen Timeout auch einstellen und damit so kurz wählen, dass der RAID Controller eben die Platte nicht gleich als defekt einstuft.
Soweit ich mitlerweile herausgefunden habe gibt es wohl ein Timout von 100s, welches damit deutlich höher ist, als die Zeit, die normalerweise Festplatten damit verbringen einen Sektor doch noch zu lesen.
Eine normale Platte, aber bei der Archive v2 kann eben auch jeder Schreibvorgange eine Menge Lesevorgänge bedeuten. Wie man im Review bei storagereview.com sieht, können die Antwortzeiten eben bei der HDD sehr hoch sein. Dabei ist die Platte noch neu, man stelle sich vor die ist älter und bekommt Probleme die Daten zu lesen die danach erneut geschrieben werden müssen.

Ansonsten erinnere ich nochmal daran, daß es sich um eine Platte für Archivierung handelt, somit sind massiv Parallele Zugriffe eigentlich schon vom Anwendungsfall her ausgeschlossen bzw. nicht vorgesehen.
Richtig, aber wenn diese aus einem Grund doch passiert und man verliert den Pool / das RAID, dann ist es schon übel.
Nicht lesbare Sektoren würde ich bei neuen Platten nicht unbedingt als gegeben voraussetzen - können natürlich immer auftreten.
Eben und das kannst Du jetzt auch gar nicht testen und weißt auch nie wann es dann ggf. mal auftritt. Gemein ist immer, wenn eine Platte es dann nach dem Timeout des RAIDs doch noch geschafft hat, also rausgeflogen ist und dennoch keinerlei Fehler in den S.M.A.R.T. Werten anzeigt.
 
Wieso sollte man die Archive Platten in einem klassischen RAID benutzen?
Dafür sind sie einfach nicht ausgelegt.
Bei Problemen und Datenverlust ist man selber schuld.
 
Was konkret soll den Seagate da machen? Man kann über die Drive_Identify Daten ja die maximal QD mittteilen, aber die gilt lesend wie schreibend und wenn man da 1 einstellt, gibt es auch lesend kein NCQ mehr.
Ganz ehrlich, ich weiß es nicht. Ich bin ein Ingenieur für Festplatten, wenn ich das wäre würde ich die Dinger wohl selber bauen :d
Ich meine nur damit das ich dort von Seagate was besonderes erwartet hätte. Für mich kommt es so vor als ob der Kunden wieder zahlender (!) Beta Tester ist.
Sie läuft so einigermaßen, aber unter sehr suboptimalen Konditionen.

Ich bin auch nicht sicher ob ein deaktivieren des NCQ auf dauer die bessere Leistung bringt. Sowas müsste man mal durch testen. Eine Datein nach der anderen rüberschicken.

Wenn nun alle großen Platten so lahm sein werden, hoffe ich das bald die 10TB SSD zu bezahlbaren Preisen kommen.
Mit 100-150MB/Sek würden die ja völlig ausreichen.

Auch wenn du kein Fan davon bist, wäre vielleicht sogar 5,25" Festplatten die dann nur 4000 Umdrehungen haben schneller und größer.
Ich kann mir nicht vorstellen das es dort in 25 Jahren keine Entwicklung gibt welches die Vibrations Probleme nicht in Griff bekommen sollte.
 
Wieso sollte man die Archive Platten in einem klassischen RAID benutzen?
Dafür sind sie einfach nicht ausgelegt.
Bei Problemen und Datenverlust ist man selber schuld.

Prinzipiell hast Du damit recht, aber gerade bei Platten im Heimanwenderbereich sollte man das nicht so eng sehen.
Platten die tatsächlich für ein RAID "ausgelegt" bzw. konzipiert und freigegeben/empfohlen werden gibt es NUR im Business/Enterprise Sektor und nicht jeder privater Heimanwender will oder kann sich das leisten.
Und gerade bei Festplatten ist es meines Wissens nach so daß viele Modelle vom Aufbau her gleich oder sehr ähnlich sind und lediglich die Firmware angepasst ist bzw. das Interface/der Controller etwas anders ist. Somit kann es schon mal sein daß günstigere Modelle die eigentlich für den Privatgebrauch / Desktop etc. Betrieb zumindest beworben und bezeichnet sind ebenfalls in einem RAID keine schlechte Figur machen. Was "könnte" man da erwarten? Weniger Garantie, keine garantierter 24/7 Betrieb in der Garantiezeit bzw. kein gewisses Schreibvolumen pro Jahr / innerhalb der Garantiezeit, und eventuell einige Funktionen (wie ERC/TLER) die nicht vorhanden/aktiviert sind.

Ein ganz gutes Beispiel daß RAID eigentlich auch ganz gut mit nicht dafür ausgelegten Platten funktioniert zeigt das Unternehmen Backblaze:
https://www.backblaze.com/blog/best-hard-drive/

Würden die Statistiken mit Enterprise Platten besser aussehen? Ich denke schon, wie viel besser ist halt die Frage. Bei einigen Modellen wo die Garantie länger ist hat man zumindest länger Anspruch auf Ersatz. Diese sind zwar (gerade nach längerer Zeit) wohl auch Refurbished Modelle, aber besser als nichts.
Tja nur würde das ganze viel mehr Geld kosten.

In dem Fall der Archive Platten kommt halt die Technik auch noch in die Quere. Somit würde ich Dir wohl aktuell zu der Frage warum man die Archive in einem klassischen RAID verwenden soll auch mit "Aktuell eher nicht" beantworten.

---

Ich habe schon seit letzten Herbst/Winter als die Platten gelistet wurden auch immer wieder ein Auge darauf geworfen. Der niedrige Preis (pro GB) hat mich zwar erfreut aber auch etwas geschreckt und die ersten Berichte bzw. die SMR Technik davon abgehalten ein paar solcher Platten zu kaufen.
Aktuell betreibe ich 8 x 4TB Seagate Desktop (ST4000DM000) an meinem LSI 9260-8i und hatte noch keine Probleme damit. Die 8TB Seagate Archive würde ich da auch gerne dran betreiben, im Raid, was bei den Platten aber eben nicht sonderlich optimal ist.
Mir stellt sich nun auch die Frage "Was machen?"
Die SMR Problematik haben wir ja anscheinend bei allen (?) Modellen mit 8TB und mehr die so geplant sind und nicht gerade Enterprise Klasse sind (wie die HGST mit Helium). Wie gut sich mein LSI Controller (mit älterer Firmware die ich gerne behalten würde) mit SMR Platten verträgt ist auch noch eine Frage.

@StillPad
Die Entwicklung gerade im Enterprise Sektor ist immer mehr zu kleineren, dafür vielen Platten gegangen. Aktuell eben auch sehr stark in Richtung 2,5". Ich denke das liegt an der Geschwindigkeit, denn die Platten sind zwar stetig in der Kapazität gestiegen, aber nicht im gleichen Umfang on der Leistung.
5,25" Platten habe ich schon laaaaaange keine mehr gesehen. Ich glaube einige der letzten waren ja die Quantum Bigfoot in den 90ern. Wird wohl seine Gründe haben warum diese nicht weiterentwickelt wurden.
 
Wozu ein klassisches Raid im Fileserver?
Da ist man mittels JBOD und 1-2 Parity Platten besser bedient.

Wichtige Daten speichert man auf einem 2x 4TB Raid 1 plus externer 4TB Backup Platte. Das reicht für nahezu alle User.

Persönliche Daten wie Bilder (DSLR) machen bei mir noch nicht einmal 1TB aus. Das sind die 20TB Filme schlimmer, aber da kratzt mich ein Ausfall auch nicht.
 
Wieso sollte man die Archive Platten in einem klassischen RAID benutzen?
Dafür sind sie einfach nicht ausgelegt.
Wenn man ein klassisches HW RAID mein, dann sollte schon das mangelnde ERC/TLER Feature jeden halbwegs vernünftigen Menschen davon abhalten dies zu tun, denn der Timeout bei HW-RAID Controllern ist meist auf nur 8s eingestellt.
Bei Problemen und Datenverlust ist man selber schuld.
Gegen Datenverlust helfen sowieso nur Backups und die Archive v2 ist ja genau die Platte auf der man das Backup anlegen sollte, das ist eine Verwendung für diese HDD.

Ich meine nur damit das ich dort von Seagate was besonderes erwartet hätte.
Du hast doch auch etwas besonderes bekommen: Die erste SMR HDD für Endkunden! Außerdem eine 8TB HDD für die Hälfte von dem was andere Anbieter für eine 8TB HDD verlangen.
Für mich kommt es so vor als ob der Kunden wieder zahlender (!) Beta Tester ist.
Das ist ein Kunde bei neuen Produkten immer, oder glaubst Du irgendein Hersteller kann seine Produkte mit der gleichen Vielfalt an Hard- und SW Bedingungen und Einsatzszenarientesten wie seine Kunden sie haben? Das ist unmöglich, dem kann man nur etwas näher kommen, wenn man wie Apple agiert und möglichst verhindert, dass etwas eingebaut bzw. eingesetzt wird, was man nicht selbst gebaut hat oder wenigstens von einem Drittanbieter kommt und bei Apple zertifiziert wurde. So eine geschlossene Welt reduziert die Vielfalt der möglichen Fehlerquellen natürlich, aber mir würde das nicht gefallen.
Sie läuft so einigermaßen, aber unter sehr suboptimalen Konditionen.
Es ist eben keine HDD wie jede andere und das sie gerade beim Schreiben ein Problem mit der Performance bekommen würde, was spätestens bei der Präsentation der SMR Technologie jedem klar, der ein klein wenig Verständnis für Technik hat. Durch den On-Disk-Cache mindert Seagate das Problem ja schon und mit angepassten Filesystemen wird man wes weiter mindern können, aber auch damit wird es immer Situationen geben, bei denen die SMR HDDs einfach extrem viel langsamer schreiben werden als normale HDDs das machen, das kann man bei der SMR Technik nun einmal nicht verhindern.

Ich bin auch nicht sicher ob ein deaktivieren des NCQ auf dauer die bessere Leistung bringt. Sowas müsste man mal durch testen. Eine Datein nach der anderen rüberschicken.
Erstens sollte man das bei HDDs sowieso immer so machen, da deren Performance bei parallelen Zugriffen wegen der hohen Zugriffszeiten immer extrem leidet, zweitens spielt NCQ dann auch keine Rolle wenn die QD 1 ist und drittens wird auch ohne NCQ nicht eine nach der anderen geschrieben, wenn man zwei gleichzeitig auf die Platte kopiert, dafür sorgt dann das Betriebssystem, das schreibt dann einen Teil der einen Datei, dann einen Teil der anderen usw.

Wenn nun alle großen Platten so lahm sein werden, hoffe ich das bald die 10TB SSD zu bezahlbaren Preisen kommen.
Wenn es um Performance geht, haben SSDs die Nase so weit vorne, da haben die HDD Hersteller den Kampf schon aufgegegen. Mit der Größe der Platte hat das auch nichts zu tun, nur damit obb sie SMR verwendet oder nicht. Es gibt die Archive v2 ja auch mit 5TB und 6TB.
Auch wenn du kein Fan davon bist, wäre vielleicht sogar 5,25" Festplatten die dann nur 4000 Umdrehungen haben schneller und größer.
Ich kann mir nicht vorstellen das es dort in 25 Jahren keine Entwicklung gibt welches die Vibrations Probleme nicht in Griff bekommen sollte.
Auch wenn Du es Dir nicht vorstellen kannst, aber die physikalischen Gesetze gelten noch immer und wenn der Hebel eben entsprechend groß ist, dann werden die Amplituden der Schwingungen auch entsprechend groß sein, was bei den heutigen Datendichten eben ein viel größeres Problem ist als früher. Die 5,25" HDDs werden nicht wiederkommen und es hat auch seinen Grund warum die Hersteller bei den Mission Critical Enterprise HDDs von 3.5" auf 2.5" gewechsel sind und dort die Platten nicht einmal die volle Breite ausnutzen, schau Dir mal an wie so eine HDD innen aussieht und vergleiche den Durchmesser der Plattern mit denen einer 2.5" Consumer HDD.

aber gerade bei Platten im Heimanwenderbereich sollte man das nicht so eng sehen.
Nur sehen die meisten Heimanwender es eben eng, wenn ihr RAID und ihre Daten plötzlich weg sind :wall:
Platten die tatsächlich für ein RAID "ausgelegt" bzw. konzipiert und freigegeben/empfohlen werden gibt es NUR im Business/Enterprise Sektor und nicht jeder privater Heimanwender will oder kann sich das leisten.
Das ist richtig, eigentlich sind alle RAID mit SATA Platten nur Krücken, denn bei richitgen SCSI/SAS/FC RAID Platten werden die Sektoren mit 520 oder 528 Byte formatiert und auf diesen 8 bzw. 16 zusätzlichen Bytes legt der RAID Controller selbst eine Prüfsumme ab um Lesefehler sofort erkennen zu können und die Daten dann aus der Parity zu rekonstruieren. Damit braucht die Platte keine wiederholten Leseversuche zu machen, die ganze ERC/TLER Problematik gibt es da gar nicht. Das sind eben die Hilfskrücken um die RAIDs auch mit SATA Platten zu realisieren. Wenn man das richtig macht, reicht das für Heimanwender auch, SAS/FC ist für Enterprise wichtig, aber für Heimanwender überdimensioniert.
Und gerade bei Festplatten ist es meines Wissens nach so daß viele Modelle vom Aufbau her gleich oder sehr ähnlich sind und lediglich die Firmware angepasst ist bzw. das Interface/der Controller etwas anders ist.
Das sind nicht mehr als unbestätigte Gerüchte, die werden nicht wahrer weil sie oft und überall wiederholt werden, denn keiner kann den Platten die Fertigungstoleranzen oder die genaue Zusammensetzung von den Materialien ansehen, etwa welche Legierungen in den Lagern verwendet werden. Oft werden sogar Unterschied wie eine einseitige oder beidseitige Lagerung der Spindel auch schlicht ignoriert. Aber selbst wenn nur die FW den Unterschied macht, so genügt es z.B. beim RAID schon vollkommen, denn alleine die TLER einstelle zu können bzw. wenn diese ab Werk kürzer ist, kann schon den Unterschied zwischen lange problemlos funktionieren und viel Ärger ausmachen.

Die meisten HW-RAID Controller haben ab Werk einen Timeout für die Reaktion der HDDs von 8s, reagiert die Platte nicht in der Zeit wird sie als defekt eingestuft. Der Timeout der WD Green ist ab Werk 14s, der der WD Red 7s, was das bedeutet sollte klar sein.
kein gewisses Schreibvolumen pro Jahr
Bei HDDs zählt auch das Volumen der gelesenen Daten zum Workload, der ist bei einfachen Consumer HDDs eben i.d.R. mit 55TB im Jahr angegeben, bei der Archive v2 mit 180TB / Jahr und bei richtigen 3.5" Enterprise HDDs dann mit 550TB im Jahr, die sind also darauf ausgelegt das Datenvolumen pro Jahr zu bewältigen. Die einfachen Consumer HDDs sollen dagegen nur möglichst billig sein und gerade so über die meist 5 Jahre gedachter Einsatzdauer bei 8 Stunden am Tag und 5 Tagen die Woche Betrieb durchhalten. Das würd edan also so 10400 Stunden (8*5*52*5) halten und im Leben 275 TB lesen bzw. schreiben.

Die doppelt so teure Enterprise HDD werden i.d.R. auf 7 Jahre Betriebsdauer ausgelegt, die dürften 24/7 laufen und bei 550TB im Jahr kommen sie dann im Leben auf 3850 TB (14 mal so viel) und 61320 Stunden, 6 mal so viele.

Ein ganz gutes Beispiel daß RAID eigentlich auch ganz gut mit nicht dafür ausgelegten Platten funktioniert zeigt das Unternehmen Backblaze:
https://www.backblaze.com/blog/best-hard-drive/
Was Backblaze macht kann man mit dem normalen Einsatz bei Heimanwendern überhaupt nicht vergleichen. Das geht schon mit Beschaffung, dem Transport und der Lagerung der Platten los:

attachment.php


Da möchte man gar nicht wissen, wie viele (Seagate) HDDs in den Blister Packungen vom dem Tisch gefallen sind und außerdem sind diese Verpackungen für den Transport in Kofferräumen und den Postversand total unzureichend, die Kartons von WD schützen die HDDs da schon weitaus besser.

Auf jeden Fall würde ich jedem dem diese Statistik über den Weg läuft empfehlen sich auch diesen Artikel von tweaktown dazu einmal aufmerksam durchzulesen. Deren Fazit kann man sich daher nur anschließen:

Würden die Statistiken mit Enterprise Platten besser aussehen? Ich denke schon, wie viel besser ist halt die Frage.
Das hängt von der Behandlung und den Einsatzbedingungen ab, die sind bei Backblatz offenbar alles andere als optimal, wenn schon der Transport der fertigen Racks so einen Einfluss auf die Ausfallraten hat:
Das würde man bei Backblaze aber niemals offen zugeben, denn deren Geschäftsmodell und dafür sammeln sie regelmäßig Millionen bei Investoren ein, ist es ja mit billigen Consumer HDDs einen Online-Backupdienst zu realisieren.

Dem Konzept werden sie aber selbst zunehmend untreu, die alten WD Green wurden durch die WD Red ersetzt die mehr als die Green kosten, aber wenigstens 24/7 zugelassen sind, die HGST Megascale ist eine OEM Enterprise HDD und kostet deutlich mehr als günstiger Consumer HDDs, die alten HGST Desktop haben auch praktisch für so einen Einsatz relevaten alle Features die auch die Megascale hat, wie 24/7 Zulassung und Virbationssensoren (HGST nennt die Technik Rotational Vibration Safeguard (RVS)), das waren im Grunde auch Enterprise Platten und mit den einfach Modelle wie der Seagate Barracuda gar nicht zu vergleichen, die waren auch deutlich teurer. Dafür haben sie bei Backblaze auch viel besser durchgehalten.

Bei einigen Modellen wo die Garantie länger ist hat man zumindest länger Anspruch auf Ersatz. Diese sind zwar (gerade nach längerer Zeit) wohl auch Refurbished Modelle, aber besser als nichts.
Tja nur würde das ganze viel mehr Geld kosten.
Das Geschäftsmodell von Backblaze bzw. überhaupt billige Consumer HDDs (und teils auch SSDs) zu verbauen und diese dann eben früher zu tauchen weil sie halt nicht so lange im Enterpriseeinsatz durchhalten funktioniert ja nur, weil die Preis pro GB weiter gefallen und die Kapazitäten weiter gesteigen sind. Auch bei den selbst gebauten Racks von Backblaze kostet jeder Einbauplatz für jede HDD Geld und damit lohnt es sich auch bei den robustesten Platte nicht, diese ewig weiter zu betreiben. Man tauscht sie also nach einiger Zeit soweiso gegen größere Platten aus, damit die Anzahl der Racks nicht so massiv steigt und daher kann man auch Platten nehmen deren Haltbarkeit eingeschränkt ist.

Wird sind aber erstmal an einem technischen Limit bzgl. der Kapazitätssteigerungen angekommen und damit wird auch der Preisverfall aufhören, denn wann HMR mal serienreif sein wird, kann man nicht nicht abesehen. Wenn sich jetzt aber z.B. 10 Jahre nichts mehr bei Preisen und Kapazitäten tut, dann invertiert sich die Situation und dann bringt es mehr eine doppelt so teure Enterprise HDD zu nehmen die auf den Transfer von 14 mal so vielen Daten und 6 mal so viele Betriebsstunden ausgelegt ist und dann am Ende auch 10 Jahre hält, als wenn man die billigen Consumer HDD in der Zeit 3 mal tauschen muss.

Der Punkt ist einfach, dass bisher die Plattenkapazitäten so schnell gewachsen sind, dass die längere Haltbarkeit bei Enterprise Platten einfach nicht genutzt wird, auch beim Heimanwender nicht.

zu der Frage warum man die Archive in einem klassischen RAID verwenden soll auch mit "Aktuell eher nicht" beantworten.
Aktuell nur auf eigenes Risiko und mit dem Wissen, dass diese Platten jeden Moment aus dem RAID fliegen können, ohne dass ein Defekt die Ursache ist.
Aktuell betreibe ich 8 x 4TB Seagate Desktop (ST4000DM000) an meinem LSI 9260-8i und hatte noch keine Probleme damit.
Die Desktop ist auch nicht optimal für ein RAID, die NAS wäre die bessere Wahl gewesen.
Mir stellt sich nun auch die Frage "Was machen?"
Reicht der Platz denn nicht mehr? Dann bist genau der Punkt um den es in den vorherigen Beiträgen auch gibt, dass man nämlich nicht nur die €/TB der HDD sehen muss, wenn man das Storage eine bestimmte Größe erreicht hat, sondern auch die Kosten für alles drum herum, wenn man eben keine freien Port, Einbauplätze und Netzteilanschlüsse mehr hat.
Die SMR Problematik haben wir ja anscheinend bei allen (?) Modellen mit 8TB und mehr die so geplant sind und nicht gerade Enterprise Klasse sind (wie die HGST mit Helium).
Richtig, nur mit He Füllung bekommt man derzeit 7 Plattern unter und ohne ist schon der Sprung von 5 auf 6 Plattern gelungen, aber ob am nun so schnell auch die 7. Platte dort noch unter bekommt, darf zumindest bezweifelt werden. Ohne SMR war lange 1TB Pro Platten das Limit, nun hat man auch 1,2TB geschafft, aber schafft man noich die 1,33TB die man braucht um mit 6 Platten auf 8TB zu kommen? Mit SMR geht es, dass zeigt die Archive v2 8TB ja.
Wie gut sich mein LSI Controller (mit älterer Firmware die ich gerne behalten würde) mit SMR Platten verträgt ist auch noch eine Frage.
Sehr wahrscheinlich gar nicht.

Ich denke das liegt an der Geschwindigkeit, denn die Platten sind zwar stetig in der Kapazität gestiegen, aber nicht im gleichen Umfang on der Leistung.
Das ist das Dilema der HDDs: Mit der Steigerung der Datendichte bekommt man mehrSektoren auf eine Spur, aber man hat auch mehr Spuren. Daher bewirkt eine Vervierfachung der Datendichte zwar eine Verdoppelung der Geschwindigkeit, aber eben auch eine Verdoppelung der Zeit um diese Vierfache Kapazität einmal komplett zu übertragen, also zu lesen oder zu schrieben (SMR mal außen vor). Da helfen mehr Plattern nichts, im Gegenteil man steigert dadurch nur die Kapazität. nicht aber die Datendichte und damit auch nicht die Geschwindigkeit. HDDs können immer nich von einem Kopfe Daten übertragen und arbeiten eben nicht parallel über die Plattern, sonst wären die Modellen mit 2TB auch doppelt so schnell wie die mit 1B der gleichen Familie mit der gleiche Drehzahl und Datendichte, aber nur halb so vielen Plattern.
einige der letzten waren ja die Quantum Bigfoot in den 90ern. Wird wohl seine Gründe haben warum diese nicht weiterentwickelt wurden.
So weit ich weiß waren das die letzten, da waren wir bei Kapazitäten in GB die wir heute in TB haben, die Datendichte war also noch um einige Zehnerpotenzen geringer also heute, Köpfe also noch viel größer und viel weiter von den Plattern entfernt und die Bigfoot war nicht als solide und haltbar bekannt. Die Probleme waren schon damals zu groß.
 
...
Nur sehen die meisten Heimanwender es eben eng, wenn ihr RAID und ihre Daten plötzlich weg sind :wall:
Ich meinte das auch eher im Zusammenhang mit daß man ja sowieso ein Backup hat/haben sollte. Und wenn bei einem Heimanwender tatsächlich das RAID aufgrund von Consumer Platter (häufiger) eingeht als im Unternehmensumfeld ist es kein Beinbruch dort einen (Zeit)Ausfall zu haben weil man ein RAID neu aufbauen muß und/oder Platten zu besorgen und/oder das Backup neu einzuspielen usw.
Im Unternehmen kostet das oft viel Geld, selbst wenn es nicht lange dauert bis das wieder rennt.

...
Das sind nicht mehr als unbestätigte Gerüchte, die werden nicht wahrer weil sie oft und überall wiederholt werden, denn keiner kann den Platten die Fertigungstoleranzen oder die genaue Zusammensetzung von den Materialien ansehen, etwa welche Legierungen in den Lagern verwendet werden. Oft werden sogar Unterschied wie eine einseitige oder beidseitige Lagerung der Spindel auch schlicht ignoriert. Aber selbst wenn nur die FW den Unterschied macht, so genügt es z.B. beim RAID schon vollkommen, denn alleine die TLER einstelle zu können bzw. wenn diese ab Werk kürzer ist, kann schon den Unterschied zwischen lange problemlos funktionieren und viel Ärger ausmachen.
Klar ist eine Platte schon anders wenn nur ein Bauteil, ein Lager oder die Firmware anders ist. Und das zu überprüfen ist, so wie Du sagst, nahezu unmöglich. Trotzdem sagt mir der logische Verstand und der Blick in alle möglichen anderen Branchen daß es zumindest teilweise so sein wird daß viele Teile bei einigen Modellen gleich sind. Klar gibt es einige Ausnahmen, das sieht man dann auch schon schnell an den Specs und am Preis. Aber gerade bei einigen Serien die sich SEHR ähnlich sind (Specs UND preislich) kann ich mir nicht vorstellen daß dort überall andere Teile verbaut werden. Gerade wenn die Preise sich nicht großartig unterscheiden liegt es mMn nur eben an der Garantie bzw. der Auslegung (z.B. 24/7 geeignet) der Platte.
Wenn die Hersteller wirklich für jedes Modell eigene Fertigungen und eigene Teile hätten wäre das sehr unwirtschaftlich.

Unabhängig davon, wenn nicht gerade "Sollbruchstellen" wie Bauteile mit einer max. Lebens-/Betriebsdauer verbaut werden kann eine Consumerplatte genau so lange halten und funktionieren wie eine Enterpriseplatte. Die Wahrscheinlichkeit ist jedoch geringer.
Ich sage ja auch nicht daß es vollkommen egal ist welche Platte man nimmt "weil die eh alle gleich sind", bei einigen Modellen kann das jedoch (bis auf die Firmware und vielleicht anderen kleineren Unterschieden) zutreffen. Hängt wohl auch immer vom Einsatz bzw. Nutzung ab was man dann im Endeffekt bevorzugen würde.


...
Bei HDDs zählt auch das Volumen der gelesenen Daten zum Workload, der ist bei einfachen Consumer HDDs eben i.d.R. mit 55TB im Jahr angegeben, bei der Archive v2 mit 180TB / Jahr und bei richtigen 3.5" Enterprise HDDs dann mit 550TB im Jahr, ...
Stimmt bei HDDs ist lesen dabei, war jetzt gedanklich irgendwie bei SSDs und dem TBW.

...
Was Backblaze macht kann man mit dem normalen Einsatz bei Heimanwendern überhaupt nicht vergleichen. Das geht schon mit Beschaffung, dem Transport und der Lagerung der Platten los:

Du meinst eher daß man das mit Enterprise Lösungen überhaupt nicht vergleichen kann, oder? Denn ein Heimanwender kauft ja eher so seine Platten ein und da fliegt die auch gerne mal im Auto rum oder vom Tisch.
Der weitere Einsatz selbst ist dann halt wieder anders als bei den normalen Heimanwendern.

...
Auf jeden Fall würde ich jedem dem diese Statistik über den Weg läuft empfehlen sich auch diesen Artikel von tweaktown dazu einmal aufmerksam durchzulesen. Deren Fazit kann man sich daher nur anschließen:
Klar ist das nicht Gottes Weisheit, allerdings ist es immerhin besser als eine Handvoll Nutzer die von einer Handvoll Platten in Foren oder Preissuchmaschinen, Blogs oder direkt Einkaufsseiten Ihre Meinung und Berichte kundtun. Und wie gesagt näher am normalen Heimanwender dran als wenn das irgendwelche großen Datencenter mit Businessgeräten und Anforderungen machen würden.

...
Dem Konzept werden sie aber selbst zunehmend untreu, die alten WD Green wurden durch die WD Red ersetzt die mehr als die Green kosten, aber wenigstens 24/7 zugelassen sind, die HGST Megascale ist eine OEM Enterprise HDD und kostet deutlich mehr als günstiger Consumer HDDs, die alten HGST Desktop haben auch praktisch für so einen Einsatz relevaten alle Features die auch die Megascale hat, wie 24/7 Zulassung und Virbationssensoren (HGST nennt die Technik Rotational Vibration Safeguard (RVS)), das waren im Grunde auch Enterprise Platten und mit den einfach Modelle wie der Seagate Barracuda gar nicht zu vergleichen, die waren auch deutlich teurer. Dafür haben sie bei Backblaze auch viel besser durchgehalten.
Naja die Preiseunterschiede sind (zumindest bei WD) nicht sehr groß, und sie schreiben ja selbst daß es stark davon abhängt was sie für Angebote bekommen.
Wenn eine Red im Angebot um 5-10 USD mehr als eine Green kostet, dafür aber auch länger Garantie hat ist es Ihnen vielleicht schon wert.
Die Megascale passen jedoch nicht mehr so ganz ins Konzept, stimmt.

...
Wird sind aber erstmal an einem technischen Limit bzgl. der Kapazitätssteigerungen angekommen und damit wird auch der Preisverfall aufhören, denn wann HMR mal serienreif sein wird, kann man nicht nicht abesehen. Wenn sich jetzt aber z.B. 10 Jahre nichts mehr bei Preisen und Kapazitäten tut, dann invertiert sich die Situation und dann bringt es mehr eine doppelt so teure Enterprise HDD zu nehmen die auf den Transfer von 14 mal so vielen Daten und 6 mal so viele Betriebsstunden ausgelegt ist und dann am Ende auch 10 Jahre hält, als wenn man die billigen Consumer HDD in der Zeit 3 mal tauschen muss.
Das sich der Anstieg der Kapazität und der Preisverfall pro GB in letzter Zeit eingebremst hat merkt man schon. (Mal unabhänig von der Flut Ende 2011)
Ob bzw. daß jetzt aber vorerst bzw. für eine längere Zeit Schluß ist glaube ich nicht. Es wird halt noch langsamer und neue Techniken (SMR, HMR etc.) müssen her aber irgendwie wird (und muß) es ja weitergehen. Ähnlich wie die DSL Geschichte ... hier sitzen unmengen an Kunden in Deutschland und Österreich ja auch noch mit klassischen ADSL (oder gar weniger!) fest. Was in etwa allerhöchstens 16/1 MBit Down/Up darstellt aber sich real jedoch sehr oft eher bei 6-8/0,6-0,8 MBit einpendelt (zumindest kenne ich das hier in Österreich so).
Aktuell ist das für die meisten Kunden wohl okay, aber Aufgrund der starken Verbreitung von Streaming Diensten (Netflix & Co), immer größer werdenden Datenmengen bei Spielen (zum Download) wird es früher oder später eng mit den Bandbreiten. Dauert bestimmt auch noch eine Weile bis der "Breitand Ausbau" bzw. in Ö die Breitband Milliarde durchgeführt ist.

...
Die Desktop ist auch nicht optimal für ein RAID, die NAS wäre die bessere Wahl gewesen.
Die hat es damals leider noch nicht gegeben. Aber wie gesagt laufen die jetzt schon bald 2 Jahre lang (nicht 24/7 da SpinDown) ohne Probleme.

...
Reicht der Platz denn nicht mehr? Dann bist genau der Punkt um den es in den vorherigen Beiträgen auch gibt, dass man nämlich nicht nur die €/TB der HDD sehen muss, wenn man das Storage eine bestimmte Größe erreicht hat, sondern auch die Kosten für alles drum herum, wenn man eben keine freien Port, Einbauplätze und Netzteilanschlüsse mehr hat.
Aktuell komme ich noch damit aus, nur die Daten werden nicht weniger, die Platten nicht jünger und deswegen halte ich immer wieder Ausschau nach größeren/neuen Platten.
Und genau wie Du sagst ist das drumherum auch ein Thema. Mit Einbauplätzen habe ich schon ein Problem und für mehr Ports würde ich einen Expander benötigen oder ich nutze die Ports des Mainboards (mit Software RAID Lösungen). Mein erster Gedanke wäre nur eben die Platten zu ersetzen und die alten vielleicht noch als Offline/im Kasten Backup zu nutzen. Aber mal sehen was sich bei den Platten so tut und was ich dann tatsächlich mache.

... [betreffend LSI Controller und ältere Firmware]
Sehr wahrscheinlich gar nicht.
Habe mich da noch gar nicht schlau gemacht. Werde ich aber wohl müssen wenn jetzt mehr Platten mit SMR kommen und ich den Controller noch eine Weile nutzen will.

...
HDDs können immer nich von einem Kopfe Daten übertragen und arbeiten eben nicht parallel über die Plattern, sonst wären die Modellen mit 2TB auch doppelt so schnell wie die mit 1B der gleichen Familie mit der gleiche Drehzahl und Datendichte, aber nur halb so vielen Plattern.
Hab' mich eigentlich eh schon immer gefragt warum das nicht gemacht wird daß alle Köpfe gleicheitig lesen/schreiben können. Wenn die Daten wie in einem Raid 0 auf den Plattern gelesen/geschrieben werden müssten sich die Köpfe auch nicht unabhängig voneinander positionieren sondern könnten so starr bleiben wie aktuell. Ist wohl zu aufwendig für die interne Logik Daten parallel zu bekommen.

Ich bin auf jeden Fall gespannt was WD für 8TB Modelle bringt bzw. was in Zukunft generell für 10, 12 und mehr? TB Platten kommen.
SSDs werden zwar auch immer günstiger und auch (zumindest wenn man das SATA Limit mit NVMe und PCI-E Anbindung überwunden hat) immer schneller, aber bis die mal die €/GB Preise der HDDs erreichen wird es noch eine Weile dauern.
 
Zuletzt bearbeitet:
meine zwei platten sind jetzt auch angekommen (zu je 208€ - bestellt im dezember ;-))

Ich hätte mal eine Frage bzgl. testing / burn-in (platten laufen unter ubuntu 14.04)

ich habe über die platten bereits smartctl mit short und conveyance laufen lassen und nun läuft badblocks (mit block size 4096 da es sonst streikt wg. der Plattengröße). Im Anschluss lass ich dann nochmal den langen Smarttest (mit smartctl) durchlaufen. Nun gibt es ja die Seatools (wenn auch nicht für linux). Macht es Sinn zusätzlich nochmal Seatools laufen zu lassen? Ich denke nicht, bin da aber dankbar für Zweitmeinungen ;-)

Cheers
Eule

P.s.: zur Info: laufen bei mir als Datenarchiv - erstmal werde ich die Platte täglich nachts spiegeln auf zweite bis die erste voll ist, dann werde ich eine dritte platte kaufen und ein snapraid draus machen)
 
Aber gerade bei einigen Serien die sich SEHR ähnlich sind (Specs UND preislich) kann ich mir nicht vorstellen daß dort überall andere Teile verbaut werden.
Da wird es sicher viele Gleichteile geben, aber dann ist immer noch die Frage nach der Spezifikaton dieser Teile, also z.B. mit welche Präzision die Platten auf der Spindel gewuchtet werden müssen. Da kann es durchasu sein, dass die Anforderungen bei einer 24/7 Platte eben höhe sind um die Lagen weniger zu belasten und schon hat man einen deutlichen Unterschied auf bzgl. der Haltbarkeit. Es gibt eben bei jeder Fertigung Toleranzen und je strenger die Anforderungen sind, umso wenig Teile erfüllen diese. Klar kann man sicher auch Glück haben und dann z.B. eine ganz perfekt gewuchtete Sindel in eine Green finden, aber vielleicht wird man in einer Red eben im die besser gewuchteten bekommen. Keine Ahnung ob das bei WD konkret so ist, aber es wäre logisch bei einer 24/7 Platte eben mehr Aufwand an so einer Stelle zu investieren.

Denn ein Heimanwender kauft ja eher so seine Platten ein und da fliegt die auch gerne mal im Auto rum oder vom Tisch.
Hoffentlich nicht so sicher nicht in den Menge. Ich hoffe doch mal, dass die meisten Heimanwender schonender mit ihren Platten umgehen als es nach den Fotos der Backblazemitarbeiter den Eindruck macht.
Die Megascale passen jedoch nicht mehr so ganz ins Konzept, stimmt.
Und schneidet überraschend gut aber, bzw. moch überrascht deren gutes Abschneiden dort nun gar nicht.

und neue Techniken (SMR, HMR etc.) müssen her aber irgendwie wird (und muß) es ja weitergehen.
SMR haben wir ja nun, HMR lässt auf sich warten und nur weil es dringend gebraucht wird um die Kapazitäten wirklich zu erhöhen, SMR und auch He-Füllung erlauben ja auch nur relativ gering Steigerungen im Vergleich zu sem was man sich von HMR verspricht.
Und genau wie Du sagst ist das drumherum auch ein Thema. Mit Einbauplätzen habe ich schon ein Problem und für mehr Ports würde ich einen Expander benötigen oder ich nutze die Ports des Mainboards (mit Software RAID Lösungen).
Das ist eben der Unterschied ob man nur eine oder zwei platten im Desktop verbaut oder ein großes Storage realisiert und dann eben viel weitere Kosten neben dem Preis der Platte berücktigen muss. Da bekomen die Kapazitäten eine ganz andere Bedeutung, wenn man dafür mit weniger Platte auskommt.
Aber mal sehen was sich bei den Platten so tut
Da sehe ich wenig am Horizont, vielleicht schafft es noch eine günstigere 8TB ohne SMR auf den Markt, aber es werden nun vor allem SMR Platten kommen.

Hab' mich eigentlich eh schon immer gefragt warum das nicht gemacht wird daß alle Köpfe gleicheitig lesen/schreiben können. Wenn die Daten wie in einem Raid 0 auf den Plattern gelesen/geschrieben werden müssten sich die Köpfe auch nicht unabhängig voneinander positionieren sondern könnten so starr bleiben wie aktuell. Ist wohl zu aufwendig für die interne Logik Daten parallel zu bekommen.
Das habe ich mich auch schon oft gefragt, die Logik kann nicht der Grund sein, die könnte man in den Controllern ändern und als die SSD aufgekommen sind, hätte man auch allen Grund dazu gehabt. Eine Platten mit 4 Platten könnten dann 4x so schnell sein, also bis zu 800MB/s übertragen, was mit SATA Express sogar fast möglich wäre. Das Problem dürfte einfach die Syncronisierung aller Köpfe auf allen Spuren gleichzeitig sein und wenn das mal nicht klappt hat man wieder eine Umdrehung verloren. Klappt es zu oft nicht, ist man am Ende langamer unterwegs als jetzt, da vermute ich liegt die Ursache warum es nicht realisiert wird. Es könnte auch sein, dass man einfach zu viele Fehlerstellen auf den Oberflächen habe, heute muss man nur die Stelle auf der einen Oberfläche ausblenden, aber wollte man die Köpfe parallel nutzen, müsste man diese Stellen auf allen Oberflächen ungenutzt lassen und bei 4 Plattern wäre das dann ein Faktor 8. Wen man heute z.B. 3 % defekte Oberfläche erlaubt, wäre man bei 24% die ungenutzt bleiben und das ist dann sehr viel. Keine Ahnung wie realistisch 3% sind, aber jede Scheibe hat mit Sicherheit defekte Stellen, so große Platten ohne jeden Fehler zu fertigen wird man kaum schaffen.

Ich bin auf jeden Fall gespannt was WD für 8TB Modelle bringt bzw. was in Zukunft generell für 10, 12 und mehr? TB Platten kommen.
Zu einer 8TB WD habe ich noch nichts gefunden, eine 10TB ist von HGST mit He und SMR angekündigt. Spannend wird vor allem, wann solche HDDs dann kommen werden. Es hat auch recht lange gedauert, bis es über 4TB losging.
SSDs werden zwar auch immer günstiger ... aber bis die mal die €/GB Preise der HDDs erreichen wird es noch eine Weile dauern.
Ja, auch da sind die physikalischen Grenzen fast erreicht, man kann die Zellen eigentlich nicht mehr kleiner machen, da dann viel zu wenige Elektronen darin Platz haben und das Unterscheiden der Ladungszustände dann immer schwerer wird. Der Ausweg ist 3d NANDs, aber einmal ist da die Fertigung wegen der viele Schritte sehr aufwendig (und angeblich noch teurer als planares NAND), was auch den weitere Erhöhung der Schichtanzahl begrenzt und dann geht der Trick nur einmal, eine 4. Dimension zu erschliessen wird schwer :wall:

Das Potential ewig weiter die Preise zu senken wird also auch bei SSDs irgendwann immer beschränkter werden. Ob man damit die HDDs irgendwenn bei den €/GB einholen kann, dürfte davon abhängen welche neuen Tricks zur Überwindung der sich abzeichnenden Grenzen beider Technologien es zu Serienreife schaffen.
 
Wichtige Daten speichert man auf einem 2x 4TB Raid 1 plus externer 4TB Backup Platte. Das reicht für nahezu alle User.
Macht fast niemand. Aus einem sehr einfacheh Grund: Die Kohle ist knapp. Die meisten fahren Jbod/Raid0 aus Reds, weil sie nicht ganz so viele Volumes blicken wollen (naja), und sichern jeweils so ein Volume auf eine größere externe/offline Platte der billigeren non-24/7 Sorte.
 
Zuletzt bearbeitet:
Code:
  pool: Testpool
 state: ONLINE
  scan: resilvered 5.70T in 115h40m with 0 errors on Sat Apr 25 09:35:58 2015
config:

	NAME        STATE     READ WRITE CKSUM
	Testpool    ONLINE       0     0     0
	  raidz3-0  ONLINE       0     0     0
	    da3     ONLINE       0     0     0
	    da7     ONLINE       0     0     0
	    da4     ONLINE       0     0     0
	    da0     ONLINE       0     0     0
	    da1     ONLINE       0     0     0
	    da5     ONLINE       0     0     0
	    da6     ONLINE       0     0     0
	spares
	  da2       AVAIL

errors: No known data errors

"Normale Festplatten würdem da vermutlich keine 2 Tage benötigen
 
Zuletzt bearbeitet:
Das ist übel. Zwar einerseits irgendwie schön, wenn das Budget mehr nicht hergibt und man es z.B. für ein inkrementelle Backups eines NAS nutzt, andererseits aber der USB2-Speed ist doch irgendwie übel :)

Gibt es schon Infos, ob WD eine 8GB <300€ nicht-24/7 Platte in der Pipeline hat? Die dann ungefähr 3 Tage dafür gebraucht hätte (?) :) :)
 
Habe heute morgen in die Chip 4/15 reingeguckt dort ist der Test der 8TB Seagate drin.
Dort stand was davon das mit normaler Technik bei 8TB Schluß sein soll. Mit SMR erhofft man sich in den nächsten 5 Jahren bis 20TB bereitstellen zu können.
Insgesamt gefiel mir der Test aber nicht wirklich. Als langsamster Übertragung wurde das was von um die 60Mb/Sek geschrieben.
Aus eigenen Tests und auch den anderen Review läßt sich immer wieder die 35MB/Sek Schreibgeschwindigkeit ablesen.

Je mehr auf einmal rüber kopiert wird umso langsamer ist die Platte. Habe gestern per USB3 noch ein paar mal 300GB Pakete rübergeschoben die erstaunlich schnell fertig waren. Dort könnten die 60Mb/Sek auch stimmen.

Ich würde fast sagen das wenn man sie als Back Up nutzen möchte, dass man das Ganze in Wellen rüber kopiert. Als Beispiel lieber 5x 300GB anstatt 1x 1,5TB
Kommt mir deutlich schneller vor. Nur muss man dann immer wieder die Kopie Aufträge neustarten.
 
Zuletzt bearbeitet:
Das ist übel. Zwar einerseits irgendwie schön, wenn das Budget mehr nicht hergibt und man es z.B. für ein inkrementelle Backups eines NAS nutzt, andererseits aber der USB2-Speed ist doch irgendwie übel :)

Gibt es schon Infos, ob WD eine 8GB <300€ nicht-24/7 Platte in der Pipeline hat? Die dann ungefähr 3 Tage dafür gebraucht hätte (?) :) :)

Es kommt halt auf die Nutzung an:
Bei einer Archiv-Platte wird oft nur 1x geschrieben und danach wird nur noch Read-Only zugegriffen. Ideal als Langzeit-Medienspeicher.
Und lesend bietet die Platte ja genügend Speed.

Somit einfach 2-10 Stück im JBOD (einzeln, nicht Clustern) und dann mittels 2-3 Parity Platten alle 1-2 Wochen ein Snapshot erstellen.
Falls es nur unwichtige Filmdaten sind und eine Downtime absolut egal ist, dann braucht man auch gar keine Parity Platten.

Meine 12x 2TB Platten wurde auch nur 1x beschrieben bis sie voll waren und danach wurde gar nichts mehr darauf geschrieben.
In ein kleines Mini-ITX NAS kriegt man mit den 8TB Platten nun ohne Parity 80TB Speicher hin. Beeindruckend und das reicht für fast jede BD Untouched Sammlung. Für die MKV (inkl. Kompression) Fans reicht wohl schon eine einzelne Platte aus.
 
h2testw-result.PNG
crystaldiskmark-result.PNG
crystaldiskmark-result-2.PNG

Wird bei mir als Archivplatte eingesetzt werden mit wesentlich lesendem Zugriff.
 
Zuletzt bearbeitet:
Dort stand was davon das mit normaler Technik bei 8TB Schluß sein soll.
Wobei es so eine Platte noch nicht gibt, außer man rechnet die He-Füllung schon zur normalen Technik.
Mit SMR erhofft man sich in den nächsten 5 Jahren bis 20TB bereitstellen zu können.
Dann muss man aber noch mehr Spuren überlappend ausführen und auch auf On-Disk Cache weitgehend verzichten, was für die Wort-Case Schreibraten entsprechende Folgen haben wird.
Insgesamt gefiel mir der Test aber nicht wirklich. Als langsamster Übertragung wurde das was von um die 60Mb/Sek geschrieben.
Aus eigenen Tests und auch den anderen Review läßt sich immer wieder die 35MB/Sek Schreibgeschwindigkeit ablesen.
Man kann bei so einer Platte kaum die jeweils zu erwartende Schreibrate bestimme, das geht einfach nicht, schon gar nicht ohne eine Filesystem welches SMR aware ist. Die 35MB/s könnten schon Worst-Case sein, dann hat die Chip den Fall eben nicht erreicht, aber vielleicht ist Worst-Case auch nur 20MB/s und Du hast es noch nicht erlebt, zumal ja auch SMR HDDs auf den inneren Spuren etwa um den Faktor 2 langsamer sind als auf den äußeren Spuren.

das Ganze in Wellen rüber kopiert. Als Beispiel lieber 5x 300GB anstatt 1x 1,5TB
Kommt mir deutlich schneller vor.
Das dürfte am On-Disk-Cache der Archive liegen, dessen Inhalt dann erst im Idle auf die entgültige Position geschrieben wird.

In ein kleines Mini-ITX NAS kriegt man mit den 8TB Platten nun ohne Parity 80TB Speicher hin. Beeindruckend und das reicht für fast jede BD Untouched Sammlung.
10 Platten als JBOD, das ist aber extremes Risiko, denn fällt eine aus ist meist alles hin, allenfalls auf der ersten kann man noch was retten. Aber das hängt vom Filesystem ab.

Das die Archive beim langen sequentiellen Schreibzugriffen schnell schreiben kann, sieht Du hier. Da scheinen die Cache Algorithmen optimal zu funktionieren und die Platte erkennt, dass sie keine Spuren unnötig lesen und dann wieder neu mit den alten Daten überschrieben muss.
Auch hier sieht man den Effekt der Caches, denn 4k mit 13,95MB/s kann eigentlich keine HDD schreiben. Bei 4k QD32 klappt das dann nicht mehr, da reicht der Cache offenbar nicht mehr und damit sehen wir dann auch entsprechende Werte.
Wenn nur über 50MB statt 4GB gebencht wird, klappt es doch wieder alle Schreibzugriffe zu cachen, Kunststück bei alleine 128MB RAM. Es wundert mich nur, warum die Platten trotzdem so langsam liest und offenbar nur bei 512k Lesend wirklich die Daten aus dem Cache geholt hat.
 
Zuletzt bearbeitet:
10 Platten als JBOD, das ist aber extremes Risiko, denn fällt eine aus ist meist alles hin, allenfalls auf der ersten kann man noch was retten. Aber das hängt vom Filesystem ab.
Hm...??? :confused:
Ich hab das anders in Erinnerung. Bei JBOD zeigt der Controller einzelne Laufwerke lediglich als ein Volume an.

Die Daten sind daher nicht restlos verloren.
 
Zuletzt bearbeitet:
Hm...??? :confused:
Ich hab das anders in Erinnerung. Bei JBOD zeigt der Controller einzelne Laufwerke lediglich als ein Volume an.

Die Daten sind daher nicht restlos verloren.
Genau, 1 Volume! Da liegt der "Knasus Knaxus" verborgen. Diese Volume wird mit einem Dateisystem formatiert.
Ein Dateisystem benötigt Verwaltungsinformationen, und wo liegen die?
Bei FAT/Fat32/extFatc z.B. am Anfang des Volumes und am Ende Ende eine Sicherungskopie.
Bei NTFS in der MFT, die zwar nicht zwingend als ein einzelner Datenblock vorliegen muss, aber auch da kann man nicht mit Bestimmtheit sagen wo diese liegt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh