[News] Seagate 8 TB Festplatte für unter 250 € nagelneu , wo ist der Haken ?

SMR Platte erzeugen eben unter Umständen extrem hohe Anwortzeiten, aber das hatten wir hier gefühlt auf jeder zweiten Seite im Thread und ebenso, dass die Antwortzeiten der Archive lock über dem Timeout der meisten RAID Lösungen liegen können, wenn sie eben nicht mehr nur in den On-Disk Cache schreiben kann, storagereview hatte im Review vom 6. März eine maximale Latenz von 5,088s Lesend und 212s Schreibend bei QD16 ermittelt (das hatten wir damals auch schon hier im Thread), während die bei normalen HDDs Lesend sogar höher sein kann, kam dort keine Schreibend auch nur auf 5s. Der Timeout von HW RAID ist üblicherweise aud 8s eingestellt, bei den SW RAIDs muss man das jeweils nachlesen, 212s sind schon eine Menge und wer sagt, dass es bei anderen Belastungen nicht noch mehr sein können? Antwortet eine Platte innerhalb des Timeouts nicht, wird sie gewöhnlich als defekt eingestuft und fliegt aus dem RAID.

Das ist eben eine Eigenart von SMR Platten und solange die HW und SW RAIDs sich darauf nicht angepasst haben indem sie eben SMR-aware sind und damit die Platte fragen welches Zonen wo liegen und damit wissen können, wie lange die Antwortzeit bei welchen Zugriffen sein können, sind die eben nicht RAID tauglich. Das werden sicher noch viele User feststellen, die die Archive einfach für eine gewöhnlich HDD mit viel Kapazität für wenig Geld verwechseln und sich eben nicht mit den Eigenarten von SMR HDDs auseinander gesetzt haben.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo,
ich hab nach einiger Zeit mal wieder ein HD-Tune check gemacht und einige SMART Werte verwundern mich etwas.
HDD wurde natürlich direkt nach Kauf mit CDI, CDM, h2test, HDTune etc stundenlang getestet - alles TOP.
Danach wurde die HDD normal genutzt.

HD Tune sagt zwar aktuell alle SMART Werte seien ok, aber speziell das "Raw Read Error" und "Hardware ECC Recovered" sind von 0 auf tierisch hohe Zahlen gegangen. (Siehe Anhang - Habe die Zeilen manuell markiert auf dem Bild)
Habt ihr so ein Verhalten bei euch auch und/oder ist das bedenklich?

Danke



0.jpg
 
Zuletzt bearbeitet:
Vergiss HD Tune, dass Programm ist Schrott und kennt die Interpretation dieser Rohwerte bei Seagate HDDs nicht. Die Dezimale Anzeige der Rohwerte ist auch Mist, da erkennt man überhaupt nicht, ob es Fehler gab, denn die stehen nur in den ersten beiden Bytes, die anderen 4 Bytes sind die Anzahl der Vorgänge und die steigt mit der Nutzung natürlich an.

Die Ermittlng der Aktuellen Werte funktioniert mehr oder weniger für diese Attribute nach dieser Formel für die Suchfehler:
 
Hi Leute!

Hat jemand schon Erfahrungen mit der Archive v2 in Windows (Server 2012/R2 bzw. Win 8/8.1) mit Storage Spaces gemacht? Speziell z.B. als Mirror (Quasi Raid 1 Software)? Parity (Raid 5 Software) soll ja generell bei Storage Spaces die Write Performance extrem mies sein, auch bei normalen Platten.

Da die Platte ja nicht für ein Raid System gedacht ist und mein mittlerweile etwas älterer LSI 9260-8i mit auch älterer Firmware bestimmt nicht der optimalste für eine SMR Platte ist überlege ich diese eben am normalen Intel Onboard SATA Controller zu nutzen. Ich möchte aber trotzdem irgendeine Ausfallsicherheit gegen einen Festplattendefekt.
Irgendwer hier nutzt die Platten ja mit einem ZFS unter Linux, oder?
Irgendwie will ich das Intel Software Raid des Controllers auch nicht nutzen, oder gibt es da schon Erfahrungen mit den SMR Platten?

Ich würde mich ja nicht so auf die Platte verbeissen, aber aktuell ist sie die einzige günstige 8TB am Markt. Die Hitachi Helium sind ja für einen Privatanwender fast unbezahlbar (zumindest im Vergleich zu der Seagate) und andere Alternativen (außer kleinere Platten die aber oft auch ein schlechteres P/L Verhältnis haben) gibt es aktuell keine.
 
Hat jemand schon Erfahrungen mit der Archive v2 in Windows (Server 2012/R2 bzw. Win 8/8.1) mit Storage Spaces gemacht? Speziell z.B. als Mirror (Quasi Raid 1 Software)? Parity (Raid 5 Software) soll ja generell bei Storage Spaces die Write Performance extrem mies sein, auch bei normalen Platten.

Über Storage Spaces und SMR Platten hab ich hier noch nichts gelesen. Und Storage Spaces hab ich einmal angetestet, mehr aber auch nicht. Dann aber ganz schnell die Finger davon gelassen und bin auf OmniOS/ZFS gegangen. Nein, ich setze keine SMR Platte ein.

Da die Platte ja nicht für ein Raid System gedacht ist und mein mittlerweile etwas älterer LSI 9260-8i mit auch älterer Firmware bestimmt nicht der optimalste für eine SMR Platte ist überlege ich diese eben am normalen Intel Onboard SATA Controller zu nutzen. Ich möchte aber trotzdem irgendeine Ausfallsicherheit gegen einen Festplattendefekt.
Irgendwer hier nutzt die Platten ja mit einem ZFS unter Linux, oder?
Irgendwie will ich das Intel Software Raid des Controllers auch nicht nutzen, oder gibt es da schon Erfahrungen mit den SMR Platten?

Ich behaupte jetzt mal, dass deine LSI die 8TB HDD gar nicht als 8TB erkennt.
Ja, hier gibts Leute die die Seagate unter ZOL und ZFS/OmniOS einsetzen.

Ich würde mich ja nicht so auf die Platte verbeissen, aber aktuell ist sie die einzige günstige 8TB am Markt. Die Hitachi Helium sind ja für einen Privatanwender fast unbezahlbar (zumindest im Vergleich zu der Seagate) und andere Alternativen (außer kleinere Platten die aber oft auch ein schlechteres P/L Verhältnis haben) gibt es aktuell keine.

Du darfst auch nicht Äpfel mit Birnen vergleichen.
 
...
Ich behaupte jetzt mal, dass deine LSI die 8TB HDD gar nicht als 8TB erkennt.
Ja, hier gibts Leute die die Seagate unter ZOL und ZFS/OmniOS einsetzen.
Wg. der 8TB Größe wäre ich mir nicht sicher, ich denke das könnte der Controller noch akzeptieren. Immerhin laufen die 4TB auch einwandfrei. Aber ich hätte eher bedenken wg. SMR. Und speziell wenn die dann in irgendeinem Raid Array laufen.
Wie gesagt erwäge ich bei den Archive v2 Platten mit SMR sowieso nicht diese am Controller und schon gar nicht als Raid darauf zu verwenden.

Aber immerhin dürfte ZFS ja bei einigen mit den Platten ohne Probleme laufen, oder? Deswegen auch meine Frage ab vielleicht jemand Storage Spaces und ReFS mit den Platten nutzt. ZFS gibt's ja unter Windows leider nicht.

Du darfst auch nicht Äpfel mit Birnen vergleichen.
Schon klar, deswegen habe ich auch "Privatanwender" geschrieben da die Helium Platten ja aus der Server Sparte kommen und somit für die meisten Heimanwender nicht wirklich in Frage kommen.
Hitachi hat ja 10TB Laufwerke angekündigt, allerdings wohl auch auf SMR basieren, aber eventuell Enterprise Level werden. Bin schon gespannt wie die das realisieren. Preislich werden die Dinger jedoch wohl auch auf dem Level der Helium Drives stehen denke ich.

Aktuell wohl eine recht festgefahrene Situation:
8TB nur sauteuer da Enterprise oder SMR lediglich als Backup/Archiv.
10TB wohl auch nur noch mit SMR und dann wohl auch entweder teuer da Enterprise oder eventuell wieder nur Backup/Archive???
 
Wg. der 8TB Größe wäre ich mir nicht sicher, ich denke das könnte der Controller noch akzeptieren. Immerhin laufen die 4TB auch einwandfrei. Aber ich hätte eher bedenken wg. SMR. Und speziell wenn die dann in irgendeinem Raid Array laufen.
Ob die Größe unterstützt wird, müsste man ausprobiere aber das geht ja, nur der Timeout ist das Problem. Wenn Du den nicht auf sagen wir mal wenigstens 300s hochstellen kannst, riskierst Du das Dir die Platten irgendwann aus dem RAID fliegen, wenn die doch mal in eine Situation kommen wo es so lange dauert bis sie antworten. Im Review bei Storagereview waren es ja Antwortzeiten bis zu 212s, die HW RAID Controller haben meinst nur 8s Timeout voreingestellt. Wenn Du den Timeout nicht entsprechend hoch einstellen kannst, dann wird es eben eine Weile gut gehen, aber nur solange eben keine Belastungen bei einer Platte entstehen die eine höhere Antwortzeit zur Folge haben, nur kann man das eben schwer vorhersagen.

Deshalb ist auch die Frage ob jemand sowas mit Storage Spaces oder ReFS nutzt nur bedingt sinnvoll, denn wenn es keine Probleme gab, weißt Du immer noch nicht wie das RAID überhaupt belastet wurde und ob die Platten jemals in einer Situation waren, wo sie hoch hohe Antwortzeiten hatten.

Hitachi hat ja 10TB Laufwerke angekündigt, allerdings wohl auch auf SMR basieren, aber eventuell Enterprise Level werden.
Das werden wohl mit Enterprise HDDs sein und daher preislich wohl nicht mit der Archive v2 konkurrieren. Die Archive ist ja eher so halb Enterprise, 24/7 Zulassung und 180TB Workload gehen jedenfalls klar in die Enterpriserichtung.
Bin schon gespannt wie die das realisieren.
Irgendwo stand mal, dass die HGST nach dem Schreiben immer die Daten noch einmal prüfen, was zu einer noch langsameren Schreibgeschwindigkeit führen würde, dafür aber die Fehlerrate senken soll. Die genau Positionierung ist bei den überlappenden Spuren von SMR wohl noch eine gewaltige Herausforderung. Gespannt bin ich vor allem, ob die HGST dann einen Host voraussetzen der SMR Aware ist, was bei der Zielrichtung SMR Platten in Enterprise Umgebungen einzusetzen eigentlich am sinnvollsten wäre, dann laufen die eben nur in einer passenden Umgebung und nicht wie die Archive überall aber dafür auch vielerorts dann irgendwann in Probleme.

10TB wohl auch nur noch mit SMR und dann wohl auch entweder teuer da Enterprise oder eventuell wieder nur Backup/Archive???
Für Schreibintensive Lasten kann man SMR nie einsetzen, dafür taugt die Technik nicht, denn auch wenn der Host SMR Aware ist, dann muss irgendwann immer auf Spuren geschrieben werden bei denen andere überschrieben werden und diese müssen vorher gelesen und hinterher zurückgeschrieben werden, womit die Schreibperformance den Bach runter geht. Ein Host der SMR Aware ist hat nur den Vorteil das er eben selbst bestimmen kann, auf was für Spuren er schreibt und damit auch weiß, welche Antwortzeiten er da ungefähr erwarten kann, da er die Zonen kennt. Das ist bei der Archive nicht so, bzw. die kann das wohl auch ausgeben aber kein System außer der experimentellen Erweiterung für ext4 fragt diese ab.

Dann ist da der OnDisk Cache der bis zu so etwa 40GB am Stück die Schreibraten hoch hält und auch bei langen seq. Zugriffen versteht es die FW offenbar die Schreibrate normal zu halten, wie man ja beim Beschreiben mit h2testw sieht. Damit fallen die Probleme aber eben auch nie sofort auf, sondern immer erst nach einige Zeit, eben wenn beides mal nicht greift.
 
Aber immerhin dürfte ZFS ja bei einigen mit den Platten ohne Probleme laufen, oder? Deswegen auch meine Frage ab vielleicht jemand Storage Spaces und ReFS mit den Platten nutzt. ZFS gibt's ja unter Windows leider nicht.

Ja sicher gibt es hier in diesem Thread so einige die die SMR HDDs unter ZFS am Laufen haben. Lies dir doch mal den Thread durch, wäre vielleicht sehr hilfreich, dann erfährst du auch wo so die Problemchen sind.
Nur ein paar Einträge weiter oben, ist einem sein 300+TB pool 'um die Ohren geflogen' als der Workload höher wurde.

Zu Storage Spaces kann ich nur noch sagen, dass als ich dieses "Feature" mal ausgetestet hatte, ich an gar keine Test-Daten mehr rankam, als ich eine HDD aus dem Verbund raus nahm und später wieder reinsteckte. Da war dann der Spaß für mich ganz schnell zu Ende.

Nein ZFS unter Windows gibts nicht, aber du kannst ZFS für Windows möglich machen. :d
Ich nenn mal CIFS oder iSCSI.

- - - Updated - - -

Laut LSI Docu verträgt die LSI 9260-8i Karte die HGST 8TB, dann wird sie auch die Seagate als 8TB erkennen.

Ich hatte es deshalb erwähnt, weil vor wenigen Tagen in einem anderen Forum die 4TB HDDs nicht richtig erkannt wurden. Dann nach einigem hin und her kristallisierte es sich raus, dass es an der Karte lag. Karte ausgetauscht gegen neueres Modell und Alles war gut.
 
ich betreibe einen IBM-M5015, was einem 9260-8i gleicht.
Der wurde bei ebay gekauft und konnte nur 2TB-Platten.
Erst ein Firmwareupdate hat dafür gesorgt, das meine 3TB auch sauber erkannt wurden.
Die IBM Firmware verwende ich, weil diese ein ganzes Raid schlafen schicken kann.
Es ist anzunehmen, das 8TB kein Problem sind. Getestet habe ich das leider nicht.

An einem 9265-8i habe ich, erfolgreich und performant, zwei Seagate Archive 8TB Platten im Raid-0 betrieben.

Vielleicht magst du deine Frage noch mal hier rein stellen:
http://www.hardwareluxx.de/communit...flash-anleitung-benchmarks-etc-935898-37.html
 
Nur ein paar Einträge weiter oben, ist einem sein 300+TB pool 'um die Ohren geflogen' als der Workload höher wurde.
Ich lese in diesem Thread eigentlich sehr aufmerksam mit und betreibe selber ein Raidz3 aus 19 Platten, DAS wäre mir aufgefallen :)
verwechselst du da vieleicht was aus einem anderem Forum?

EDIT: hab's gefunden!!

128 TB Nettokapazirtät, davon mittlerweile ca. 65 TB belegt.
Maximale Last im Betrieb begrenzt durch GBit LAN als ca. 100 MB/s aufgeteilt auf die 19 Platten ist sehr gering. Die Last bei einem Scrub dürfte ungleich höher sein.

im übrigen läuft das Ganze immer noch Rockstable, Performanceeinbrüche kann ich via GBit LAN keine ausmachen.
 
Zuletzt bearbeitet:
Scrubbing ist aber Read Only, zumindest solange da keine Probleme auftauchen und auch dann sollte es kein große Schreiblast geben. Lesend macht sich SMR aber nicht bemerkbar, da gibt es auch keine besonders hohen Antwortzeiten.
 
Ich hatte ja auch nur geschrieben, das die (Lese-)Last beim Scrubben höher ist, als bei mir im normalen Betrieb, die ca. 115 MB/s im Maximum werden ja auf alle Platten verteilt, macht ca. 6-7 MB/s Pro Platte
 
Ob die Größe unterstützt wird, müsste man ausprobiere aber das geht ja, nur der Timeout ist das Problem. Wenn Du den nicht auf sagen wir mal wenigstens 300s hochstellen kannst, riskierst Du das Dir die Platten irgendwann aus dem RAID fliegen, wenn die doch mal in eine Situation kommen wo es so lange dauert bis sie antworten. Im Review bei Storagereview waren es ja Antwortzeiten bis zu 212s, die HW RAID Controller haben meinst nur 8s Timeout voreingestellt.
Ja das ist einer der Gründe warum die Platte wohl nicht für Raid Systeme geeignet ist, zumindest eben für welche wo z.B. das Timeout nicht einstellbar ist. Wäre interessant zu wissen wie z.B. Storage Spaces oder auch eine Linux Distri mit ZFS in solchen Fällen mit so einer Platte umgeht.

Deshalb ist auch die Frage ob jemand sowas mit Storage Spaces oder ReFS nutzt nur bedingt sinnvoll, denn wenn es keine Probleme gab, weißt Du immer noch nicht wie das RAID überhaupt belastet wurde und ob die Platten jemals in einer Situation waren, wo sie hoch hohe Antwortzeiten hatten.
Klar kann man das nie wissen, aber wenn jemand z.B. schreibt "ja, ich verwende 2+ dieser Platten mit SS und Mirror oder Parity" und diese vielleicht schon mehrmals über längere Zeit befüllt, davon gelöscht und wieder befüllt hat und keine Probleme hatte dann könnte ich in meinem Fall auch davon ausgehen daß es klappt. Anwendungsgebiet bei mir wäre Backup/Storage/Archive. Sprich da wird eigentlich nur drauf kopiert und so gut wie nie etwas gelöscht und ab und zu mal was gelesen. Also eigentlich genau das Anwendungsgebiet der Platte, nur eben nicht mit Ausfallsicherheit, was ich gerne hätte.

Bzgl. Hitachi 10TB SMR.
Ja da bin ich auch sehr gespannt. Irgendwie kann ich mir nicht vorstellen daß diese SMR Platten dann tatsächlich für den Enterprise Markt konzipiert werden denn wie Du schon sagst müssten dann wohl die Controller SMR aware sein um damit optimal klar zu kommen. Im Enterprise Sektor wird ja kaum wo ohne Redundanz bzw. RAID Systemen gearbeitet. Und genau da hakt es an der SMR Technik noch etwas. Somit müsste Hitachi die Platten mit dem fett gedruckten Vermerk "nur optimal mit SMR aware systemen nutzbar" verkaufen.
Daß diese jedoch teuer werden ist wohl abzusehen, zumindest wenn sie eben für den Enterprise Markt ausgelegt sind.

Für Schreibintensive Lasten kann man SMR nie einsetzen, dafür taugt die Technik nicht, denn auch wenn der Host SMR Aware ist, dann muss irgendwann immer auf Spuren geschrieben werden bei denen andere überschrieben werden und diese müssen vorher gelesen und hinterher zurückgeschrieben werden, womit die Schreibperformance den Bach runter geht. Ein Host der SMR Aware ist hat nur den Vorteil das er eben selbst bestimmen kann, auf was für Spuren er schreibt und damit auch weiß, welche Antwortzeiten er da ungefähr erwarten kann, da er die Zonen kennt. Das ist bei der Archive nicht so, bzw. die kann das wohl auch ausgeben aber kein System außer der experimentellen Erweiterung für ext4 fragt diese ab.
Naja wenn der Host SMR aware ist dann sollte zumindest die Problematik daß ein Controller eine Platte als defekt einstuft wegfallen denn solange der Controller die Info bekommt daß die Platte noch mit SMR Arbeit beschäftigt ist dann droppt er diese noch nicht. Die Frage ist halt was passiert wenn die Platte während dieser Arbeit ein Problem bekommt? Viele "Raid" spezialisierte Platten geben ja schnell auf und melden lieber einen Sektorfehler und lassen den Controller die Daten aus dem Parity neu errechnen und neu in einen guten Sektor schreiben, doch wenn eine SMR Platte eben Probleme bei der neu Beschreibung / Lesen der Shingles bekommt wird das wohl schwerer mit dem Host zu kommunizieren.
Vielleicht schreibe ich aber auch nur Blödsinn, sooo genau habe ich mich nicht mit der Technik beschäftigt.

Ja sicher gibt es hier in diesem Thread so einige die die SMR HDDs unter ZFS am Laufen haben. Lies dir doch mal den Thread durch, wäre vielleicht sehr hilfreich, dann erfährst du auch wo so die Problemchen sind.
Ich habe den ganzen Thread gelesen, allerdings eben schon seit es ihn gibt und kann mich nicht mehr genau an jeden Post erinnern. Eben nur daß Leute schon ZFS mit diesen Platten ausprobiert hatten. Hatte jetzt auch nicht die Zeit nochmal die 900+ Posts zu lesen.

Nur ein paar Einträge weiter oben, ist einem sein 300+TB pool 'um die Ohren geflogen' als der Workload höher wurde.
Das was Du oben gequoted hast meinst Du?
Naja ist ihm das wirklich um die Ohren geflogen? Keine Ahnung was diese Panic Meldung bedeutet, waren die Daten dann weg? Korruption in einigen Daten? Nur das Storage Offline?

ich betreibe einen IBM-M5015, was einem 9260-8i gleicht.
Der wurde bei ebay gekauft und konnte nur 2TB-Platten.
Erst ein Firmwareupdate hat dafür gesorgt, das meine 3TB auch sauber erkannt wurden.
Die IBM Firmware verwende ich, weil diese ein ganzes Raid schlafen schicken kann.
Es ist anzunehmen, das 8TB kein Problem sind. Getestet habe ich das leider nicht.
...

Ja meiner ist genau so ein M5015 den ich jedoch gleich auf einen LSI geflashed habe und ich nutze eine etwas ältere SUN Firmware die auch Spindown für configured drives unterstützt. Läuft super mit meinen 4TB Platten. Demnach würde ich vermuten daß auch normale 8TB Platten wie eben die Hitachi He funktionieren, aber die Archive v2 traue ich mir eben nicht so ganz an den Controller zu hängen, auch einzeln nicht wirklich. Wäre auch kein Thema, kann ja die onboard Intel des H77 Chipsatzes nutzen.
 
Zuletzt bearbeitet:
Wäre interessant zu wissen wie z.B. Storage Spaces oder auch eine Linux Distri mit ZFS in solchen Fällen mit so einer Platte umgeht.
Da müsste man eben mal schauen was da für Timeouts vorhanden und ob bzw. wie diese ggf. einstellbar sind.

Klar kann man das nie wissen, aber wenn jemand z.B. schreibt "ja, ich verwende 2+ dieser Platten mit SS und Mirror oder Parity" und diese vielleicht schon mehrmals über längere Zeit befüllt, davon gelöscht und wieder befüllt hat und keine Probleme hatte dann könnte ich in meinem Fall auch davon ausgehen daß es klappt.
Dann kann man hoffen das es gklappt, aber der hatte vielleicht eher große Dateien und weniger kleine kleine Dateien als und Du und schon kracht es bei Dir.

Somit müsste Hitachi die Platten mit dem fett gedruckten Vermerk "nur optimal mit SMR aware systemen nutzbar" verkaufen.
Das wird die Aufgaben der Partner werden die auf Basis der HDDs dann Storages bauen, solche HDDs werden ja nicht einzeln sondern gleich als fertiges Storage Produkt verkauft. Selbstbauer müssen eben wie immer auch selbst aufpassen.

Naja wenn der Host SMR aware ist dann sollte zumindest die Problematik daß ein Controller eine Platte als defekt einstuft wegfallen denn solange der Controller die Info bekommt daß die Platte noch mit SMR Arbeit beschäftigt ist dann droppt er diese noch nicht.
Ja das ist Voraussetzung, damit ein RAID mit so einer Platte klappt.
Die Frage ist halt was passiert wenn die Platte während dieser Arbeit ein Problem bekommt?
Dann wird sie wohl einen Fehler melden, das Problem ist dann aber, dass ein Lesefehler auch während des Schreibens auftreten kann, denn beim Schreiben muss u.U. auch viel gelesen werden. Keine Ahnung ob das unterschieden wie das gemanagt wird, zumal diese Lesefehler dann ja auch gar nicht direkt die LBAs betreffen würden, die gerade beschrieben werden. Man sieht, da lauern noch einie Herausforderungen.
Viele "Raid" spezialisierte Platten geben ja schnell auf
Das machen sie ja eben wegen der Timeouts der Controller, damit sie eben nicht aus dem RAID fliegen und die RAID Controller haben relativ kurze Timeouts damit das System nicht zu lange hängt, es ist ja sinnvoller die Daten dann aus der Parity zu rekontruieren statt ewig und oft erfolglos zu versuchen diese doch noch zu lesen.
doch wenn eine SMR Platte eben Probleme bei der neu Beschreibung / Lesen der Shingles bekommt wird das wohl schwerer mit dem Host zu kommunizieren.
Da müsste man mal schauen was die neuen Befehle für SMR da genau hergeben, aber im Zweilfel macht der RAID Controller dann eben ein Scrubbing der ganze Zone, es wird jedenfalls dann beim Schreiben schon mal länger dauern können und eben auch nicht mehr so ganz banal sein. Bleibt die Frage wie schnell HMR kommt und wie weit SMR dann noch relevant sein wird. HGST lässt sich mit seiner 10TB HDD jedenfalls reichlich Zeit, aber es gibt ja offenbar auch viel rundherum zu entwickeln.
 
Spricht was dagegen wenn ich zwei dieser Platten in ein Synology NAS einbauen würde und jede als separates Laufwerk konfiguriere?? Dient eigentlich nur für Backup Zwecken.
 
Sind die von Synology für Dein NAS freigegeben? Wenn nicht, dann kannst Du nur hoffen das nichts dagegen spricht und darfst Dich bei Problemen weder bei Synology noch bei Seagate beschweren.
 
ich habe weder eine Freigabe von AMD (interner Port), LSI (9265-8i), oder Lian Li(EX503).
Ein wenig Mut gehört schon dazu, neue Technik einzusetzen.
Im Zweifel braucht es einen Plan B. (was mache ich mit der Platte, wenn es da nicht funktioniert? )
 
Bei Plan B ist weniger entscheidend was man sonst mit der Platte anfängt, sondern eher wie man in dem Fall dann den Verlust wichtiger Daten vermeiden kann.
 
Ich dachte immer, dafür hat man ein Backup.
Und wenn die Platte als Backup gedacht ist, sollte das auch kein Problem sein.
 
Bei mir würde ich die Platte(n) sogar als Backup einsetzen wollen, nur auch beim Backup hätte ich gerne ein sicheres Gefühl daß die Daten dort nicht übermäßig gefährdet sind.
Anscheinend dürfte aber der beste Einsatzzweck aktuell für die Platte das Single Drive Storage sein und eben speziell für Archiv / Backup Zwecke, sprich lineare Schreibvorgänge von eher großen Files und dann halt problemlose Lesevorgänge davon oder wieder lineare große Schreibvorgänge bzw. große Löschvorgänge.

HWLuxx hat ja jetzt (besser spät als nie) die Hitachi He8 getestet. Schicke Platte, aber wie gesagt Enterprise und dementsprechend teuer :(
 
Zuletzt bearbeitet:
Und mit Helium gefüllt.
Ich traue Helium nicht, ich kann mir nicht vorstellen das man das über Jahre so dicht bekommt das man die Platte lange nutzen kann.
 
oder wieder lineare große Schreibvorgänge bzw. große Löschvorgänge.
Lineare Löschvorgänge? Das Löschen einer Datei ist bei NTFS und wohl auch allen anderen Filesystemen nur das Setzen eines Bits in den Verwaltungsdaten, wenn Du nicht von Hand ein Wipe zum Überschreiben der gelöschten Datei ausführst oder ein Filesystem hast, welches das von sich aus macht, aber für die HDD ist das dann auch alles nur ein Schreibvorgang. Einzig bei SSDs gibt es mit dem TRIM Befehl überhaupt sowas wie einen Löschbefehl, HDDs kennen nur Lesen und Schreiben, aber kein Löschen, wenn man vom Secure Erease mal absieht, der aber die gesamte Platte löscht.

StillPad, wenn HGST diese Helium Füllung bei Enteprise HDDs macht, dann werden sie das auch entsprechend getestet haben und man kann davon ausgehen, dass sie HDDs dann auch während der geplanten Lebensdauer, bei solche HDDs sind das 5 bis 7 Jahre, dann auch genau He drin und andere Gase draussen halten kann.
 
Zuletzt bearbeitet:
@Holt
Nee deshalb habe ich ja linear bei Schreibvorgänge und "große Löschvorgänge" geschrieben. Damit meinte ich das Löschen von großen Files bzw. dementsprechend viele Files.
Wobei wenn ich so genau darüber nachdenke ist das eh ein Blödsinn denn wie Du sagst weiß die Platte ja nicht daß die Files dort gelöscht sind und würde dann beim schreiben dort eventuell trotzdem einsinken was die Schreibrate betrifft. Oder?
Also theoretisch wenn ich die Platte voll mache, dann die Files alle lösche (kein Wipe oder sowas dazwischen, wobei das ja für die Platte ja auch nur ein Schreibvorgang wäre) und dann wieder fröhlich die Platte voll mache könnte trotzdem die Leistung einbrechen.

Soviel zu dem Thema daß die Controller und die Software SMR aware werden sollten, denn dann könnte die Software bzw. der Controller bzw. der Treiber zusammenarbeiten und das System eventuell wissen wo die SMR Logik die Tracks vorher nicht nochmal lesen müsste.
 
Wie gesagt ist das Löschen ein kleiner Schreibvorgang auf den Metadaten bei dem ein Flag in den Verwaltungsdaten der Datei gesetzt wird. Wäre das ganze System aber SMR aware, so könnte man darauf achten, dass die Metadaten eben in einem Bereich liegen, der sich überschreiben lässt ohne dafür noch wieder andere Daten lesen und zurückschreiben zu müssen.
 
StillPad, wenn HGST diese Helium Füllung bei Enteprise HDDs macht, dann werden sie das auch entsprechend getestet haben und man kann davon ausgehen, dass sie HDDs dann auch während der geplanten Lebensdauer, bei solche HDDs sind das 5 bis 7 Jahre, dann auch genau He drin und andere Gase draussen halten kann.

Ja die geplante Lebensdauer also schon eingeplante Obsoleszenz.
Ich habe hier noch 9GB IDE Platten die ich für altes 386er System aufgehoben hatte liegen die laufen noch immer.
Ich kann mir nicht vorstellen das die Helium Dinger nach all den Jahren noch laufen.

Finde es schon schlimm das kaum noch ein Gerät über die Garantiezeit hinaus kommt, da werde ich solche Techniken nicht noch unterstützen. Ich habe da absolut kein Vertrauen drin, Enterprise hin oder her.


Ich habe mich übrigens mal wieder mit der 8TB heute beschäftigt um endlich ein Back Up von der 1. 8TB zu machen.
Das große Kotzen sage ich nur. Heute will nichtmal das erste TB flott auf die Platte.
Hatte 2 TB ausgewählt und von 140MB/Sek stürzte es kurze Zeit später auf 40MB/Sek ab.
Da er nach 4 Stunden gerade mal 600GB geschafft hatte hab ich es abgebrochen und mache nun gerade 300GB Pakete.
Die aber aktuell auch nur mit 33,x MB/Sek übertragen werden.

Scheinbar sind die Datein einfach zu klein das dort schnellere Schreibraten möglich wären.
Vielleicht schaffe ich es ja in einer Woche die erste 8TB gesichert zu haben.

Die Tricks von den größeren Filmen funktionieren bei den klein Datein einfach nicht.
 
Wenn geplante Lebensdauer also auch immer schon eingeplante Obsoleszenz ist, hat unser Schöpfer die für uns auch mit eingepant, der Mensch lebt ja auch nicht ewig. Vermutlich könnte man Festplatten aber gar nicht so bauen, dass sie ewig halten können und wenn, dann wäre sie sauteuer, aber richtig sauteuer, also wozu sollte man das machen, wenn sie danach keine kaufen würde? Die Industrie macht genau das, was auch wirtschaftlich sinnvoll ist: Sie baut die Platte so billig wie möglich und gerade gut genug für den ihnen zugedachten Einsatzzweck. Die Entwicklung geht soweiso immer weiter, die Kapazitäten steigen und wer will in 20, 30 oder mehr Jahren noch eine heutige HDD nutzen? Vermutlich würden das nicht mehr Leute wolle als Leute die heute noch HDDs nutzen, die 20 oder mehr Jahre alt sind.

Deine 9GB IDE Platte ist dagegen noch jung und was nutzt die im Grund noch? Außerdem würdest Du heute auch nicht mehr Platten mit solche Kapazitäten kaufen wollen, aber um mehr Kapazität zu erzielen, muss die Datendichte gesteigert werden, das erfordert neben einer viel präziser arbeitenden Mechanik auch einen weitaus geringeren Abstand der Köpfe zum Plattern und der ist eben heute im Teilberührungsbereich, wodurch da ein gewisser Abrieb und damit Verschleiß von den Köpfen und den Oberflächen unvermeidbar ist.

Nun kann man zwei Wege gehen, der eine ist diese Oberflächen so gut es geht dagegen zu schützen, was bei den Enterprise Nearline Platten gemacht wird, aber aufwendig ist und eben nicht wenig Geld kostet oder die Datendichte eben nicht zu steigern, was bei den Platten mit 15.000 rpm gemacht wird, die seid Jahren bei maximal 600GB festhängen.

Beim Schreiben kleiner Dateien ist SMR besonders von Nachteil, das sollte aber wegen dessen Funktionsweise auch klar sein.
 
Beim Schreiben kleiner Dateien ist SMR besonders von Nachteil, das sollte aber wegen dessen Funktionsweise auch klar sein.
Ja nur gibt es noch keinerlei richtigen Info vom Hersteller was "klein" ist.

Bei demn Beispiel mit den Helium Platten meine ich übrigens, dass ich glaube das die Helium Füllung eher verschwindet, als die Mechanik dort drin kaputt gehen wird.
Das Gas is nun mal extrem flüchtig. Ich glaube auch das eine normale HDD dadurch eine größere Chance hat länger zu halten als die Helium Modelle.

Und leider hat sich die Industrie so verwandelt das Teile heute viel schneller kaputt gehen als damals. Das mag für schnelllebige Sachen vielleicht egal sein.
Aber bei anderen Sachen die man sonst 20 Jahre nutzen würde nervt es einfach. Auch sind wir im PC Bereich an ein Punkt angekommen wo es nicht mehr richtig vorwärts geht und dort nutzt man nun Hardware deutlich länger als damals.
 
Ja die geplante Lebensdauer also schon eingeplante Obsoleszenz.
Ich habe hier noch 9GB IDE Platten die ich für altes 386er System aufgehoben hatte liegen die laufen noch immer.
Ich kann mir nicht vorstellen das die Helium Dinger nach all den Jahren noch laufen.

Finde es schon schlimm das kaum noch ein Gerät über die Garantiezeit hinaus kommt, da werde ich solche Techniken nicht noch unterstützen. Ich habe da absolut kein Vertrauen drin, Enterprise hin oder her.


Ich habe mich übrigens mal wieder mit der 8TB heute beschäftigt um endlich ein Back Up von der 1. 8TB zu machen.
Das große Kotzen sage ich nur. Heute will nichtmal das erste TB flott auf die Platte.
Hatte 2 TB ausgewählt und von 140MB/Sek stürzte es kurze Zeit später auf 40MB/Sek ab.
Da er nach 4 Stunden gerade mal 600GB geschafft hatte hab ich es abgebrochen und mache nun gerade 300GB Pakete.
Die aber aktuell auch nur mit 33,x MB/Sek übertragen werden.

Scheinbar sind die Datein einfach zu klein das dort schnellere Schreibraten möglich wären.
Vielleicht schaffe ich es ja in einer Woche die erste 8TB gesichert zu haben.

Die Tricks von den größeren Filmen funktionieren bei den klein Datein einfach nicht.

Mh wie ich die ganze Zeit schon vermutet habe ist die Platte nur für Große ISO Dateien ausgelegt , also Filmsammlung draufschieben und gelegentlich nen Film von der Platte anschauen, für alles andere z.b RAW-Dateien ist der Speedeinbruch einfach zu groß
 
@Stilpad welches OS nutzt du ?

Ich habe 2 dieser Platten beide haben einen Füllgrad von >80%.Wenn ich von HD A nach HD B kleine Daten z.b. mp3 kopiere habe ich immer noch 90-100 MB/s dauerhaft.
Bei großen Dateien 120 MB/s. Dazu muss ich sagen das auf meinen Server ein Proxmox VM Server läuft und ich diese Platten in eine VM weitergereicht habe. Dadurch sind
die etwas langsamer als direkt auf dem Host.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh