[News] Seagate 8 TB Festplatte für unter 250 € nagelneu , wo ist der Haken ?

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich kümmer mich drum, das ist nicht mein Forum :)

@Topic:Total genial fürs sichern bei mir hat sich das SyncToy bewährt von MS. Rechts Links macht alles was ich brauche.
Wie macht Ihr die Sicherung? Robocopy?
 
Ich habe nun auch eine (gebrauchte) Archive 8TB angeschafft und von meinem Raid6 6TB Daten auf diese am Stück kopiert. Waren jeweils 4-25GB groß, ~8-9GB/Datei. Waren anfangs 190MB/s, am Ende 125MB/s. Hat sich fast wie eine normale Festplatte verhalten. Es gab nur alle 2-500GB (im Schnitt etwa alle 100GB) mal einen kurzen Aussetzer von 1-3 Sekunden, in denen weder auf das Raid noch auf die Archive Datenzugriff stattfand. Womöglich hat es aber auch daran gelegen, dass ich zusätzlich noch mit 200-400MB weitere Lese/Schreibzugriffe auf das Raid hatte. Kopiert wurden die Daten mit Teracopy. :)

Ich weiß nun vermutlich woher diese Aussetzer kamen. Eine Platte des Raids war vermutlich schon am Ende der Lebenszeit und hat daher wohl immer wieder mal für kleine Aussetzer gesorgt. Jedenfalls ist eine der 12 HDDs nun im Garantiezeitraum kaputt gegangen und geht zurück an Seagate. Hoffe die Neue ist dann schnell da (und ich besorge mir vermutlich nochmal eine auf Ersatz). Waren in den letzten 2 Wochen je 20TB lesend + schreibend an Belastung auf dem Raid6 und nochmal etwa das Doppelte auf der SSD. Denke dass das für so Mainstream-Seagate Desktop HDDs einfach ne Hausnummer zu groß ist. Gewöhnlich sind es ja allerhöchstens 500GB lesend oder schreibend pro Woche, und das auch nur in Ausnahmefällen. Hat also nur indirekt etwas mit der Seagate Archive zu tun gehabt.
 
Wenn Du ansonsten Desktop HDDs verwendest (die Archive ist keine Desktop Platte), dann wäre das bei 12 im Gehäuse und einem RAID 6, vor allem wenn es ein HW-RAID Controller ist, sowieso kein pasende Wahl und wird Dir noch mehr Probleme machen. Aufgrund dieses Beitrags hat Du ja wohl ein RAID mit 12 ST4000DM000 an einem 3ware 9650SE und das ist blanker Wahnsinn, hoffentlich gibt es wenigstens ein Backup, denn die Platten sind für diesen Zweck total falsch gewählt. Die Desktopplatten wie die ST4000DM000 sind für 2400 Betiebsstunden pro Jahr und dafür alleine in einem Gehäuse zu stecken gemacht, die haben keine Vibrationssensoren um mit den Schwingungen die die anderen HDDs erzeugen umgehen zu können. In der NAS Drive Selection Guide von Seagate gibt es eine schöne Übersicht dazu:
Nur die mit RC Sensoren und TCA Motor sind für 9 und mehr Platten im Gehäuse freigeben, die Desktopplatten haben gar nicht, die solle nur billig sein.

Man sollte schon die passenden Platten für den Einsatzzweck nehmen, es gibt eben wirklich Unterschiede zwischen den Baureihen und das nicht nur im Marketing. Statt der Seagate Desktop HDD 4TB, SATA 6Gb/s (ST4000DM000) ab € 120,-- hätte ich wenigstens die Seagate Surveillance HDD 5900rpm 4TB, SATA 6Gb/s (ST4000VX000) ab € 133,99 genommen, die hat laut Datenblatt 24/7 Zulassung, 180TB Workload im Jahr und als 4TB und größer auch RV Sensoren für den Betrieb mit 8 und mehr Platten.

Die Desktop hat viel weniger Workload:
Also 55TB Workload (Datenvolumen Lesend und Schreibend) pro Jahr, wobei ein Jahr sich auf 8760 Stunden bezieht, die HDD ist aber nur für 2400 Stunden im Jahr ausgelegt, was aber so direkt wieder nur im Datenblatt steht (Power-On Hours) und damit ergibt sich dann nur ein jährlicher (Kalenderjahr) Workload von maximal 15TB.
 
Zuletzt bearbeitet:
Wenn Du ansonsten Desktop HDDs verwendest (die Archive ist keine Desktop Platte), dann wäre das bei 12 im Gehäuse und einem RAID 6, vor allem wenn es ein HW-RAID Controller ist, sowieso kein pasende Wahl und wird Dir noch mehr Probleme machen. Aufgrund dieses Beitrags hat Du ja wohl ein RAID mit 12 ST4000DM000 an einem 3ware 9650SE und das ist blanker Wahnsinn, hoffentlich gibt es wenigstens ein Backup, denn die Platten sind für diesen Zweck total falsch gewählt. Die Desktopplatten wie die ST4000DM000 sind für 2400 Betiebsstunden pro Jahr und dafür alleine in einem Gehäuse zu stecken gemacht, die haben keine Vibrationssensoren um mit den Schwingungen die die anderen HDDs erzeugen umgehen zu können. In der NAS Drive Selection Guide von Seagate gibt es eine schöne Übersicht dazu: Nur die mit RC Sensoren und TCA Motor sind für 9 und mehr Platten im Gehäuse freigeben, die Desktopplatten haben gar nicht, die solle nur billig sein.

Man sollte schon die passenden Platten für den Einsatzzweck nehmen, es gibt eben wirklich Unterschiede zwischen den Baureihen und das nicht nur im Marketing. Statt der Seagate Desktop HDD 4TB, SATA 6Gb/s (ST4000DM000) ab € 120,-- hätte ich wenigstens die Seagate Surveillance HDD 5900rpm 4TB, SATA 6Gb/s (ST4000VX000) ab € 133,99 genommen, die hat laut Datenblatt 24/7 Zulassung, 180TB Workload im Jahr und als 4TB und größer auch RV Sensoren für den Betrieb mit 8 und mehr Platten.

Die Desktop hat viel weniger Workload:
Also 55TB Workload (Datenvolumen Lesend und Schreibend) pro Jahr, wobei ein Jahr sich auf 8760 Stunden bezieht, die HDD ist aber nur für 2400 Stunden im Jahr ausgelegt, was aber so direkt wieder nur im Datenblatt steht (Power-On Hours) und damit ergibt sich dann nur ein jährlicher (Kalenderjahr) Workload von maximal 15TB.

Ich stimme dir ja dabei zu, dass die Platten nicht für die von mir beschriebene Belastung der letzten Wochen ausgelegt sind. Die Quittung habe ich ja quasi erhalten. Im Normalfall komme ich aber auf eine Lese- und Schreiblast im (sehr) niedrigen 3-stelligen GB-Bereich pro Woche, meistens sind die Platten ohnehin aus (nach 15 Min ohne Zugriff) und kommen auch nicht auf 2,4k Betriebbstunden im Jahr. Entsprechend der Belastung, wobei nie lesen und schreiben gleichzeitig stattfindet, halte ich das für unkritisch. Von den (existenziell) wichtigen Daten habe ich ohnehin noch ein Backup auf einer externen Platte und zum Teil noch in der Cloud; der Rest ist Spielerei. Wenn ich im Laufe des Jahres endlich arbeiten gehe und Geld verdiene, steige ich auf die Surveillance 8TB oder vergleichbare Exemplare um.

Die von dir umgerechnet beschriebenen 15TB / Jahr beziehen sich ja auf eine einzelne Platte. Mit 12 Platten im Raid6 sollte ich ja dann bei 150TB sein (--> 15 * (12-2)), die ich nie im Leben erreiche. Die Platten habe ich zumeist gebraucht erworben; sie waren also schon ein paar Monate im Einsatz; ich habe selten einen dreistelligen Betrag dafür ausgegeben. Die Geiz-ist-geil-Mentalität ist zwar bei Speicher ziemlich fragwürdig, jedoch ging es eben nicht anders. Bei meinen Eltern will ich wegen so etwas kein Geld pumpen bzw. bekomme ich dann den Vogel gezeigt. Vom Werkstudentenjob bleibt nix übrig, bzw. habe ich den inzwischen wegen der Masterarbeit ohnehin aufgeben müssen.

Natürlich kann eine Platte aus dem Hardware-Raid fliegen, wenn sie binnen 8 (?) Sekunde nicht antwortet. Hatte ich soweit schon. Rechner neu gestartet, alles wieder ok. Naja, zuletzt jetzt nicht, aber es wird eigentlich beim Neustart schon wieder erkannt, wenn die Platte wohl nicht schon auf der Zielgeraden der Lebenszeit ist. Das natürlich ne 0815-Consumer-Platte nicht über die Eigenschaften verfügt, wie eine Enterprise-Platte, ist auch klar. Als (noch) Student habe ich aber eben absolut nicht die finanziellen Mittel, um mal eben 2-3k € für die notwendigen Platten auszugeben. Ich probiere ja die Belastung extra so gering wie nur möglich zu halten.

Und die Archive läuft einzeln und ist am Mainboard angeschlossen, die kommt natürlich nicht ins Raid.

PS: Ich möchte dir natürlich trotzdem für deine tolle Aufklärungsarbeit hier danken. :)

PPS: Machen die Schwingungen so viel aus, wenn die Platten ohnehin auf so Gummi-Ringen liegen, die die Schwingungen ja abfedern (aber natürlich nicht ganz beseitigen) sollten?
 
Zuletzt bearbeitet:
Ab und an wirst Du ja auch ein Scrubbing mache, das zählt für die Platten auch zum Workload. Es sind überigens 180TB und nicht 150TB im Jahr, das teils Du mal durch die Kapazität und bei 8 TB wäre das 22,5. Wenn Du also jede Wochen ein Scrubbing machst, also 52 mal im Jahr die Kapazität liest, wäre das zu viel, dafür würde man 416TB Workload brauchen. Macht man jede Monat ein Scubbing, gehen dafür schon 96TB bei 8TB Platten und 72TB bei 6TB Patten im Jahr drauf. Achte also wie das bei Dir bzw. Deinem RAID Controller eingestellt ist, da müsste auch eine Einstellung für den Timeout sein, der ist bei HW-RAID Controlern meist auf 8s voreingestellt.
 
Die Verifizierung, wie sie der Controller durchführt, habe ich weitestgehend ausgeschaltet. Wenn sie der Controller dann doch einmal ausführt - lässt sich ja schließlich dann doch nicht ganz ausschalten - deaktiviere ich sie dann meistens. Will ich wirklich nur alle paar Monate mal laufen lassen, auch weil ja bei einem Durchgang bei mir dann doch bereits inkl. Parität 40TB gelesen werden.

Aber eine ganz andere Frage: Wo kann ich denn den Timeout einstellen? Bei meinen Platten bringt das doch aufgrund des Fehlens von TLER (oder wie das bei Seagate heißt) sowieso nix, weil die Verwaltung des Timeouts gar nicht an den Controller weitergegeben wird, oder doch? Kann mich nicht mehr genau an den Sachverhalt erinnern, aber das Fehlen von TLER ist ja einer der Gründe, weshalb die Platten suboptimal für Raid sind da sie binnen 7(?) Sekunden rausfliegen können und nicht der Controller das letzte Wort spricht.
 
Bei Seagate heißt es ERC (Error Recovery Control), was eine etwas besser passende Bezeichnung als Time-Limited Error Recovery ist, denn alle HDDs habe eine zeitliche Limitierung beim Versuch Fehler zu beheben, die mit TLER haben nur einen einstellbaren Timeour und der ist ab Werk meist kürzer voreingestellt. Ob und wie das bei Deinen Controllern einstellbar ist, müsste in Handbuch dazu stehen, es kann je nach FW anderes oder auch unmöglich sein.
 
mal wieder ein kleines Update:
Mein Raidz3 aus 19 Platten läuft einfach - seit fast 1 Jahr!

pool: Pool-01
state: ONLINE
scan: scrub in progress since Sat Feb 13 15:57:10 2016
66.7T scanned out of 84.3T at 693M/s, 7h24m to go
0 repaired, 79.09% done

fettisch:
pool: Pool-01
state: ONLINE
scan: scrub repaired 0 in 39h17m with 0 errors on Mon Feb 15 07:15:03 2016
config:

NAME STATE READ WRITE CKSUM
Pool-01 ONLINE 0 0 0
raidz3-0 ONLINE 0 0 0
da0.nop ONLINE 0 0 0
da1.nop ONLINE 0 0 0
da2.nop ONLINE 0 0 0
da3.nop ONLINE 0 0 0
da4.nop ONLINE 0 0 0
da5.nop ONLINE 0 0 0
da6 ONLINE 0 0 0
da7 ONLINE 0 0 0
da8.nop ONLINE 0 0 0
da9.nop ONLINE 0 0 0
da10.nop ONLINE 0 0 0
da11.nop ONLINE 0 0 0
da12.nop ONLINE 0 0 0
da13.nop ONLINE 0 0 0
da14.nop ONLINE 0 0 0
da15 ONLINE 0 0 0
da16.nop ONLINE 0 0 0
da17.nop ONLINE 0 0 0
da18.nop ONLINE 0 0 0

errors: No known data errors
 
Zuletzt bearbeitet:
ich kümmer mich drum, das ist nicht mein Forum :)

@Topic:Total genial fürs sichern bei mir hat sich das SyncToy bewährt von MS. Rechts Links macht alles was ich brauche.
Wie macht Ihr die Sicherung? Robocopy?

Vorsicht mit dem SyncToy, nach meinem Kenntnisstand ist die Entwicklung dafür schon seit Jahren eingestellt worden und die letzte Version hatte grobe Fehler drin. Außerdem meine ich mich zu erinnern, daß einem das SyncToy in jedes Verzeichnis irgendwelche Dateien legt, die MD5-Summen und so enthalten, was sehr nervig sein kann.

Schau Dir mal FreeFileSync als sehr ähnliche Alternative an!
 
Hab mir heute eine 2te Platte gekauft, da mein externes Gehäuse dafür noch nicht da war hab ich sie mal in mein Buffalo nas gepackt (Link Station 4 bay)

ich muss sagen bisher läuft sie einwandfrei, jemand eine Idee wie ich testen kann ob sie nicht doch irgendwann rausfliegt?

Idee die ich jetzt habe ist meine beiden Archive Platten in das nas Packen (als Jbod) und dann mein Xpenology nas dadrauf backupen.

jetzt muss ich halt nur durchtesten ob die Platte Stabil dadrinne betrieben werden kann :)
 
Das mit dem Testen ist halt schwer, da sie eben den OnDisk Cache haben und bei wenigen GB diese schnell wegschreiben, so wie sie auch bei seq. Schreibzugriffen schnell sind. Aber schau Dir die Antwortzeiten im Review bei storagereview.com an, da waren es bei längeren 4k Zugriffen schreibend im Schnitt 70,8s und maximal 212s, viel mehr als bei jeder anderen HDD die gewöhnlich nach 14s mit einem Fehler aufgeben. Das Risiko ist eben, dass die Platten wenn man sie dorthin treibt wo solche Antwortzeiten auftreten, dann als defekt eingestuft wird, was ein HW-RAID Controller z.B. gewöhnlich macht wenn eine HDD nicht innerhalb von 8s antwortet. Weshalb bei RAID fähigen HDDs die maximal Antwortzeit einstellbar ist und gewöhnlich ab Werk auf 7s eingestellt wird, länger versuchen sie es nicht selbst Fehler zu kompensieren.
 
ja genau so hatte ich das bisher auch verstanden :) Danke Holt, dachte gibt ne möglichkeit das ich genau diesen Fall provozieren kann,

werde jetzt einfach mal massig Daten raufkopieren und schauen ob sie durchhält oder als defekt eingestuft wird.

Ich werde berichten
 
Dann muss man halt über 100% der Kapazität zufällige 4k Schreibzugriffe machen und mit einer größeren Queue Depth, die hatte bei storagereview ja "tested with under a heavy load of 16 threads with an outstanding queue of 16 per thread". Viel schlimmer geht es nicht mehr.
 
Ja so zufällige Lese- und Schreibvorgänge bei gut gefüllter Platte sind wohl ein Anfang was man testen kann. Wenn man die Platte tatsächlich als Archiv bzw. Backupplatte nutzt hat man ja eher durchgehend sequentielle Zugriffe, sei es schreibend oder lesend.
Solche Tests wie Storagereview hier simuliert sind halt heftige Bedingungen im z.B. Storageserver und Datenbankumfeld. Klar daß hier diese Platte und generell die SMR Technologie nicht die geeignetste ist, aber daß sie da teils so heftige Antwortzeiten generiert ist schon heftig.

Einige Leute haben aber selbst bei sequentiellen Zugriffen berichtet daß die Platte einbricht bzw. teils längere Antwortzeiten hat. Im Heimanwenderbereich wohl auch zu verkraften, allerdings wie Holt schon sagt nicht so gut wenn die an einem Controller (RAID) hängt der Timeouts hat und dadurch eventuell die Platte aus dem Verbund wirft.

Meine drei Platten im Software Raid 5 des Intel RST Treibers des H77 Mainboard laufen schon seit ca. 3 Monaten ohne Probleme. Wie gesagt ist hier aber der Anspruch eher mäßig da sie als Backup genutzt wird. Sprich da werden alle paar Tage mal mehr oder weniger GB in einem Satz drauf kopiert. Bin soweit zufrieden obwohl der Zeitraum jetzt ja noch gar nichts aussagt.
 
Klar war der Test bei Storagereview bei dem es zu den bis zu 212s Antwortzeit gekommen ist, überhaupt nicht "artgerecht" und so sollte man eine SMR HDD auch nicht nutzen, denn die ist dann ja so langsam, weil dabei ja intern extrem viel gelesen und geschrieben wird. Die Archive ist aber klar auf leseintensive Anwendungen optimiert. Nur zeigt es eben was passieren kann und welche Antwortzeiten dann auch auftreten können und das kann man eben nie zu 100% ausschließen.

Die Verteilung der Metadaten des Filesystems hat man ja z.B. nicht im Griff und wenn dann noch z.B. die Last-Access-Time beim Lesen von Dateien aktualisiert wird oder es werden dann mal plötzlich Thumbmails gespeichert, dann kann es zu einer Menge zufälliger Schreibzugriffen und wenn dann gerade eben erst 100GB dort abgelegt wurden und der OnDiskCache damit voll ist und nun schaut man eben noch mal die Verzeichnisse durch und leider ist eben irgendwie z.B. eine der genannten Einstellung anderes und es werden ganz viele zufällige, kleine Schreibzugriffe erzeugt, dann hast plötzlich Antwortzeiten wie nie zuvor in den Tests und die HDD fliegt aus dem RAID oder der USB-SATA Bridgechip meldet sie ab weil sie für defekt hält oder das NAS hängt sich auch oder sonstwas.
 
Mich würde auch interessieren wie Hitachi das mit dem SMR gelöst hat, sprich ob die unter solchen Bedingungen ebenfalls so extrem hohe Antwortzeiten produzieren können. Ich gehe mal fast davon aus denn die SMR Technik lässt sich wohl nicht auf Dauer (durch den Cache und diversen Mechanismen) verstecken.
Die 10TB Hitachi Platten dürften nun nach über einem halben Jahr wo sie angekündigt werden wirklich schön langsam auf den Markt kommen. Die HGST Ultrastar Archive Ha10 mit 10TB wird schön langsam gelistet, allerdings noch mit gut > 2000 EUR. Ich vermute daß sich die, wenn verfügbar, irgendwann so um die 600 EUR einpendeln wird. Die Ultrastar (ohne Archive) He10 10TB Modelle sind dann wie es scheint ohne SMR und wie üblich in verschiedensten Varianten (SAS, SATA und diversen Sektor- sowie Sicherheitsvarianten) erhältlich. Werden jedoch bestimmt deutlich mehr als die Archive Ha10 kosten.

EDIT:
Bei der Archive Ha10 10TB wird von Lese- und Schreibgeschwindigkeiten von 157 MB/s bzw. 68 MB/s gesprochen, bei 7200rpm. Man sieht hier schon deutlich daß Hitachi bewusst eine niedrige Schreibgeschwindigkeit angibt. Wäre interessant ob die dauerhaft in dem Bereich liegt oder wie bei der Seagate auch höher sein kann aber einbrechen kann.
 
Zuletzt bearbeitet:
HGST, nicht Hitachi! Der Hitachi Konzern hat mit den HDDs von HGST nichts mehr zu tun, seit sie ihre Festplattensparte an WD verkauft haben!

Hiernach scheinen die SMR HDDs von HGST wohl Host-Managed zu sein:
Die SMR HDDs von HGST sind ja auch Enterprise HDDs, die werden sowieso nur einer speziellen Lösungen angeboten und nicht einfach an jeden verkauft, auch weil eben kaum einer damit etwas anfangen könnte.

Die Seagate SMR HDDs sind dagegen Drive Managed bzw. Host Aware, was beides erst einmal auf das gleich hinaus läuft: Der Controller der Platte kümmert sich darum und der Host sie wie eine ganz normale HDD ansprechen. Dann hat aber eben das Problem der in bestimmten Situationen nicht vorhersagbaren Performance und Antwortzeiten. Bei SMR HDDs die Host Aware sind, kann der Host aber eben eingreifen und die neu eingeführten Kommandos für SMR Platten (ZBC bei SCSI/ZAC bei ATA) nutzen um die Informationen über die Geometrie abzufragen und damit die Schreibvorgänge so ausrichten, dass es keine Performanceprobleme bzw. hohen Antwortzeiten gibt, weil eben eine komplett Zone (als ein Bereich überlappender Spuren) komplett überschrieben wird.

Wobei das mit der Performance aber eben relativ ist, wenn so eine Zone 256MB groß ist, wird der Host eben diese ganz 256MB lesen, die zu Überschreibenden Teils in seinem Puffer ersetzen und dann wieder als 256MB zurückschreiben müssen. So super performant ist das sich auch nicht, aber immerhin besser als wenn es da 12 Änderungen in dem 256MB Block gibt und die alle einzeln auf die HDD geschrieben werden, wobei die HDD dann im Zweifel die letzten Spuren in der Zone eben auch 12 mal einlesen und neu schreiben muss.

Die geringere Schreibrate bei den HGST SMR Platten liegt daran, dass beim Schreiben immer auch eine Leseverifizierung erfolgt, wie sie HDDs normalerweise ja nur beim Überschreiben von schwebenden Sektoren vornehmen.
 
Wann ZBC bei SCSI/ZAC bei ATA überhaupt umgesetzt wird steht bislang auch in den Sternen....
Für Windows habe ich da noch keinerlei Infos zu gefunden . ich vermute mal, für Windows 7 wrd das nix mehr, bei Windows 8.x vermutlich ebenfalls nicht. Für Win10 irgendwann mal.
Für Linux und Konsorten gibt es da seit über einem Jahr ein Projekt für EXT4 (SMR_FS-EXT4) welches wohl Federführend von Seagate geleitet wird. Hier sind ide bisllang aber auch noch lange nicht fertig.

Es ist stark zu vermuten, daß SMR nur ein Zwischenschritt sein wird, bis HAMR Serienreif ist. von daher mache ich mir da mitlerwile keine allzu grossen Hoffnungen, daß sich in diese Rchtung noch Entscheidendes tun wird. Es hatte ja sogar mal geheissen, daß ZFS wohl das optimale Dateisystem für die SMR Platten sei, mitlerweile ist man aber wohl auch da auf den Boden der Tastachen zurückgekehrt - zu viel Entwcklungsaufwand (obwohl sowohl Seagate als auch HGST da Unterstützung angeboten haben).
 
@Holt
Danke für die Info bzgl. HGST. Hab' das voll verpennt daß die seit 2012 ein Tochterunternehmen von WDC sind.

Hört sich interessant an betreffend der He10 bzw. Ha10 mit SMR daß diese Host Managed sind. Macht wohl auch definitiv Sinn denn dann muß wohl das OS bzw. Dateisystem dessen nicht explizit mit SMR umgehen können sondern lediglich der Controller. Zu den SMR typischen Nachteilen kann es dann zwar immer noch kommen aber der Controller weiß es und würde eine Platte mit langsamer Antwortzeit nicht als defekt einstufen. Bestätigt dann auch Deine Vermutung daß die Platten eher nur in speziellen Lösungen zum Einsatz kommen.
 
Die He10 hat kein SMR, nur die Ha10! Host Managed bedeutet außerdem ja gerade, dass das OS bzw. Dateisystem eben gerade explizit mit SMR umgehen können müssen! Das ist nur bei den Drive Managed und den Host Aware nicht nötig, bei den Drive Managed können die da auch gar keinen Einfluss nehmen und bei den Host Aware ist es eben eine Mischung aus beidem, die Hosts können Einfluss nehmen, wenn sie SMR unterstützen oder es alleine der Platten überlassen.
 
Die He10 hat kein SMR, nur die Ha10! Host Managed bedeutet außerdem ja gerade, dass das OS bzw. Dateisystem eben gerade explizit mit SMR umgehen können müssen! Das ist nur bei den Drive Managed und den Host Aware nicht nötig, bei den Drive Managed können die da auch gar keinen Einfluss nehmen und bei den Host Aware ist es eben eine Mischung aus beidem, die Hosts können Einfluss nehmen, wenn sie SMR unterstützen oder es alleine der Platten überlassen.

Dann hat TheRegister das aber auch falsch geschrieben denn in Deinem Quote steht auch He10 und SMR. Aber das stammt wohl noch aus der Zeit wo von einer Ha10 noch nicht die Rede war. Anfangs war ja nur die Rede einer He10 mit 10TB wenn mich nicht alles täuscht. Hab das aber auch nicht so im Detail verfolgt.
Also meinst Du daß bei Host Managed es nicht genügt wenn nur der Controller das weiß/kann? Muß es zwingend auch das OS sein bzw. auch das Filesystem damit umgehen können?
 
Stimmt, das hatte ich gar nicht gesehen, die haben da die He10 mit der Ha10 verwechselt. Die Ha10 ist übrigens älter als die He10, die haben Bezeichnung He ist aber schon älter und wurde mit der ersten Helium Gefüllte He6 eingeführt, daher wohl deren Fehler.

Ja bei Host Managed muss das OS und das Filesystem dies zwingend unterstützen, der Controller hat damit noch am wenigstens am Hut. Da gibt es ja eine Reihe von Regeln zu beachten, wenn man die SMR Befehlserweiterungen wirklich nutzen will (optimal bei Host Aware) oder muss (Host Managed). So darf eben nur eine Zone eben nur als Ganzes am Stück geschrieben werden, sie wir geöffnet, geschrieben und geschlossen und während die geöffnet ist, darf dort nicht gelesen werden.
 
Man ey, wo sind die mittleren Gewindebohrungen? Wie habt ihr eure Festplatten befestigt?
 
Ja, die fehlenden mittleren Bohrungen haben mich auch aufgeregt. Ich mußte die HDD-Schienen meines Fujitsu Esprimo modifizieren, damit ich die Seagate Archive da einbauen konnte. Ich frage mich, warum Seagate die Bohrungen weg läßt.
 
Wenn sehr viele Platter verbaut werden, passt das mit den mittleren Bohrungen nicht mehr. Seagate hat die daher bei den Modellen mit 6 Platter auch versetzt. Da kommt es eben auf jeden mm an.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh