[News] Seagate 8 TB Festplatte für unter 250 € nagelneu , wo ist der Haken ?

Da bin ich mir nicht 100%ig sicher, aber man könnte erst mal eine kleine Partition oder eben mit einigen Dutzend GB testen und dann noch mal die ganze Kapazität. Es könnte dort eine Technologie wie den HGST's Disk-based Media Cache bei der Ultrastar C10K1800 geben und dann würden kleine Schreibvolumen nicht reichen um die reale Schreibrat ebeim Vollschreiben zu ermitteln.

Das glaube ich nicht, dass hier eine derartige Technik verwendet wird, weil die Platte ja auch gar nicht schnell sein will. Es ist eben eine Archiv-Platte. Mich persönlich interessiert im Prinzip auch nicht wirklich, wie schnell die Platte genau ist, denn das zeigen die ersten Tests schon ungefähr. Viel mehr interessiert mich, wie groß der Unterschied ist, wenn Daten überschrieben werden. Auch wenn ich selber ein großer h2testw-Anhänger bin, fördert das in dem Fall aber nur die Schreibrate beim Beschreiben der leeren Platte zu Tage.

Ich würde folgendermaßen vorgehen:
- 10GB-Partition anlegen
- Die Partition mit 1-2 großen Dateien vollschreiben und die Zeit/Kopierrate dabei notieren. Das Quelllaufwerk sollte hier natürlich ausreichend schnell sein.
- Danach die beiden Dateien auf dem Quelllaufwerk verändern oder noch besser 2 komplett andere Dateien nehmen, die ähnlich groß sind und diese mit dem selben Namen versehen und die dann wieder auf die Archiv-Platte kopieren, so dass die anderen beiden Dateien überschrieben werden. Dann wieder die Zeit/Kopierrate notieren und vergleichen.

Das Ganze kann man natürlich noch beliebig variieren. Ich habe ja schon gesehen, dass einige Ihre Archiv-Platte auch für andere Zwecke einsetzen wollen, wo auch noch andere Dinge relevant sind. Bei mir persönlich wäre es aber eine reine Backupplatte, die auch selten weiter befüllt werden würde und noch seltener auch mal Daten überschrieben werden würden. Im Prinzip kann es mir daher fast egal sein, interessiert mich aber trotzdem, wie sich die neue Technik verhält.

Grüße CoreSucher
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So, hier mal ein paar Benchmarks
HD_Tune_Read.png
HD_Tune_Write.png
Atto_leer.jpg

Alles mit leerer Platte. HD Tune Lässt den obigen Schreibtest eh nur ohne vorhandene Partition zu.

Werde gleich mal eine Partition erstellen und diese vollschreiben und auch so testen wie CoreSucher vorgeschlagen hat.

Sonst noch Wünsche?
 
So, hier mal ein paar Benchmarks
Anhang anzeigen 312246
Anhang anzeigen 312247
Anhang anzeigen 312248

Alles mit leerer Platte. HD Tune Lässt den obigen Schreibtest eh nur ohne vorhandene Partition zu.

Werde gleich mal eine Partition erstellen und diese vollschreiben und auch so testen wie CoreSucher vorgeschlagen hat.

Sonst noch Wünsche?

Die HDTune Screenshots sehen doch erstmal ganz gut aus. Scheinbar verwendet die Platte eine Art Cache da die Zugriffszeit beim Schreiben extrem gering sind. Was mir noch aufgefallen ist, ist die relativ hohe CPU Auslastung. Hast nebenher was gemacht oder sind die 22% Auslastung wirklich nur von HDtune? (und welchen CPU hast verbaut?)
 
Zuletzt bearbeitet:
Da Mindfactory erst ab 23.02 liefert, denke ich das sind alles Vorbestellungen :)

Das Verfügbarkeitsdatum hatte sich aber schon mehrfach geändert. Keine Ahnung, ob dann immer wirklich Platten vorhanden waren, die dann sofort wieder ausverkauft waren!? Könnte auch sein, dass sie noch keine einzige Platte rausgeschickt haben.

Edit: Wenn das alles Vorbestellungen sind, ist das auf jeden Fall eine nette Geldsumme, mit der sie inzwischen arbeiten können.
 
Zuletzt bearbeitet:
Super, dann kommt ja endlich Bewegung in die Sache ;)
Liebäugel schon recht lange mit der Festplatte und nun ist sie endlich lieferbar.
Kenne mich mit der Technik aber nicht so genau aus. Wenn ich sie als interne Platte nutzen will um auf ihr Videos, Musik etc. zu speichern auf die ich auch häufiger zugreife und sie später vielleicht auch mal als externe Backup-Festplatte nutzen möchte, kann ich da bedenkenlos zugreifen? Denn der Preis für die Größe ist ja super verlockend.
Ist irgendwas an dieser neuen Technik so bedenklich? Gibt ja leider noch keine offiziellen Testberichte.
 
Super, dann kommt ja endlich Bewegung in die Sache ;)
Liebäugel schon recht lange mit der Festplatte und nun ist sie endlich lieferbar.
Kenne mich mit der Technik aber nicht so genau aus. Wenn ich sie als interne Platte nutzen will um auf ihr Videos, Musik etc. zu speichern auf die ich auch häufiger zugreife und sie später vielleicht auch mal als externe Backup-Festplatte nutzen möchte, kann ich da bedenkenlos zugreifen? Denn der Preis für die Größe ist ja super verlockend.
Ist irgendwas an dieser neuen Technik so bedenklich? Gibt ja leider noch keine offiziellen Testberichte.

Lies Dir mal die ersten Einträge dieses Threads durch. Da steht was dazu drin. Die Platte ist halt für Wenig-Benutzung spezifiziert... Ich sage mal so, wenn Du darauf ab und zu mal was ablegen bzw. auslesen willst, passt das schon. Als tägliche Arbeitsplatte würde ich sie aber nicht verwenden...
 
Sonst noch Wünsche?
Wie gesagt: Einmal mit h2testw komplett (ein paar GB weniger als vorgeschlagen wird).

Man sieht bei HD Tune ja schon, das die Schreibrate anfangs hoch ist und auch im Mittel dann unter der Leserate liegt. Nur hat HD Tune einen schweren Nachteil: Auch wenn es so aussieht als würde alles gelesen und beschreiben, so werden in der Standardeinstellung nur alle paar MB mal 64k geschrieben. Die könnte die Platte also immer so ablegen wie es am Schnellsten geht.

Die HDTune Screenshots sehen doch erstmal ganz gut aus. Scheinbar verwendet die Platte eine Art Cache da die Zugriffszeit beim Schreiben extrem gering sind.
Das war ja schon aufgrund des Usertest der 5TB Archive klar, den ich schon in Post #114 verlinkt hatte. Deswegen würde es mich ja so interessieren, wie sie abschneidet wenn man wirklich die volle Kapazität beschreibt, denn das ist ja was passiert wenn man darauf z.B. erstmals ein Backup seines NAS zieht, also genau das macht wofür sie gedacht ist. Da kann sie dann auch nicht lange schummeln und irgendwelche Caches nutzen.
 
Und ATTO Disk Benchmark wiederholen? Diesmal mit Total Length 2GB oder so :)

Oder hab nur ich das Gefühl, dass die hohen Schreibwerte bei Total Length 256MB auch durch den Cache gepusht wurden?
 
Hier mal meine S.M.A.R.T. Werte

Code:
smartctl 6.2 2013-07-26 r3841 [FreeBSD 9.2-RELEASE-p4 amd64] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Device Model:     ST8000AS0002-1NA17Z
Firmware Version: AR13
User Capacity:    8,001,563,222,016 bytes [8.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5980 rpm
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Thu Feb 12 17:52:01 2015 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82) Offline data collection activity
                                        was completed without error.
                                        Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                (    0) seconds.
Offline data collection
capabilities:                    (0x7b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   1) minutes.
Extended self-test routine
recommended polling time:        ( 937) minutes.
Conveyance self-test routine
recommended polling time:        (   2) minutes.
SCT capabilities:              (0x30a5) SCT Status supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   100   100   006    Pre-fail  Always       -       6496
  3 Spin_Up_Time            0x0003   099   099   000    Pre-fail  Always       -       0
  4 Start_Stop_Count        0x0032   100   100   020    Old_age   Always       -       1
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000f   100   253   030    Pre-fail  Always       -       98
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       0
 10 Spin_Retry_Count        0x0013   100   100   097    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   020    Old_age   Always       -       1
183 Runtime_Bad_Block       0x0032   100   100   000    Old_age   Always       -       0
184 End-to-End_Error        0x0032   100   100   099    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
188 Command_Timeout         0x0032   100   253   000    Old_age   Always       -       0
189 High_Fly_Writes         0x003a   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0022   077   077   045    Old_age   Always       -       23 (Min/Max 20/23)
191 G-Sense_Error_Rate      0x0032   100   100   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       0
193 Load_Cycle_Count        0x0032   100   100   000    Old_age   Always       -       1
194 Temperature_Celsius     0x0022   023   040   000    Old_age   Always       -       23 (0 20 0 0 0)
195 Hardware_ECC_Recovered  0x001a   100   100   000    Old_age   Always       -       6496
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0010   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   200   253   000    Old_age   Always       -       0
240 Head_Flying_Hours       0x0000   100   253   000    Old_age   Offline      -       264097539031040
241 Total_LBAs_Written      0x0000   100   253   000    Old_age   Offline      -       0
242 Total_LBAs_Read         0x0000   100   253   000    Old_age   Offline      -       159

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]


SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

smartctl -l scterc /dev/da23
smartctl 6.2 2013-07-26 r3841 [FreeBSD 9.2-RELEASE-p4 amd64] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

SCT Error Recovery Control command not supported

Mit freenas bekam ich uebrigens noch einen Fehler zurueck:
Code:
Feb 12 18:02:44 freenas smartd[3377]: Device: /dev/da23 [SAT], CHECK POWER STATUS returned 129, not ATA compliant, ignoring -n Directive

Long selftest laeuft.
 
Außer Partitionen sind nur virtuell, wie bei SSDs. Immerhin soll sie ja von sich aus eigenen Abschnitte anlegen, um nicht die ganze Platte jedesmal löschen zu müssen, wenn eine einzelne Datei gelöscht bzw. eher wieder beschrieben werden soll. Aber bis jetzt liest sich alles so, als seien das ganz normale Festplatten. Und das ist mehr als erstaunlich.

Also so wie ich das verstehe, ist es eben auch wie bei normalen Festplatten, nur das eben die Spuren dünner sind und zu Bändern (Abschnitten) zusammengefasst werden. Diese Bänder sind dann immer die Grenze bis zu der die Daten nochmal geschrieben werden müssen, damit eben nicht die gesamte Festplatte neu geschrieben werden muss. Also virtuell ist da meiner Meinung nach nichts!

Grüße CoreSucher

- - - Updated - - -

Damn, genau das hatte ich mir allerdings erhofft. Also nicht als Systemplatte, aber schon als ein häufiger genutztes internes Datengrab.

Wenn Du keine Daten überschreibst, sondern immer nur neue hinten anfügst, wirst Du von der langsameren Schreibgeschwindigkeit, die beim Überschreiben auftritt, gar nichts merken. Wieviel langsamer das ist, wissen wir ja noch nicht. Ob Dich das überhaupt stört, weiß ich nicht. Wenn Du letztendlich also unter den angegebenen 180TB Workload (lesen+schreiben) bleibst, bist Du auch innerhalb der Spezifikation! Es spricht also, je nach Deinen Anforderung, nichts zwingend dagegen.
Trotzdem hat es ja einen Grund, warum Seagate die Platte als Archiv-Platte bezeichnet und so günstig verkauft... Irgendwas ist darin ja günstiger realisiert und hält eben nicht so lang wie bei normalen Platten, wenn es den selben Anforderungen ausgesetzt wird. Ist aber alles nur reine Theorie von mir!

Grüße CoreSucher
 
Und ATTO Disk Benchmark wiederholen? Diesmal mit Total Length 2GB oder so :)

Oder hab nur ich das Gefühl, dass die hohen Schreibwerte bei Total Length 256MB auch durch den Cache gepusht wurden?

Habe jetzt eine 100GB große Partition mit h2testw vollgeschrieben:
"erster Durchgang
Achtung: Nur 99907 von 99999 MByte getestet.
Fertig, kein Fehler aufgetreten.
Sie können die Testdateien *.h2w jetzt löschen oder nach Belieben
nochmals überprüfen.
Schreibrate: 184 MByte/s
Leserate: 172 MByte/s
H2testw v1.4"

Danach eine 1gb große Datei gelöscht (vorher ging der write test mangels Platz nicht) und dann nochmal Atto durchlaufen lassen:
Atto_voll.jpg

Dann habe ich jede zweite h2testw Datei gelöscht, alle verbliebenen umbenannt und die Partition mit h2testw wieder voll geschrieben:
"Achtung: Nur 49731 von 99999 MByte getestet.
Fertig, kein Fehler aufgetreten.
Sie können die Testdateien *.h2w jetzt löschen oder nach Belieben
nochmals überprüfen.
Schreibrate: 181 MByte/s
Leserate: 163 MByte/s
H2testw v1.4"

Dann wieder jede zweite Datei gelöscht und nochmal Atto mit 2GB Total Length:
Atto2gb.jpg

- - - Updated - - -

Die HDTune Screenshots sehen doch erstmal ganz gut aus. Scheinbar verwendet die Platte eine Art Cache da die Zugriffszeit beim Schreiben extrem gering sind. Was mir noch aufgefallen ist, ist die relativ hohe CPU Auslastung. Hast nebenher was gemacht oder sind die 22% Auslastung wirklich nur von HDtune? (und welchen CPU hast verbaut?)

Ist ein recht schwacher Athlon 4850e Dual Core und da ich es an meinem Server mache kann ich jetzt im Nachinein nicht sagen ob er nebenbei noch was gemacht hat..
 
Habe jetzt eine 100GB große Partition mit h2testw vollgeschrieben:
"erster Durchgang
Achtung: Nur 99907 von 99999 MByte getestet.
Fertig, kein Fehler aufgetreten.
Sie können die Testdateien *.h2w jetzt löschen oder nach Belieben
nochmals überprüfen.
Schreibrate: 184 MByte/s
Leserate: 172 MByte/s
H2testw v1.4"

Danach eine 1gb große Datei gelöscht (vorher ging der write test mangels Platz nicht) und dann nochmal Atto durchlaufen lassen:
Anhang anzeigen 312325

Dann habe ich jede zweite h2testw Datei gelöscht, alle verbliebenen umbenannt und die Partition mit h2testw wieder voll geschrieben:
"Achtung: Nur 49731 von 99999 MByte getestet.
Fertig, kein Fehler aufgetreten.
Sie können die Testdateien *.h2w jetzt löschen oder nach Belieben
nochmals überprüfen.
Schreibrate: 181 MByte/s
Leserate: 163 MByte/s
H2testw v1.4"

Dann wieder jede zweite Datei gelöscht und nochmal Atto mit 2GB Total Length:
Anhang anzeigen 312332

Danke schon mal für den Test.

Ich denke, dass die Schreibrate von H2testw wegen der recht großen 1GB-Lücken, die durch das Löschen der Dateien enstanden sind, nicht groß eingebrochen ist, da nur an den Übergängen, zu den nicht gelöschten Dateien, Spuren erneut geschrieben werden mussten.
Leider ist mir nicht bekannt, wie groß die Bänder auf der Platte sind, die ein eine Gruppe von Spuren zusammenfassen, so dass man das Ergebnis noch weiter bewerten könnte.
Vielleicht kannst Du ja den von mir heute vorgeschlagenen Test mit dem Überschreiben von Dateien noch machen!?

Grüße CoreSucher
 
Also virtuell ist da meiner Meinung nach nichts!
Mit virtuell meinte ******* wohl, dass die LBAs nicht immer auf den gleichen CHS Wert und damit den gleichen physikalischen Sektor gemappt werden und wenn ich mir die hohe Schreibrate bei h2etstw ansehe, dann muss das auch so sein, denn mit SMR scheller schreiben als lesen zu könne, wiederspricht ja schon der Logik der sich aus der Technologie ergibt. Vielleicht wird einfach immer zuerst auf die inneren Spuren eines Bandes geschrieben, also bei der keine anderen Daten überschrieben werden weil die Lücke folgt und dann muss man nichts nichts überschreiben. Wäre es 4 überlappende Spuren, so könnte man damit immerhin 2TB auf diese Weise schreiben.

Vielleicht könnte jemand ja mal ein 100GB Partiiton am Ende einrichten und dort den Test mit h2testw wiederholen, denn müsste die Schreibrate ja wesentlich geringer ausfallen und wenn das auch nicht der Fall ist, dann weiß der Controller der Platten welche Adressen belegt sind und mappt diese wie der einer SSD auch. Dann müsste man sie wirklich komplett vollschreiben um sehen wie die Schreibraten im Mittel sind.

Wenn Du keine Daten überschreibst, sondern immer nur neue hinten anfügst, wirst Du von der langsameren Schreibgeschwindigkeit, die beim Überschreiben auftritt, gar nichts merken.
Auch nicht unbedingt, irgendwann muss die Platte ja auch mal auf Spuren schreiben bei denen sie auch andere Daten überschreibt und dann wird es langsam, weil eben die unfreiwillig überschrieben Daten vorher gelesen und nachher erneut geschrieben werden müssen.
 
weiß von euch jemand, ob die platte TLER unterstützt (Übergabe des Fehlermanagements an den RAID-Controller)?
 
Vielleicht existiert SMR auch gar nicht und ist nur eine Ausrede für Seagate, am Festplattenkartell vorbei ein paar Euros zu machen. ;)

Vielleicht hat Seagate auch einfach gute Arbeit mit SMR geleistet und die Schreibalgorithmen, den Cache etc gut kombiniert, dass wir bei den Benchmarks keinen extremen Einbruch der Schreibrate finden werden :)
Die kommenden Tests mit einer wirklichen vollen HDD oder Partiton werden es dann zeigen :)
 
Danke schon mal für den Test.

Ich denke, dass die Schreibrate von H2testw wegen der recht großen 1GB-Lücken, die durch das Löschen der Dateien enstanden sind, nicht groß eingebrochen ist, da nur an den Übergängen, zu den nicht gelöschten Dateien, Spuren erneut geschrieben werden mussten.
Leider ist mir nicht bekannt, wie groß die Bänder auf der Platte sind, die ein eine Gruppe von Spuren zusammenfassen, so dass man das Ergebnis noch weiter bewerten könnte.
Vielleicht kannst Du ja den von mir heute vorgeschlagenen Test mit dem Überschreiben von Dateien noch machen!?

Grüße CoreSucher

Werd ich nachher machen. Ich denke allerdings, dass das Überschreiben ja im Prinzip das gleiche ist wie zuerst löschen und neu kopieren. Meine Vermutung ist, dass man den Einbruch der Schreibgeschwindigkeit erst wirklich merkt wenn die Platte stark fragmentiert ist. Denn wahrscheinlich kommt es nur dann oft zu dem Fall, dass er überlappende Spuren beschreiben muss. Wie man das aber am besten testet weiß ich auch nicht..
Will sie nicht jemand eine Weile als Systemlaufwerk laufen lassen? ;)
 
Werd ich nachher machen. Ich denke allerdings, dass das Überschreiben ja im Prinzip das gleiche ist wie zuerst löschen und neu kopieren. Meine Vermutung ist, dass man den Einbruch der Schreibgeschwindigkeit erst wirklich merkt wenn die Platte stark fragmentiert ist. Denn wahrscheinlich kommt es nur dann oft zu dem Fall, dass er überlappende Spuren beschreiben muss. Wie man das aber am besten testet weiß ich auch nicht..
Will sie nicht jemand eine Weile als Systemlaufwerk laufen lassen? ;)

Nein, ist es meiner Meinung nach nicht, denn Bereiche, die als frei betrachtet werden, müssten ja nicht neu geschrieben werden, weil es egal ist, welche Information durch das Schreiben jetzt da drinsteht.

Wie "bogomil22" und "Holt" aber schon schreiben, könnte sich das Ganze durch den Einsatz zusätzlicher Techniken aber auch ganz anders verhalten, wie erwartet.

Das habe ich gerade noch in einem Artikel auf Computerbase gelesen und was schlüssige Tests zusätzlich noch erschwert:

"Dies räumt der Seagate-Manager im Interview ein und erklärt daher, dass sich die SMR-basierten HDDs vorwiegend für den Einsatz als Archiv- oder Backup-Datenträger ohne beständige Schreiblast eignen und daher entsprechend als „Archive HDD“ vermarktet werden. Für Festplattenrekorder mit regelmäßigen Aufzeichnungen seien die SMR-HDDs weniger gut geeignet. Ein sogenannter „Media Cache“, in dem mehrere Gigabyte Daten zwischengespeichert werden können, soll diesem Nachteil entgegen wirken, während im Hintergrund Spuren „gesäubert“ werden."

Grüße CoreSucher

- - - Updated - - -


Netter Artikel, leider ohne unsere offenen Fragen zu beantworten. Die höhere Schreibrate, im Gegensatz zur Leserate, ist aber dort auf jeden Fall auch aufgefallen...
 
Vielleicht existiert SMR auch gar nicht und ist nur eine Ausrede für Seagate, am Festplattenkartell vorbei ein paar Euros zu machen. ;)
Bei dem günstigen Preis Preis werden sie da wohl wenige Euro nebenher machen und was für ein Kartell sollte das sein, wo es außer Seaagte und WD nur noch Toshiba als HDD Hersteller gibt? Die Kartelltheorie halte ich für ausgemachten Blödsinn.

Wie "bogomil22" und "Holt" aber schon schreiben, könnte sich das Ganze durch den Einsatz zusätzlicher Techniken aber auch ganz anders verhalten, wie erwartet.
Eben, deswegen muss man sie richtig vollschreiben wenn man wissen will, wie sie wirklich performt, da keiner wohl dauerhaft nur ein paar GB auf einer 8TB HDD ablegen wird.
Ein sogenannter „Media Cache“, in dem mehrere Gigabyte Daten zwischengespeichert werden können, soll diesem Nachteil entgegen wirken, während im Hintergrund Spuren „gesäubert“ werden."
Das bestätigt ja auch, dass es hier noch besondere Cache Strategien gibt, entweder Flash oder OnDisk-Cache, habe ich ja beides schon genannt und die Werte belegen auch, dass da war ist. Keine normale HDD schafft 10MB/s bei 4k Lesend und schreiben bei CrystalDiskMark.
 
Ich würde folgendermaßen vorgehen:
- 10GB-Partition anlegen
- Die Partition mit 1-2 großen Dateien vollschreiben und die Zeit/Kopierrate dabei notieren. Das Quelllaufwerk sollte hier natürlich ausreichend schnell sein.
- Danach die beiden Dateien auf dem Quelllaufwerk verändern oder noch besser 2 komplett andere Dateien nehmen, die ähnlich groß sind und diese mit dem selben Namen versehen und die dann wieder auf die Archiv-Platte kopieren, so dass die anderen beiden Dateien überschrieben werden. Dann wieder die Zeit/Kopierrate notieren und vergleichen.

Grüße CoreSucher

- 23GB Partition angelegt
- 3 jeweils ca 7,5GB große Dateien drauf kopiert: 2:41mins
Danach mit 3 ähnlich großen Dateien gleichen Namens überschrieben: 2:39mins
 
Defekt?

Hallo Luxxer,

meine Archive HDD v2 8TB kam gestern so hier an:
IMAG1628.jpg
Ein zerplatztes Luftpolster und eine sehr lose Festplatte im inneren des Paketes.

HDD für die Erstüberprüfung in den HTPC gesteckt und eingeschalte: lautes klack klack.
PC wieder aus und erneut Eingeschalten: kein lautes klacken mehr.
Frage: War der Lesekopf beim Transport vielleicht nicht in Parkpostition (also auf der Rampe)?

Smart Werte direkt nach dem Einbau:
Seagate Archive v2 8TB CrystalDiskInfo.png

Anschließend WD Data LifeGuard Diagnostics gestartet: Quick Test ok, Extended Test siehe Screen.
Seagate Archive v2 8TB extended Test.png

Danach war die Festplatte nicht mehr Gerätemanager auffindbar. Reboot --> nichts. HTPC stromlos gemacht und die Seagate tauchte mit folgenden Smart Werten wieder auf:
Seagate Archive v2 8TB CrystalDiskInfo nach Test.png


Sind die WD LifeGuad Diagnostics zu alt? Bisher konnte ich alles bis hin zur WD Red 3TB Testen (auch Platten anderer Hersteller).
Was haltet Ihr von den (neuen) SMART-Werten?

Edit: Hier noch ein Read Test mit dem altem HD-Tune 2.55 am AMD A75:
HDTune_Benchmark_ST8000AS0002-1NA17Z.png

Edit2: read/wirte mit HD Tune 5.50 Pro trial am AMD A75:
Seagate read.pngSeagate write.png

Edit3: Ich sag mal zu 99% defekt. Für den HD Tune write Test musste ich ja die Partition löschen... kein Problem. Nach dem Test wollte ich die Partition neu erstellen inkl. Quick Format. Nach 5min war er immernoch nicht fertig. Herunterfahren funktioniert nicht, also PC hart ausgeschalten. Nach erneutem Start wollte ich die HDD wieder online nehmen. Dies dauerte 1-2 Minuten! Das Volume lag nun im RAW Format vor. Volume gelöscht und neu erstellt (wieder inkl. Quick Format). Da läuft nun seit bestimmt 5min und die Datenträgerverwaltung (Win7x64) hängt.
Wollte eigentlich SeaTools drüber laufen lassen... das wird wohl nichts mehr.
 
Zuletzt bearbeitet:
Sind das eigentlich eher wärmere oder kühlere Kandidaten - im Vergleich zu anderen Platten
 
Ein zerplatztes Luftpolster und eine sehr lose Festplatte im inneren des Paketes.
Wo hast Du bestellt?

War der Lesekopf beim Transport vielleicht nicht in Parkpostition (also auf der Rampe)?
Wie soll man das wissen? Aber je nach Verpackung und Transporterschütterungen ist das irgendwie auch egal, die Platte kann zwar mit geparkten Köpfen etwas mehr ab, aber auch das hat Grenzen.

Anschließend WD Data LifeGuard Diagnostics gestartet: Quick Test ok, Extended Test siehe Screen.
Das WD Tool ist für WD HDDs, das hier ist aber eine Seagate, da ist die Aussage es Tools irrelevant, zumal man nicht weiß ob überhaupt Platten mit der Kapazität unterstützt. Seagate Platten werden sicher nicht unterstützt.

Was haltet Ihr von den (neuen) SMART-Werten?
Die sehen gut aus, da ist nicht von defekten Sektoren zu sehen nur 2 Befehlszeitüberschreitungen stören das Bild ein wenig.

Hier noch ein Read Test mit dem altem HD-Tune 2.55 am AMD A75:
Anhang anzeigen 312497
Die alte 2.55er Version von HD Tune ist für die Platten über 2TB ungeeignet und hier sieht man auch klar wieso.

read/wirte mit HD Tune 5.50 Pro trial am AMD A75:
Bis auf die beiden Zacken nach unten ok, aber HD Tune schreibt in der Standardeinstellung nur alle paar MB jeweils 64k, was bei weitem nicht reicht die ganze Kapazität zu beschreiben. Die Archive scheint diese paar k dann immer so zu schreiben, dass dabei nichts anderes überschrieben wird und daher auch nichts gelesen und dann zurückgeschrieben werden muss und das über den ganze Adressraum.

Edit3: Ich sag mal zu 99% defekt.
Wieso? Waren die S.M.A.R.T. Werte auf aus dem zweiten Screenshot nach 3 Betriebsstunden die aktuellsten oder noch von vor dem Problem mit dem Formatieren?
Wollte eigentlich SeaTools drüber laufen lassen... das wird wohl nichts mehr.
Seatools wäre von Anfang an das passender Programm gewesen, aber wieso wird das wohl nichts mehr? Wird sie nicht mehr erkannt, auch bei CrystalDiskInfo nicht? Dann war es sehr wahrscheinlich ein Transportschaden, die führen gerne zu recht frühen Ausfällen, weshalb ich neue Platten immer im Laden kaufen und dann auch erst noch für mindestens 100 Stunden stresse, bevor sie "in den Produktionsbetrieb" gehen.
 
Wo hast Du bestellt?

Digi-Quick hat es richtig erkannt. CSV ;)

Holt schrieb:
Wie soll man das wissen? Aber je nach Verpackung und Transporterschütterungen ist das irgendwie auch egal, die Platte kann zwar mit geparkten Köpfen etwas mehr ab, aber auch das hat Grenzen.

Deshlab doch die Frage. Wäre ja möglich, dass es jemand weiß ;)

Holt schrieb:
Das WD Tool ist für WD HDDs, das hier ist aber eine Seagate, da ist die Aussage es Tools irrelevant, zumal man nicht weiß ob überhaupt Platten mit der Kapazität unterstützt. Seagate Platten werden sicher nicht unterstützt.

Dessen bin ich mir bewusst. Wie ich bereits weiter unten in meinem vorherigen Post schreib hab ich das Tool schon mehrfach mit Festplatten anderer Hersteller (Seagate, HGST, Toshiba, Samsung) verwendet. Es mach genau drei Dinge: Quick Test (SMART Werte), Extended Test (vermitlich wie chkdsk) und wirte Zeros. Mal abgesehen von den SMART werden doch eigentlich nichts Herstellerbezogenes.

Holt schrieb:
Die alte 2.55er Version von HD Tune ist für die Platten über 2TB ungeeignet und hier sieht man auch klar wieso.

Bis auf die beiden Zacken nach unten ok, aber HD Tune schreibt in der Standardeinstellung nur alle paar MB jeweils 64k, was bei weitem nicht reicht die ganze Kapazität zu beschreiben. Die Archive scheint diese paar k dann immer so zu schreiben, dass dabei nichts anderes überschrieben wird und daher auch nichts gelesen und dann zurückgeschrieben werden muss und das über den ganze Adressraum.

Das mit der 2.55 hab ich schon mitgelesen. Dennoch wollte ich es testen. :heuldoch:
Ja, die beiden Einbrüche find ich auch nocht schön. Hab das allerdings schon bei anderen Platten gesehen. Woran kann das liegen?

Holt schrieb:
Die sehen gut aus, da ist nicht von defekten Sektoren zu sehen nur 2 Befehlszeitüberschreitungen stören das Bild ein wenig.

Wieso? Waren die S.M.A.R.T. Werte auf aus dem zweiten Screenshot nach 3 Betriebsstunden die aktuellsten oder noch von vor dem Problem mit dem Formatieren? Seatools wäre von Anfang an das passender Programm gewesen, aber wieso wird das wohl nichts mehr? Wird sie nicht mehr erkannt, auch bei CrystalDiskInfo nicht? Dann war es sehr wahrscheinlich ein Transportschaden, die führen gerne zu recht frühen Ausfällen, weshalb ich neue Platten immer im Laden kaufen und dann auch erst noch für mindestens 100 Stunden stresse, bevor sie "in den Produktionsbetrieb" gehen.

Die SMART Werte auf dem zweiten Screen am Morgen nach dem gescheitertem WD Test gemacht wurden. Das mit dem Formatieren kam erst nach dem HD-Tune write Test, bei welchem ja die Partition im vorraus gelöscht werden musste.
Zu den SMART Werten: die Lesefehlerrate, Beschleunigungszeit, Befehlszeitüberschreitung und Hardware ECC hat sich geändert. Das ist wohl abgesehen von der Befehlszeitüberschreitung (wodurch verursacht?) ok?

Hab heute die HDD wieder angeschlossen. Partition mit Quick Format erstellen dauert ca. 7sec. Also wieder alles normal. Hab den Vorgang zwei mal wiederholt.
Seagate Archive v2 8TB CrystalDiskInfo nach erneutem Anschließen.png

Edit: SeaTools (Windows) sucht seit 2/3 Minuten nach Festplatten und findet nichts. Am AMD A75 des HTPC hängen eine Crucial m4, WD Red, WD Green und besagte Seagate Archive v2.

Edit2: Klemm ich die beiden WDs ab, starten die SeaTools.

Edit3: "SMART Test", "Kurzer Festplatten-Selbsttest" und "Einfacher Kurztest" mit SeaTools bestanden. Die anderen Tests mach ich in einem anderem System. Will den Rechner nicht den ganzen Tag blockieren.

Mir ist aufgefallen, dass die Seagate ab und an Zirpt. Änhlich wie meine Barracuda 7200.14 (ST2000DM001 1CH164). Ist das normal bei Seagate?! Meine anderen Platten machen so nervige Geräusche nicht.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh