[News] Seagate 8 TB Festplatte für unter 250 € nagelneu , wo ist der Haken ?

Der Extended Test wird vermutlich den vollständigen DST aufrufen (Diagnose Selbst Test)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kann sein.

Die Platte hängt nun in einem anderem System (mit SB700). Dort läuft nun er erste Langzeittest der SeaTools.

Bei mir dauert heut alles etwas länger... .
 
Hinweis für alle die überlegen sich Platte zu holen(zumindest habe ich es hier im Thread noch nicht gefunden):

Gerade auf Computerbase im Forum gelesen die Verschraubungen sind anders positioniert wodurch die Platte vielleicht in manchen Gehäusen oder NAS-Systemen nicht richtig befestigt werden können.
Hier ein Link, zeigt zwar nicht die 8Tb aber das Problem ohne die Googlebildersuche zu bemühen:
6TB HDDs Causing Problems for System Vendors - But Not the Way You Think | StorageReview.com - Storage Reviews
 
Hinweis für alle die überlegen sich Platte zu holen(zumindest habe ich es hier im Thread noch nicht gefunden):

Gerade auf Computerbase im Forum gelesen die Verschraubungen sind anders positioniert wodurch die Platte vielleicht in manchen Gehäusen oder NAS-Systemen nicht richtig befestigt werden können.
Hier ein Link, zeigt zwar nicht die 8Tb aber das Problem ohne die Googlebildersuche zu bemühen:
6TB HDDs Causing Problems for System Vendors - But Not the Way You Think | StorageReview.com - Storage Reviews

Stimmt, in meiner Backplane kann ich sie auch nur mit 2 anstatt 4 Schrauben (unten) befestigen. Reicht aber zum Glück auch.
Habe jetzt seit heute morgen meine 4 davon als Raid 5 laufen. Bisher keine Auffälligkeiten.
 
Das mit den Löchern wollt ich auch eben erwähnen. Ist das Teil so voll gestopft, dass es für die 3-5mm Löcher in der Mitte nicht gereicht hat?

Die Platte Steckt nun in einem anderem System mit SB700.
SeaTools: "SMART Test", "Kurzer Festplatten-Selbsttest", "Einfacher Kurztest" sowie "Einfacher Langzeittest" OK. Letzerer ging recht schnell. Ich denke nicht, dass er da die komplette HDD abliest. Waren vielleicht 3 Stunden.
Der Erweiterte Test ("Vollständiges Löschen (SATA)) schlegt jedoch fehl.
SeaTools vollständiges löschen gescheitert (nach wenigen Sekunden).png
Logs:
--------------- SeaTools for Windows v1.2.0.10 ---------------
15.02.2015 12:33:37
Modell: ST8000AS0002-1NA17Z
Seriennummer: ***
Firmware-Revision: AR13
SMART - Bestanden 15.02.2015 12:33:37
Kurzer Festplatten-Selbsttest - Gestartet 15.02.2015 12:33:43
Kurzer Festplatten-Selbsttest - Bestanden 15.02.2015 12:34:42
Einfacher Kurztest - Gestartet 15.02.2015 13:35:44
Einfacher Kurztest - Bestanden 15.02.2015 13:36:37
Einfacher Langzeittest - Gestartet 15.02.2015 13:36:44
Einfacher Langzeittest - Bestanden 15.02.2015 15:51:46
Vollständiges Löschen (SATA) - Gescheitert 15.02.2015 16:17:45
Vollständiges Löschen (SATA) - Gescheitert 15.02.2015 16:19:07

Hier wieder ein Screen von CrystalDiskInfo nach dem Versuch zu löschen:
CrystalDiskInfo - SeaTools löschen gescheitert (nach wenigen Sekunden) am SB700.png

Ich mach jetzt an besagtem System noch n Durchlauf mit den WD Data Lifeguard Diagnostic.
 
Zuletzt bearbeitet:
Ja, die beiden Einbrüche find ich auch nocht schön. Hab das allerdings schon bei anderen Platten gesehen. Woran kann das liegen?
Da es jetzt 2 Ultra-DMA CRC Fehler gibt, könnte es daran liegen, denn das sind Kommunikationsprobleme zwischen dem SATA Host Controller und dem Controller der Platte, meist liegt es am SAT Kabel. Aber wenn die Platte an einem AMD SB700 ist, dann könnte es ein Gigabyte 770er Board sein und da gibt es ein Modell bei dem die Revision 1.0 offenbar Probleme mit dem Layout hatte, weil die SATA Anschlüsse bei denen immer wieder solche Probleme machten.


Zu den SMART Werten: die Lesefehlerrate, Beschleunigungszeit, Befehlszeitüberschreitung und Hardware ECC hat sich geändert. Das ist wohl abgesehen von der Befehlszeitüberschreitung (wodurch verursacht?) ok?
Die Lesefehlerrate und die Hardware ECC Rohwerte passen, die Seagate Platen zeigen die Anzahl der Fehler in den ersten 4 Stellen, die anderen Stellen zeigen die Anzahl der Vorgänge an, ebenso bei den Suchfehler.

Die Befehlszeitüberschreitungen könnten an den Ultra-DMA Fehlern liegen.
Mir ist aufgefallen, dass die Seagate ab und an Zirpt. Änhlich wie meine Barracuda 7200.14 (ST2000DM001 1CH164). Ist das normal bei Seagate?! Meine anderen Platten machen so nervige Geräusche nicht.
Die ist so neu, dass kann man bei der noch nicht sagen, aber bei Computerbase wird was ähnliches berichtet. Das dürfte also normal sein.

Habe jetzt seit heute morgen meine 4 davon als Raid 5 laufen. Bisher keine Auffälligkeiten.
Alleine die Initialisierung dürfte Tage dauern, von daher sagt das noch nichts aus.

Ist das Teil so voll gestopft, dass es für die 3-5mm Löcher in der Mitte nicht gereicht hat?
Vermutlich, da dürfte wohl 6 Plattern drin stecken, deshalb gibt es nicht genug Platz für die Löcher an den normalen Positionen.
 
Zuletzt bearbeitet:
Da es jetzt 2 Ultra-DMA CRC Fehler gibt, könnte es daran liegen, denn das sind Kommunikationsprobleme zwischen dem SATA Host Controller und dem Controller der Platte, meist liegt es am SAT Kabel. Aber wenn die Platte an einem AMD SB700 ist, dann könnte es ein Gigabyte 770er Board sein und da gibt es ein Modell bei dem die Revision 1.0 offenbar Probleme mit dem Layout hatte, weil die SATA Anschlüsse bei denen immer wieder solche Probleme machten.

Ich tippe auch langsam auf ein Kommunikationsproblem. Die Platte hing bei dem Screen noch am ASRock A75Pro4-M. Hatte in der letzten Zeit ab und an das Problem, dass keine Daten (über LAN) auf die Platten (die WDs) schreiben konnte. Werde die SATA Kalbel mal tauschen und wenn die Probleme nicht nachlassen das Board. Des Weiteren gibt es mechanisch erschwerte Bedingungen: das Board ist an der Innenseite eines Schrankes befestigt und die Platten an zwei massive Alukühlkörper geschraubt welche im Schrank stehen. Bis auf die letzten Wochen hatte ich mit diesem Aufbau seit 8-9 Jahren keine Probleme.

Das SB700 (Test-)System ist ein Jetway HA07-Ultra mit 790GX und einer SB750 (doch keine SB700, hatte mich vertan).

Holt schrieb:
Die Lesefehlerrate und die Hardware ECC Rohwerte passen, die Seagate Platen zeigen die Anzahl der Fehler in den ersten 4 Stellen, die anderen Stellen zeigen die Anzahl der Vorgänge an, ebenso bei den Suchfehler.

Danke für die Info. Ich nehem an die ersten vier Stellen von rechts an oder? Also xxxxxx0002 = 2 Fehler?

Holt schrieb:
Die Befehlszeitüberschreitungen könnten an den Ultra-DMA Fehlern liegen.
Die ist so neu, dass kann man bei der noch nicht sagen, aber bei Computerbase wird was ähnliches berichtet. Das dürfte also normal sein.

Ich teste einfach weiter. WD DLT Extended Test läuft nun seit ca. 5 Stunden ohne Probleme. Morgen früh sollte er fertig sein. Wenn dies so ist kommt "write zeros".
Ggf. hänge ich die HDD noch mal an einen anderen SATA Port des Jetway, denn warum auch steht in den WD DLT bei der Seagate in Klammern IDE und nicht wie bei den WDs SATA. Der SATA Combined Mode ist wegen des DVD-LWs im BIOS aktiviert, greift aber eigentlich nur für SATA Port 5/6. Vielleicht hab ich mich auch einfach versehen... .
Könnte ja ein Grund sein, warum die SeaTools das "Vollständige Löschen (SATA)" nicht durch starten möchte.

Holt schrieb:
Vermutlich, da dürfte wohl 6 Plattern drin stecken, deshalb gibt es nicht genug Platz für die Löcher an den normalen Positionen.
6x 1,33TB sagt die HDD Platter Database.
 
Zuletzt bearbeitet:
Ich tippe auch langsam auf ein Kommunikationsproblem. Die Platte hing bei dem Screen noch am ASRock A75Pro4-M.
Eigentlich bei allen Platten bleiben die einmal im Leben aufgetretenen Ultra-DMA CRC Fehler für immer gespeichert, so dass man nicht mehr sagen kann ob die aktuell sind oder ggf. früher passiert sind. Daher muss man den Wert regelmäßig beobachten und wenn der Rohwert von C7 steigt, dann gibt es aktuell ein Problem, sonst nicht. Ein bestimmt Datenvolumen muss natürlich übertragen werden, sonst findet ja keine Kommunikation statt und damit können auch keine Fehler auffallen.
Das SB700 (Test-)System ist ein Jetway HA07-Ultra mit 790GX und einer SB750 (doch keine SB700, hatte mich vertan).
Zu dem kann ich nichts sagen, aber wenn es bei Gigabyte ein Board mit so einem Problem gab, könnten auch andere betroffen sein.

Danke für die Info. Ich nehem an die ersten vier Stellen von rechts an oder? Also xxxxxx0002 = 2 Fehler?
Schau Dir doch den Rohwert an und überlege dann noch mal ob es wohl die ersten 4 Stellen von links oder von rechts sein werden.

(Lösung: von Links, sonst hätte ich "die letzten 4 Stellen" geschrieben, da ich aus einem Kulturkreis komme wo man von Links nach rechts liest.)
WD DLT Extended Test läuft nun seit ca. 5 Stunden ohne Probleme. Morgen früh sollte er fertig sein.
In der Anleitung steht nur:
Leider steht nicht wie, aber wenn damit der Extended S.M.A.R.T. Selbsttest gemeint ist, also der Test vom Controller selbst ausgeführt wird, dann müsste es bei der Archive v2 8TB 19 Stunden dauern. Dann wären Kommunikationsprobleme auch kein Thema, würde aber auch nicht erkannt werden.

Vielleicht hab ich mich auch einfach versehen... .
Das würde ich mal vermuten, oder es ist portweise im BIOS einstellbar. Das Risiko beim Combined Mode ist natürlich, dass es unterschiedliche Treiber sind wenn der eine nun Platten über 2TB unterstützt und der andere nicht, hat man schnell Datenverlust wenn man sie umstöpselt.
 
Eigentlich bei allen Platten bleiben die einmal im Leben aufgetretenen Ultra-DMA CRC Fehler für immer gespeichert, so dass man nicht mehr sagen kann ob die aktuell sind oder ggf. früher passiert sind. Daher muss man den Wert regelmäßig beobachten und wenn der Rohwert von C7 steigt, dann gibt es aktuell ein Problem, sonst nicht. Ein bestimmt Datenvolumen muss natürlich übertragen werden, sonst findet ja keine Kommunikation statt und damit können auch keine Fehler auffallen. Zu dem kann ich nichts sagen, aber wenn es bei Gigabyte ein Board mit so einem Problem gab, könnten auch andere betroffen sein.

Ich werd es beobachten. Mal schauen wie die Werte morgen aussehen.

Holt schrieb:
Schau Dir doch den Rohwert an und überlege dann noch mal ob es wohl die ersten 4 Stellen von links oder von rechts sein werden.
(Lösung: von Links, sonst hätte ich "die letzten 4 Stellen" geschrieben, da ich aus einem Kulturkreis komme wo man von Links nach rechts liest.)

Befehlszeitüberschreitung: Da Aktueller Wert 100, schlechtester Wert auf 98 und HEX auf 0x2 steht hätte das gepasst. Kulturkreis hin oder her. :heuldoch: :d
Bei UDA CRC steht die Zwei auch auch ganz rechts... . Laut Deiner Aussage müsste es aber so aussehen 0002xxxxxx.

Holt schrieb:
In der Anleitung steht nur: Leider steht nicht wie, aber wenn damit der Extended S.M.A.R.T. Selbsttest gemeint ist, also der Test vom Controller selbst ausgeführt wird, dann müsste es bei der Archive v2 8TB 19 Stunden dauern. Dann wären Kommunikationsprobleme auch kein Thema, würde aber auch nicht erkannt werden.

Das würde ich mal vermuten, oder es ist portweise im BIOS einstellbar. Das Risiko beim Combined Mode ist natürlich, dass es unterschiedliche Treiber sind wenn der eine nun Platten über 2TB unterstützt und der andere nicht, hat man schnell Datenverlust wenn man sie umstöpselt.

Der extended Test mit den WD DLT sollte am ASRock ca. 11 Stunden dauern, am Jetway meint er 15. Mal sehen wie es mit wirte zero wird.

Datenverlusst durch umstecken bzw. wechsel von IDE auf AHCI bei einer nicht Systemplatte... nie erlebt. Somal es hier auch egal ist, da die Platte noch getestet wird und sich keine "Produktivdaten" darauf befinden.
 
Zuletzt bearbeitet:
Alleine die Initialisierung dürfte Tage dauern, von daher sagt das noch nichts aus.

Hab in meinem bestehenden RaidSet alle bisherigen Platten durch die neuen 8TB ausgetauscht, daher war keine Initialisierung nötig (nur 4x ein rebuild... Benutze die jetzt größere Kapazität noch nicht).
Aber du hast schon Recht. Ist zu kurz um es zu beurteilen. Ich melde mich in ein paar Tagen wieder..
 
Befehlszeitüberschreitung: Da Aktueller Wert 100, schlechtester Wert auf 98 und HEX auf 0x2 steht hätte das gepasst. Kulturkreis hin oder her. :heuldoch: :d
Hast Du einen Clown gefrühstückt oder ist das dem Karneval geschuldet? Ich hatte doch klar geschrieben:
Die Lesefehlerrate und die Hardware ECC Rohwerte passen, die Seagate Platen zeigen die Anzahl der Fehler in den ersten 4 Stellen, die anderen Stellen zeigen die Anzahl der Vorgänge an, ebenso bei den Suchfehler.
Für die anderen Attribute gilt das nicht, sondern nur für diese 3. Bei der Luftstromtemperatur werden z.B. die auch Extremwerte im Rohwert festgehalten. Eigentlich dachte das dies aus den Rohwerten auch ersichtlich wäre, zumal ich ja selbst von 2 Ultra DMA Fehlern und zwei Befehlsüberschreitungen geschrieben hatte und dort die 2 im Rohwert auch ganz rechts steht und es ja wohl kaum nur zwei DMA Übertragungen gegeben haben kann.

Der extended Test mit den WD DLT sollte am ASRock ca. 11 Stunden dauern, am Jetway meint er 15.
Seltsam, dann scheint es aber kein Selbsttest zu sein. Wo ich die 19 Stunden jetzt her hatte finde ich gerade nicht, in WTFUAR Beitrag stehen 15 Stunden und 37 Minuten:
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 937) minutes.

Conveyance self-test routine
recommended polling time: ( 2) minutes.


Datenverlusst durch umstecken bzw. wechsel von IDE auf AHCI bei einer nicht Systemplatte... nie erlebt.
Da hattest Du bisher das Glück sie nie zwischen Ports oder Rechnern zu wechseln von denen einer keine Platten über 2TB unterstützt und Adressierungsfehler produziert. Das fällt nur dann sofort auf, wenn man die neue Platte an den Rechner / Port initialisieren will der das nicht unterstützt, da erscheint dann z.B. eine 3TB Platte als 746GB, aber wenn die Platte schon partitioniert ist, dann liest Windows die Werte für die Kapazitäten der Partitionen auf der Partitionstabelle und man sieht die korrekten Werte. Wird aber jenseits von der 2TiB Grenze geschrieben, landen die Schreibzugriffe wegen der Fehladresierung (Abschneiden der oberen Bits) dann auf der falschen Stelle und zerstören Daten.

Hab in meinem bestehenden RaidSet alle bisherigen Platten durch die neuen 8TB ausgetauscht, daher war keine Initialisierung nötig (nur 4x ein rebuild... Benutze die jetzt größere Kapazität noch nicht).
Wie groß waren denn die alten Platten? Mir scheint die Archive belegt erst die Spuren bei denen sie noch keine alten Daten einlesen und danach neu schreiben muss, weshalb sie auch bei HD Tune so eine hohe Schreibrate zeigt und man wird erst dann die wahrem Schreibraten sehen, wenn sie wirklich sehr voll ist.
 
Zuletzt bearbeitet:
Hast Du einen Clown gefrühstückt oder ist das dem Karneval geschuldet?
Nein Holt, ich hab mit Peter Lustig geduscht. :stupid:

Holt schrieb:
Ich hatte doch klar geschrieben: "Die Lesefehlerrate und die Hardware ECC Rohwerte passen, die Seagate Platen zeigen die Anzahl der Fehler in den ersten 4 Stellen, die anderen Stellen zeigen die Anzahl der Vorgänge an, ebenso bei den Suchfehler." Für die anderen Attribute gilt das nicht, sondern nur für diese 3. Bei der Luftstromtemperatur werden z.B. die auch Extremwerte im Rohwert festgehalten. Eigentlich dachte das dies aus den Rohwerten auch ersichtlich wäre, zumal ich ja selbst von 2 Ultra DMA Fehlern und zwei Befehlsüberschreitungen geschrieben hatte und dort die 2 im Rohwert auch ganz rechts steht und es ja wohl kaum nur zwei DMA Übertragungen gegeben haben kann.

Das dies nicht für die anderen Attribute gilt, ging für mich nicht aus dem Text hervor. Ich bitte dies zu entschuldigen Flottillenadmiral Holt. :hail::coolblue:

Holt schrieb:
Seltsam, dann scheint es aber kein Selbsttest zu sein. Wo ich die 19 Stunden jetzt her hatte finde ich gerade nicht, in WTFUAR Beitrag stehen 15 Stunden und 37 Minuten:

Der wirte Zero Test (WD DLT) läuft. Es sind 5,5 Stunden rum und ca. 10 verbleiben. Ich würde den Wert vom ASRock einfach nicht ernst nehmen. Der Wert war ja nur geschätzt bevor er abgebrochen hat.

Holt schrieb:
Da hattest Du bisher das Glück sie nie zwischen Ports oder Rechnern zu wechseln von denen einer keine Platten über 2TB unterstützt und Adressierungsfehler produziert. Das fällt nur dann sofort auf, wenn man die neue Platte an den Rechner / Port initialisieren will der das nicht unterstützt, da erscheint dann z.B. eine 3TB Platte als 746GB, aber wenn die Platte schon partitioniert ist, dann liest Windows die Werte für die Kapazitäten der Partitionen auf der Partitionstabelle und man sieht die korrekten Werte. Wird aber jenseits von der 2TiB Grenze geschrieben, landen die Schreibzugriffe wegen der Fehladresierung (Abschneiden der oberen Bits) dann auf der falschen Stelle und zerstören Daten.

Na jetzt wirst Du doch konkreter. Die Platten die ich hier zum Testen hin und her stecke haben keine Kapazität von über 2TB.
 
Zuletzt bearbeitet:
In meinem Testsystem häng die Platte über einer 3,5" WD Raptor und einer WD RE2. Mal abgesehen vom zirpen im Leerlauf hört man da nicht wirklich was raus.
Wenn der Test duch ist, könnte ich mit einer Green 2TB und Red 3TB vergleichen.
 
MF hat wohl wieder welche bekommen. Meine wurde heute verschickt.
 
8-TByte-Festplatte mit SMR-Aufzeichnung | c't
c't schrieb:
Außerdem gibt es auf der Platte 128 MByte Cache und eine Pufferzone zum Zwischenspeichern von Daten.
Das besätigt je meine Vermutung:
Es könnte dort eine Technologie wie den HGST's Disk-based Media Cache bei der Ultrastar C10K1800 geben und dann würden kleine Schreibvolumen nicht reichen um die reale Schreibrat ebeim Vollschreiben zu ermitteln.
Bei den Pufferzonen dürfte es sich um solche Spuren wie beim Disk-based Media Cache handeln, daher kann die bei kleinen Schreibvorgängen auch sehr schnell schreiben, auch wenn die Daten nicht mehr in den RAM Cache passen.
 
wie sieht den es jetzt mit der platte bitte genau aus,

habe ein lian li ex 503 mit 5x2tb wd greens als raid 5 laufen.

Randvoll mit Iso und Bilddateien. Würde gerne die Festplatte kaufen, zugriffszeiten etc. machen mir wenig sorgen, dan dauert das kopiern eben 4 std. mehr-mir egal.
Was mir aber immernoch keiner beantworten kan, warum sollen die festplatten nicht für ein Raid 5 Verbund sowie True Crypt geeignet sein ? Was ist an der Technik bitte so schlecht das die kein Raid überleben? Warum sollen die Platten wen sie voll sind schon so schnell defekt gehen? Ich mein da wird doch wie der name schon sagt "Archive" dateien abgelegt, also nur Daten draufgeworfen und dan nur wieder zum Backup o.ä lesezugriffen benutzt

Bitte klärt mich mal als Halbnoob auf




Wounder, es keine 0 Erfahrungen mit der Platte und praktisch auch keine mit SMR Platten überhaupt. Die Archive v2 ist 24/7 tauglich, wie es mit RAID aussieht, kann man noch nicht sagen, aber wenn u.U. der Schreiben länger als der Timeout des RAIDs dauern kann, dann würde sie immer wieder als defekt aus dem RAID fliegen und wäre damit RAID untauglich. Ob es so ist, kann aber wohl außer Seagate noch niemand sagen. Also abwarten wenn man gesicherte Erkenntise aus der Erfahrungen anderer haben will oder eben selbst ins kalte Wasser springen und sehen wie tief es ist, auf eigenes Risiko.


Heißt also ich kan die Platte kaufen, meine Iso´s und Bilder draufwerfen(geordnet) und kan dan 1-2 mal die Woche das Randvolle Ding anmachen und (auslesen), und das nur 150TB bevor es kaputt geht?

150TB/7,3 = 20,55 WTF

Heißt dass ich kan die Platte nur 20,55 einschalten bis sie gehimmelt ist? Oder hab ich da nen denkfehler bzw. das komma falsch gesetzt?

Bitte klärt mich auf :(
 
https://www.cs.cmu.edu/~garth/papers/05_feldman_022-030_final.pdf p29 schrieb:
It is proposed that the band size is standardized to either 256 MiB or 1 GiB. These power-of-two sizes are sufficiently large to allow for a minimum of space to be devoted to band isolation.

http://www.pdl.cmu.edu/PDL-FTP/FS/CMU-PDL-12-105.pdf p5 schrieb:
To deal with the expense of write amplification, SMR breaks the disk surface into smaller pieces called bands [20], consisting of a set of consecutive tracks. Bands are then separated by a gap called the Band Gap. The width ofthe Band Gap is just enough to ensure that a write to the last track of a band does not interfere with a write to the first track in the next band. Thus, breaking the disk into bands effectively reduces the write-amplification to the size of the band in the worst case. Despite the improvement, this solution is far from ideal, even when band sizes are a modest 64MB, let alone multi-GB sized bands. Consider the same example as before; the update to the first 4KB of data in a 64MB band. The incoming write is for a mere 4KB, but the resultant disk write is 64MB; a write amplification of 1,638,400%! And this only gets worse for bands with larger sizes.

Bei dieser Festplatte handelt es sich um eine Drive-managed SMR Technologie. Aber wie groß sind diese Bänder, und wie wird intern die Beschreibung dieser Bänder organisiert?
Durch ein normalen Pufferbereich auf der Platte (Band Gap = 1 Track) der später sequentiell in die Bänder geschrieben wird, oder durch eine Anzahl Bänder (pro Platter mindestens ein Band) die zum Schreiben markiert werden und beim Update eines Blocks in einem (halb-)gefüllten Band den Sektor auf die gerade geschriebene Position im aufzufüllenden Band alloziert?

8TB-dd-write-bs1M.png(1)
Code:
# dd if=/dev/zero of=/dev/da2 bs=1M
7630886+0 records in
7630885+1 records out
8001563222016 bytes transferred in 52455.665861 secs (152539542 bytes/sec)

Test mit 256MB blocksize für badblocks verhält sich ähnlich zum dd Workload.
8TB-badblocks-bs256M.png
Code:
# badblocks -s -v -w -c 1 -b 268435456 /dev/da2
Checking for bad blocks in read-write mode
From block 0 to 29807
Testing with pattern 0xaa: set_o_direct: Inappropriate ioctl for device
 33.33% done, 3:51:00 elapsed. (0/0/0 errors)

Die blocksize wird auf 1MB reduziert, ähnliches Verhalten.
8TB-badblocks-bs1M.png
Code:
 ~# badblocks -s -v -w -c 1 -b 1048576 /dev/da2
Checking for bad blocks in read-write mode
From block 0 to 7630884
Testing with pattern 0xaa: set_o_direct: Inappropriate ioctl for device
  0.02% done, 0:08 elapsed. (0/0/0 errors)

Mit der non-destructive read-write Funktion kommt es zu Einbrüchen.
8TB-badblocks-non-destructive.png
Code:
~# badblocks -s -v -n -c 64 -b 1048576 /dev/da2
Checking for bad blocks in non-destructive read-write mode
From block 0 to 7630884
Checking for bad blocks (non-destructive read-write test)
Testing with random pattern: set_o_direct: Inappropriate ioctl for device
  0.17% done, 5:31 elapsed. (0/0/0 errors)

Nun mein erster Test mit "iozone -a -z -g 4G" auf einem mit
"zpool create -O compression=off -O checksum=off test /dev/da2"
erstellten Pool dessen mountpoint über nullfs in die Jail eingebunden wurde.
Dargestellt wird mit "iozone_visualizer.pl --3d=1920,1080 --2d=1920,1080 8TB-zfs-no-compression-no-checksum-4G.bin":
Anhang anzeigen 8TB-zfs-no-compression-no-checksum-4GB.txt
write.png(write)
rewrite.png(rewrite)
randwrite.png(randwrite)
recrewrite.png(recrewrite)

Die selbe Prozedur mit einer anderen zpool Konfiguration
"zpool create -O atime=off -O compression=off -O checksum=off -O primarycache=none -O secondarycache=none -O sync=always -O mountpoint=/mnt/tmp test /dev/da2"
"iozone -a -y 128k -n 128k -g 4G -f testile > 8TB-zfs-atime-off-compression-off-checksum-off-primarycache-none-secondarycache-none-sync-always-4G.txt"
Anhang anzeigen 8TB-zfs-atime-off-compression-off-checksum-off-primarycache-none-secondarycache-none-sync-always.txt (läuft noch)
write.png(write)
rewrite.png(rewrite)
randwrite.png(randwrite)
recrewrite.png(recrewrite)

Diese Test wurden alle auf FreeNAS-9.3-STABLE-201502110455 mit zu viel RAM ausgeführt. Würde das ganze gerne mit einer sinnvollen jobfile für fio auf einem Testsystem mit weniger RAM wiederholen (und ohne den nullfs-mount).
Und dabei wollte ich die Festplatte eigentlich nur mit badblocks auf Herz und Nieren testen...
 

Anhänge

  • read.png
    read.png
    49 KB · Aufrufe: 76
  • reread.png
    reread.png
    44,8 KB · Aufrufe: 82
  • read.png
    read.png
    46,5 KB · Aufrufe: 81
  • reread.png
    reread.png
    43,7 KB · Aufrufe: 78
  • fwrite.png
    fwrite.png
    53,9 KB · Aufrufe: 75
  • frewrite.png
    frewrite.png
    55 KB · Aufrufe: 77
Da gerade wieder über die 180TB/Year Workload geschimpft wurde hab ich mich mal damit befasst(Ohne Wertung nur Fakten, entscheidet für euch selbst).

Hier das Datenblatt der Seagate:
http://www.seagate.com/www-content/...dd/en-us/docs/archive-hdd-dS1834-3-1411de.pdf

Als Vergleich die HGST MegaScale DC 4000.B
http://www.hgst.com/tech/techlib.nsf/techdocs/7FC7DE7FF932191A88257C040028AAEB/$file/MS4000.B_final_ds.pdf
Gleiches Workload Rating , MTBF und gleiche Error rate. Unter Highlights steht dann:"24x7 accessibility for enterprise-class, capacity-optimized applications"

Als weiterer Hinweis die normalen Seagate Desktop HDD(z.B.ST4000DM000) haben nur ein Workload Rating von 55TB/Year
(unter Einsatzbereiche steht Desktop- oder All-in-One-PC/ Homeserver/ Direct Attached Storage (DAS)-Geräte der Einstiegsklasse)
http://www.seagate.com/www-content/product-content/desktop-hdd-fam/de/docs/desktop-hdd-ds1770-5-1409de.pdf
 
Heißt also ich kan die Platte kaufen, meine Iso´s und Bilder draufwerfen(geordnet) und kan dan 1-2 mal die Woche das Randvolle Ding anmachen und (auslesen), und das nur 150TB bevor es kaputt geht?

150TB/7,3 = 20,55 WTF

Heißt dass ich kan die Platte nur 20,55 einschalten bis sie gehimmelt ist? Oder hab ich da nen denkfehler bzw. das komma falsch gesetzt?

Bitte klärt mich auf :(

Da gerade wieder über die 180TB/Year Workload geschimpft wurde hab ich mich mal damit befasst(Ohne Wertung nur Fakten, entscheidet für euch selbst).

Hier das Datenblatt der Seagate:
http://www.seagate.com/www-content/...dd/en-us/docs/archive-hdd-dS1834-3-1411de.pdf

Als Vergleich die HGST MegaScale DC 4000.B
http://www.hgst.com/tech/techlib.nsf/techdocs/7FC7DE7FF932191A88257C040028AAEB/$file/MS4000.B_final_ds.pdf
Gleiches Workload Rating , MTBF und gleiche Error rate. Unter Highlights steht dann:"24x7 accessibility for enterprise-class, capacity-optimized applications"

Als weiterer Hinweis die normalen Seagate Desktop HDD(z.B.ST4000DM000) haben nur ein Workload Rating von 55TB/Year
(unter Einsatzbereiche steht Desktop- oder All-in-One-PC/ Homeserver/ Direct Attached Storage (DAS)-Geräte der Einstiegsklasse)
http://www.seagate.com/www-content/product-content/desktop-hdd-fam/de/docs/desktop-hdd-ds1770-5-1409de.pdf

Ich verstehe nicht, was die Leute alle haben. Die Platte besitzt genauso Spezifikationen wie alle anderen Festplatten am Markt auch und wenn dort steht, dass die Platte 180TB/Jahr Workload hat, was etwas weniger als 500GB pro Tag bedeutet, heißt das nicht, dass man am Tag keine 600GB schreiben/lesen darf. Man sollte halt nicht 365 Tage lang jeden Tag 600GB schreiben/lesen. Man kann auch an einem Tag die 180TB schreiben/lesen und den Rest des Jahres liegen lassen und würde sie noch innerhalb der Spezifikation betreiben.
Das ist wie beim Auto auch. Da gibt es auch Spezifikationen und da bekommt man auch keine Garantie mehr, wenn man zum Beispiel über 100.000km in 1,5 Jahren gefahren ist.
Jede Benutzung einer HDD verschleißt diese eben und durch die SMR-Technik, die eben beim Überschreiben zusätzliche Lese-/Schreibvorgänge machen muss, ist hier eben höherer Verschleiß, weshalb der Hersteller eben einen geringeren Workload angegeben hat, um das wieder auszugleichen.
Die Platte ist eben für einen bestimmten Zweck konzipiert worden und der heißt "Archiv". Hätte Seagate als Ziel eine normale Desktop-Platte gehabt, hätten Sie das ebenfalls mit entsprechend hochwertigeren Bauteilen und evtl. anderer Firmware umsetzen können, bloß wäre dann der Preis auch ein ganz anderer gewesen!
Ich kann mir auch kein kleines Stadtauto kaufen und dann damit immer am Limit auf der Autobahn fahren. Das geht, aber eben nicht ewig - Dafür wurde es nicht gebaut. Also bitte setzt die Platte zu dem Zweck ein, für den sie gedacht ist. Tut Ihr das nicht, steigt eben die Wahrscheinlichkeit, dass sie früher, als spezifiziert, ausfällt. Könnt Ihr natürlich trotzdem machen, bloß beschwert Euch dann eben nicht, wenn Sie eher den Geist aufgibt - Was sie natürlich nicht muss!

Ich habe mir in den letzten Tagen auch eine bestellt und die wird, sobald sie da ist, einmal mit Backups fast vollgeschrieben und liegt dann erst mal im Schrank. Da kommen Daten drauf, die sich fast nie ändern. Da kommen nur ab und zu mal welche hinzu.

Grüße CoreSucher
 
Zuletzt bearbeitet:
Ich verstehe nicht, was die Leute alle haben. Die Platte besitzt genauso Spezifikationen wie alle anderen Festplatten am Markt auch und wenn dort steht, dass die Platte 180TB/Jahr Workload hat, was etwas weniger als 500GB pro Tag bedeutet, heißt das nicht, dass man am Tag keine 600GB schreiben/lesen darf. Man sollte halt nicht 365 Tage lang jeden Tag 600GB schreiben/lesen. Man kann auch an einem Tag die 180TB schreiben/lesen und den Rest des Jahres liegen lassen und würde sie noch innerhalb der Spezifikation betreiben.
Das ist wie beim Auto auch. Da gibt es auch Spezifikationen und da bekommt man auch keine Garantie mehr, wenn man zum Beispiel über 100.000km in 1,5 Jahren gefahren ist.
Jede Benutzung einer HDD verschleißt diese eben und durch die SMR-Technik, die eben beim Überschreiben zusätzliche Lese-/Schreibvorgänge machen muss, ist hier eben höherer Verschleiß, weshalb der Hersteller eben einen geringeren Workload angegeben hat, um das wieder auszugleichen.
Die Platte ist eben für einen bestimmten Zweck konzipiert worden und der heißt "Archiv". Hätte Seagate als Ziel eine normale Desktop-Platte gehabt, hätten Sie das ebenfalls mit entsprechend hochwertigeren Bauteilen und evtl. anderer Firmware umsetzen können, bloß wäre dann der Preis auch ein ganz anderer gewesen!
Ich kann mir auch kein kleines Stadtauto kaufen und dann damit immer am Limit auf der Autobahn fahren. Das geht, aber eben nicht ewig - Dafür wurde es nicht gebaut. Also bitte setzt die Platte zu dem Zweck ein, für den sie gedacht ist. Tut Ihr das nicht, steigt eben die Wahrscheinlichkeit, dass sie früher, als spezifiziert, ausfällt. Könnt Ihr natürlich trotzdem machen, bloß beschwert Euch dann eben nicht, wenn Sie eher den Geist aufgibt - Was sie natürlich nicht muss!

Ich habe mir in den letzten Tagen auch eine bestellt und die wird, sobald sie da ist, einmal mit Backups fast vollgeschrieben und liegt dann erst mal im Schrank. Da kommen Daten drauf, die sich fast nie ändern. Da kommen nur ab und zu mal welche hinzu.

Grüße CoreSucher

Hey,

mir geht es eben nur darum dass ich meine digitale Blu Ray/DVD sammlung endlich mal kompl. auf 1 hdd ist und nicht via raid auf mehreren bzw einzelnen verteilt ist.

meine angst ist einfach dass wen ich das teil befüllt habe(ja habe wen ich alles zusammen nehme 6,9 TB!) und dan doch mal 1 mal die woche nen film davon anschauen will, es doch wieder zu hohen lesezugriffen kommt und die platte mir kein jahr lang überlebt.

Stehe irgendwie aufn Schlauch, kan mir das einfach einer gaaanz einfach erklären bzw mir sagen ob das für mein Einsatzzweck die HDD nicht gehimmelt wird
 
Hey,

mir geht es eben nur darum dass ich meine digitale Blu Ray/DVD sammlung endlich mal kompl. auf 1 hdd ist und nicht via raid auf mehreren bzw einzelnen verteilt ist.

meine angst ist einfach dass wen ich das teil befüllt habe(ja habe wen ich alles zusammen nehme 6,9 TB!) und dan doch mal 1 mal die woche nen film davon anschauen will, es doch wieder zu hohen lesezugriffen kommt und die platte mir kein jahr lang überlebt.

Stehe irgendwie aufn Schlauch, kan mir das einfach einer gaaanz einfach erklären bzw mir sagen ob das für mein Einsatzzweck die HDD nicht gehimmelt wird

Ist ja ne ganz einfache Rechenaufgabe, ob Du unter den 180TB lesen+schreiben pro Jahr bleibst. Wenn Du deutlich drüber kommst, ist das vielleicht nicht die richtige Platte für Dich - Wobei ich bezweifle, dass Du drüber kommst, wenn Du nur einmal nen Film pro Woche schaust!
Edit: Das wären im ersten Jahr dann doch nur 6,9TB + 52xca.20GB = ~ 8TB!!!
Ansonsten, wenn Dir die Daten wichtig sind, mache ein Backup davon! Jede Platte kann theoretisch von jetzt auf gleich den Geist aufgeben, egal was die Spezifikationen sagen. Es gibt genügend Platten, die beim Transport was abbekommen haben und dann gleich in den ersten Tagen/Wochen (je nach Benutzung) gleich das Zeitliche segnen!

Grüße CoreSucher
 
Zuletzt bearbeitet:
Jetzt hab ich die rechnung kapiert, mit lesen ist wirklich nur die eine ISO von 20+ (blu ray eher 42 gb) gemeint und nicht die ganze hdd bzw. mehrere iso(wegen der nebenspur einlesen) gemeint, d.h. im schlimmsten fall komme ich sagen wir mal auf wen ich das ding doch öfters einschalte bzw. mehrer filme wiedergebe auf round about groß geschätz 50tb im Jahr, also noch weit unter den 180TB read/write im Jahr.

VIELEN DANK! JETZT KAPIERT!

Platte wird bei MF geordert =)
 
Jetzt hab ich die rechnung kapiert, mit lesen ist wirklich nur die eine ISO von 20+ (blu ray eher 42 gb) gemeint und nicht die ganze hdd bzw. mehrere iso(wegen der nebenspur einlesen) gemeint, d.h. im schlimmsten fall komme ich sagen wir mal auf wen ich das ding doch öfters einschalte bzw. mehrer filme wiedergebe auf round about groß geschätz 50tb im Jahr, also noch weit unter den 180TB read/write im Jahr.

VIELEN DANK! JETZT KAPIERT!

Platte wird bei MF geordert =)

Genau - Da du DVD/Blu-Ray-Sammlung geschrieben hattest, bin ich mal von ca. 20GB pro Film ausgegangen.
Beim Lesen wird die Spur immer direkt gelesen. Der Lesekopf ist entsprechend klein genug. Nur beim Schreiben muss mehr Aufwand betrieben werden.

Grüße CoreSucher
 
Nukama, mit Tests über wenige MB oder auch ein paar GB kommst Du da nicht zu sinnvollen Ergebnissen, die Platten haben dazu Cache Funktionen die es erlauben so kleine Datenmengen schnell zu schreiben. Siehe dazu auch Post #214 und die dort verlinkten Artikel bei heise und Anandtech!

das nur 150TB bevor es kaputt geht?
Nein, das ist ja ein jährlicher Workload. Die Platte drüfte auf 3 bis 5 Jahre Nutzungsdauer ausgelegt sein und damit also 3*180TB bis 5*180TB schaffen. Wenn Du die in einem Jahr verballerst, darfst Du Dich nicht wundern wenn sie in 2. Jahr kaputt geht. Ist wie mit einem Auto, die meisten Teile sind i.d.R. auf 200.000 bis 250.000km Laufleistung ausgelegt, ein normaler Durchschnittsfahrer fährt 10.000 bis 15.000km im Jahr, das reicht also lange. Fährst Du mit dem Wagen aber ständig wie bei einem 24 Stunden Rennen, wirst Du sehr bald Probleme wegen der hohen Belastung bekommen und dann auch die Verschleißgrenze diverser Teile nicht erst nach Jahren sondern weit früher erreicht haben.


Jede Benutzung einer HDD verschleißt diese eben und durch die SMR-Technik, die eben beim Überschreiben zusätzliche Lese-/Schreibvorgänge machen muss, ist hier eben höherer Verschleiß, weshalb der Hersteller eben einen geringeren Workload angegeben hat, um das wieder auszugleichen.
Wobei 180TB im Jahr nicht wenig ist, vor allem im Verhältnis zum Preis der Platte.


meine angst ist einfach dass wen ich das teil befüllt habe(ja habe wen ich alles zusammen nehme 6,9 TB!) und dan doch mal 1 mal die woche nen film davon anschauen will, es doch wieder zu hohen lesezugriffen kommt und die platte mir kein jahr lang überlebt.
Die Rechnuing wurde ja schon gemacht und wenn Du nur die DVD liest, kommt dabei nicht viel zusammen. Anders wäre es, wenn Du jede Woche ein neuen Vollbackup machen und dabei die ganze 6.9TB überschreiben oder die ganzen Daten lesen und prüfen würdest, dann hättest Du jede Woche gut 7TB und damit 52*7TB = 364TB im Jahr und damit doppelt so viel wie spezifiziert, es wäre also nur mit der halben Lebenserwartung zu rechnen.

Das Problem liegt da auch eher bei RAID die regelmäßig oder gar permantent die Konsistenz prüfen (Scrubbing), das sollte man bei der Archive (und auch sonst normalen NAS Platten) nicht zu oft machen, mehr als einmal im Monat keinesfalls!

Ansonsten, wenn Dir die Daten wichtig sind, mache ein Backup davon! Jede Platte kann theoretisch von jetzt auf gleich den Geist aufgeben, egal was die Spezifikationen sagen. Es gibt genügend Platten, die beim Transport was abbekommen haben und dann gleich in den ersten Tagen/Wochen (je nach Benutzung) gleich das Zeitliche segnen!
Genau so ist es und deshalb machen Profis auch Burn-In Tests und nutzen neue HW niemals sofort produktiv. Aber wenn ich das richtig verstanden haben, will Wounder die als Backup für sein RAID nutzen, nur bin ich mir nicht sicher ob er verstanden hat was ein Backup ist, wenn er von der Backupplatte wöchentlich einen Film abspielen will. Da kommt mir der Verdacht, dass es hier mal wieder eine Auslagerung statt eines Backups geben wird, also die Originale nach dem Kopieren wohl gelöscht werden.

Das sieht man ja leider häufig! Da kommt plötzlich einer und schreibst seine Backupplatte wäre defekt und fragt wie er nun an die Daten kommt. Dann sagt man er solle die Orignale wieder nehmen, aber also Antwort kommt, die hätte er nach der Sicherung gelöscht, die waren ja nun gesichert.:wall: Wer unter regelmäßiger Datensicherung sowas versteht, dem ist halt nicht zu helfen.

mit lesen ist wirklich nur die eine ISO von 20+ (blu ray eher 42 gb) gemeint und nicht die ganze hdd bzw. mehrere iso(wegen der nebenspur einlesen) gemeint
Wie viele Daten gelesen werden, hängt halt davon ab was Du konkret machst. Irgendein Video Player wird nur die Verzeichnistrukturen und dann das Video laden, also nur ein paar GB und beim Lesen werden auch keine Nebenspuren eingelesen, die Leseköpfe sind kleiner als die Schreibköpfe und können wirklich spurweise lesen, was kann nur nicht eine einzelne Spur geschrieben werden, sondern es wird immer die Nachbarspur mit überschrieben. SMR macht sich nur beim Schreiben bemerkbar!
 
Zuletzt bearbeitet:
Also mit einem älteren Sharkoon USB2 QuickPort scheint sie nicht zu laufen, da steigt sie immer wieder aus.
Ich teste nachher mal intern.

Edit: Ok, scheinbar hat einer der USB Frontports eine Macke am Tower. Am anderen läuft sie.
 
Zuletzt bearbeitet:
""Wenn Du die in einem Jahr verballerst, darfst Du Dich nicht wundern wenn sie in 2. Jahr kaputt geht.""

Wie soll/darf ich das verstehen, wenn meine da sind kommen da 2 x 4 TB Platten mit Filme drauf ist sie dann sofort kaputt wenn ich sie einmal befüllt habe??

AW ....lässt mich hoffen habe ja den Quattro und hoffe das sie da erkannt werden!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh