[News] Seagate 8 TB Festplatte für unter 250 € nagelneu , wo ist der Haken ?

HDD habe ich langsam formatiert und mit H2testw habe ich die Platte vollgeschrieben und die Smartwerte scheinen danach I.O zu sein. Crystaldiskinfo zeigt mir keinen "relocate sector" an.
Mit h2wtest nir vollgeschrieben oder auch die geschriebenen Daten überprüft?
Wenn letzteres zutrifft, hast du eigentlich schon das mindeste erfüllt

Wie lange würdest du den Langzeittest laufen lassen?
bis er fertig ist!

Die Aussagen von Kurztests sind nur im Fehlerfall gültig, da nur ein ganz kleiner Bruchteil geprüft wird (dürfte unter 1 % liegen)!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Jupp, die geschriebenen Daten wurden nach dem Schreibvorgang gleich mit geprüft.
 
Ich kann die Icy Docks empfehlen ...
Eine Platte wäre z.B. in einem ICYBento MB559U3S.
 
Meine Platte ist am Freitag gekommen. Erstmal langsam formatiert und dann mit h2wtest getestet. Jetzt sagt der mir das er nicht ganz die Platte beschreiben konnte. Die Smartwerte sind alle in Ordnung.
Kann gerne mal ein Bild hier hochladen. Soll ich jetzt die Festplatte nochmals langsam formatieren oder einfach schnell formatieren??

8TB Festplatte.jpg
 
Zuletzt bearbeitet:
Leute, das ist eine Festplatte, kein Haustier - die muss man nicht sanft formatieren und langsam beschreiben.

Ich habe mittlerweile 6 von den Dingern hier liegen. Die ersten zwei wurden eingebaut, angeschlossen, GTP - >NTFS Quickformat und direkt 6 TB draufkopiert.

Aus Spaß habe ich mal einen Benchmark gemacht und die Performance ist absolut ok. Festplatten sind zur Nutzung da, nichts anderes.
 
@RenovatioApo ganz normal da ist nichts kaputt Holt hat das hier im Thread auch öfter erwähnt dass h2testw bei großen Platten genau das Problem hat.
http://www.hardwareluxx.de/community/f15/seagate-8-tb-festplatte-fuer-unter-250-nagelneu-wo-ist-der-haken-1049915-35.html#post23756360

Also nächstes mal einfach die 7630343MB testen(wie man auf deinem Screenshot sieht hat h2testw es erkannt und zeigt jetzt auch in der klammer den niedrigeren Wert).
Falls du die Daten noch nicht gelöscht hast kannst du auch einfach manuell auf Prüfen gehen.
 
Die Performance ist nicht ok, die Platten sind arschlahm.
Dann solltest Du den Einsatzzweck beachten.
Die 8 TB sind prima als Medienspeicher zu nutzen. Da fällt mir keine Anwendung ein, für die sie zu langsam sind. Wenn das RAID6 fertig ist, kann ich gerne nochmals die Performance messen.

Wenn Du fixe große Platten willst, musst Du eine 6TB aus der Enterprise-Serie nehmen, dann zahlst Du aber auch mehr als das doppelte und auch der Stromverbrauch ist höher-

Für virtuelle Maschinen und andere performancehungrige Dinge gibt es ja hübsche 2 TB SSD von Intel und Samsung.
 
@RenovatioApo ganz normal da ist nichts kaputt Holt hat das hier im Thread auch öfter erwähnt dass h2testw bei großen Platten genau das Problem hat.
http://www.hardwareluxx.de/community/f15/seagate-8-tb-festplatte-fuer-unter-250-nagelneu-wo-ist-der-haken-1049915-35.html#post23756360

Also nächstes mal einfach die 7630343MB testen(wie man auf deinem Screenshot sieht hat h2testw es erkannt und zeigt jetzt auch in der klammer den niedrigeren Wert).
Falls du die Daten noch nicht gelöscht hast kannst du auch einfach manuell auf Prüfen gehen.


Super, danke für die Info. Prüfen hab ich schon Manuell betätigt.
 
Leute, das ist eine Festplatte, kein Haustier - die muss man nicht sanft formatieren und langsam beschreiben.

Ich habe mittlerweile 6 von den Dingern hier liegen. Die ersten zwei wurden eingebaut, angeschlossen, GTP - >NTFS Quickformat und direkt 6 TB draufkopiert.

Aus Spaß habe ich mal einen Benchmark gemacht und die Performance ist absolut ok. Festplatten sind zur Nutzung da, nichts anderes.

Dann schätze dich Glücklich, daß dir offenbar noch keine Platte innerhalb der ersten Betriebsstunden kaputt gegangen ist, denn genau deswegen macht man den "Burn In"
1. Vollformat (auch langsam formatieren genannt), hier werden alle Sektoren geschrieben und geprüft.
2. die partition mit h2wtest vollschreiben und prüfen, Paranoiker lassen den Prüflauf 4-5mal durchlaufen.

Im übrigen wierden hierduch auch Treiberfehler aufgedeckt, die beim Quickformat und anschliessendem Daten raufkopieren erst bei Überschreiten der 2,2TB / 2TiB Grenze aufgedeckt werden. Die Partition isst danach nämlich unbrauchbar.
 
Zuletzt bearbeitet:
Gleich ist meine Platte mit prüfen fertig. Dann sehen wir mal weiter.

Die Platte hängt gerade an einer Docking Station von sharkoon als USB 3.0 Version. Bisher noch garkeine Probleme gemacht unter Windows 10.
 
Jetzt sagt der mir das er nicht ganz die Platte beschreiben konnte. Die Smartwerte sind alle in Ordnung.
Wie JoZu Dir schon geantwortet hat, ist das ein Problem von h2testw im Zusammenhang mit NTFS, das Programm ist alt und nicht für so große Filesysteme sondern kleine USB Sticks und Speicherkarten entwickelt worden, eigent sich aber eben auch gut zum Testen von HDDs und SSDs. Nur haben gerade HDDs heute auch so große Kapazitäten, da wachsen die Metadaten des Filesystmes, die NTFS eben in versteckten Dateien (die auch der Explorer nicht anzeigt und deren Namen mit $ anfangen) dabei stärker als heise damals eingeplant hat. Diese Metadateien sind in Spare angelegt, haben also Anfangs eine minimale Größe und wachsen mit der Zeit, weshalb man beim Formatieren auch nichts verliert, da verwechseln viele genau wie Windows Dezimal- und Binärpräfixe, sondern eben mit der Nutzung des Filesystems eben immer mehr Platz an dessen Metadaten verliert. Bei Dir haben am Ende knapp 500MB gefehlt.
Soll ich jetzt die Festplatte nochmals langsam formatieren oder einfach schnell formatieren??
Egal, aber die Schnellformatierung reicht. Die S.M.A.R.T. Werte sind in Ordnung, auch das SATA Kabel und die Temperaturen sind im grünen Bereich.

Die Performance ist nicht ok, die Platten sind arschlahm.
Das kann man so nicht sagen, die hat ja nicht den Anspruch eine sauschenlle Platte zu sein und lesend ist sie nicht lahm. Gestern hatte ich mal ein Live-Linux gebooten, weil ich ein anderes Problem hatte und haben dann auch mal mit dd ein wenig die Performance gemessen, da kam ich mit den Testdaten von h2testw auf der Archive auf Werten von knapp über 200MB/s bis unter 85MB/s Lesend, was hier was als bei der ST3000DM001, die ich auch kürzlich eingebaut haben, die kam auf knapp unter 200MB/s, lag dafür aber bei dem minimalen Wert höher. Dann habe ich einig Butterfly Test gemacht, also eine Datei ganz außen und eine ganz innen zeitgleich Lesen lassen, da war die ST3000DM001 dann etwa doppelt so schnell wie sie Archive v2 8TB, 7200rpm helfen den Zugriffszeiten eben auf die Sprüungen und die ST3000DM001 ist eben wirklich eine flotte HDD, die es bei der Performance auch mit der viel teureren WD Black aufnehmen kann, sie ist eben nur nicht dauerbetriebs- und RAID tauglich, was Seagate aber auch nicht verspricht. Das glauben aber eben einige Leute noch, die wohl auch ihre Ferngespräche am liebsten beim Fräulein vom Amt anmelden würden. :d

Super, danke für die Info. Prüfen hab ich schon Manuell betätigt.
Da bekommst Du dann vermutlich am Ende einen Fehler weil was fehlt, lies also genau was da in der Fehlermeldung steht!
 
Egal, aber die Schnellformatierung reicht. Die S.M.A.R.T. Werte sind in Ordnung, auch das SATA Kabel und die Temperaturen sind im grünen Bereich.

Da bekommst Du dann vermutlich am Ende einen Fehler weil was fehlt, lies also genau was da in der Fehlermeldung steht!

Habs trotzdem langsam formatiert. Mache ich immer beim ersten Mal.

Ne, garkeine Fehlermeldung am Ende. Alles super. [emoji106]

Jetzt wird fleißig 5TB kopiert.
 
An alle Archiv Besitzer:

Habt ihr Unterschiede zwischen verschiedenen Platten bei den Betriebsgeräuschen bermerkt? Ich habe ja nun 2 Stück 8TB und die eine ist wirklich lauter als die andere. Sie macht auch diese "züüp" zwischendurch. Habe bei der echt Kopfschmerzen obwohl die Smartwerte "ok" sind.
 
Dieses "zürp" habe ich auch bei meiner Platte. Ich dachte, dass das mit Win 10 zusammenhängt ..
 
meine 19 Platten sind alle "schön leise" (subjektiv - was man bei 19 HDDs und dazugehöriger Belüftung als leise bezeichnen kann) und machen auch keine ungewöhnlichen Geräusche.
Ich habe allerdings alle Platten einzeln auf dem Tisch liegend auf Vibrationen überprüft!
 
Zuletzt bearbeitet:
Was bewirkt diese Einstellung den?? Kurze Erklärung wäre super.

Des Weiteren suche ich ein Programm womit ich Verzeichnisse vergleichen kann, damit ich 100% sicher bin das alles gleich ist.
 
Moinsen!

Hab auch drei von den Archives. Eine macht auch seit beginn an diese Geräusche. Bisher laufen Sie ohne Beanstandungen 24/7.
 
Im externen Fantec DB-ALU3e-6G Gehäuse mit akt. Firmware lief die 8TB im Übrigen problemlos, lässt sich aber aufgrund der Außenbohrungen nur an 2 Positionen festschrauben.
 
Das wir momentan größere Hardwareumbauten vornehmen, werden die Archive HD als temporäre Backups genutzt, sollte eine der originalen Platten die Umbauten nicht überleben. Ich habe gerade wieder über 6 TByte auf eine der Platten kopiert (Quickformat), durchschnittliche Geschwindigkeit beim Schreiben über 180 MByte /Sekunde, da brauche ich keine Enterprise-Platten.

Das einzige was die Platte überhaupt nicht mag, sind mehrere Datenströme, da knickt die Performance richtig ein. Wo eine Enterprise HDD problemlos ein halbes Dutzend Schreibvorgänge gleichzeitig schafft, geht die Archive HD auf knapp 100 MByte/s gesamt runter. Also besser sequentiell kopieren als parallel, das geht dann deutlich schneller.
 
Zuletzt bearbeitet:
Die Archive passen mit ihren 180TB Workload pro Jahr durchaus in die Enterprise Kategorie und der Unterschied zwischen Consumer und Enterprise HDDs ist eben auch nicht die Geschwindigkeit, sondern eben die Belastbarkeit, also Dinge wie Workload Rating, UBER, Vibrationssensoren die es erlauben viele Platten im gleichen Gehäuse zu betreiben. Was die Unterschiede sind, siehst Du hier am Beispiel der 3.5" Modellreihen von Toshiba:

attachment.php


Die Geschwindigkeit haben die Consumer HDDs genauso, zumindest wenn sie auch 7200rpm haben und allenfalls aus akustischen Gründen haben sie eine etwas schlechtere Zugriffszeit, da werden dann einfach die Köpfe weniger zackig bewegt, was leiser ist und die inzwischen oft hypersensiblen Anwender nicht sofort vermuten lässt, ihre HDD wäre defekt nur weil sie Geräusche macht.
 
Das ist mir durchaus klar, ich wollte mich einfach positiv äußern, wie gering in diesem Szenario die Unterschiede zwischen SMR und herkömmlichen Platten sind.
 
Habe die Seagate jetzt auch mit 6 TB Daten geflutet - am Stück.
Komplett mit Truecrypt (AES) verschlüsselt und alles per Windows Explorer rübergezogen und ich bin zufrieden damit.

Die Platte brachte durchgängig trotz Verschlüsselung (Intel Core i5 3210M, AES NI) eine durchschnittliche Schreibrate von ~80 MB/s. Viel mehr wäre wegen des Gbit Datentransfers von meinem NAS auch nicht gegangen.
Aber die übliche betitelten Ausfälle, wie bei Amazon etc. zu lesen waren, konnte ich nicht feststellen. Kein Einbruch der Schreibrate nach 3 TB kopierten Daten etc. pp.

Als Backupmedium somit m.M.n. absolut zu gebrauchen, zum Thema NAS Einsatz wurde bereits genug zugetragen. Daher ist sie dort auch bei mir nicht verbaut worden.
 
Ich möchte Dies euch nicht vorenthalten:

8TB Seagates under load = PANIC?

Anyone out there using 8TB Seagate drives in their storage pools? Reason I ask is that I recently created a new server with a brand new Seagate One-Store shelf full of 8TB seagate drives and everything was working pretty well as long as it wasn't under load. But, once the i/o throughput started getting heavy (700MB/s+) and random read/writes starting happening, I started to get all kinds of random transport errors (from at least 50% of the drives) reported by iostat -en. After a few days of transferring data at that rate (while other random i/o was happening as well), it panic'd with:

WARNING: /scsi_vhci/disk@g5000c500794b82b5 (sd87):
SYNCHRONIZE CACHE command failed (5)

panic[cpu0]/thread=ffffff00f5217c40: assertion failed: ldi_strategy(dvd->vd_lh,bp) == 0, file: ../../common/fs/zfs/vdev_disk.c, line: 819

I'm thinking that maybe because these drives are known to have low random IOP performance that maybe something is timing out causing an error in transport that leads to some bad juju?

On a side note, there we no transport errors when I sent data to the shelf initially (300 TB+). Now that data is there and is being accessed with all kinds of different requests, this happened. Go figure.

Die Antwort darauf:
8TB drives are SMR. That's a whole new world of emulation and possible failures.
I would not recommend anyone use SMR drives for immediate use, ESPECIALLY for a pool under load apart from single-write-stream archiving.

Quelle: [OmniOS-discuss] 8TB Seagates under load = PANIC?
 
Was hatte Seagate noch mal geschrieben?
Nicht Raid-fähig.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh