[News] Seagate 8 TB Festplatte für unter 250 € nagelneu , wo ist der Haken ?

meine ist auch die woche gekommen, heute früh in den homeserver gesteckt und jetzt kopier ich mal das medienarchiv drauf (knapp 5TB) und werde danach mal nen smart testlauf machen. wer irgendwelche infos haben will bitte laut schreien ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
In der neuen c't ist ein Test drin. Die Platte kam nicht schlecht weg, aber leider kein Wort zur Lautstärke.
 
Und wie habe sie die dort getestet? Gerae bei der Archive v2 sollte man beachten, dass die Ergebnisse von Tests immer nur sehr eingeschränkt für das jeweilige Testszenario gültig sind. Wenn sie so einen Hinweis nicht geben, dann gilt weiterhin, dass leider generell die Kompetenz von c't beim Testen von HDDs und SSDs extrem bescheiden ist und man daher wenig auf deren Test geben sollte. Auch wenn ich den Test jetzt konkret nicht gelesen habe, mangels c't auch nicht lesen werden und auch keine 2,50€ ausgeben werde um das zu tun.
 
In der neuen c't ist ein Test drin. Die Platte kam nicht schlecht weg, aber leider kein Wort zur Lautstärke.

Also im Sharkoon QuickPort ist sie auf jeden Fall zu hören aus 1m Entfernung, wenn der PC leise ist. Wie es im Gehäuse ist, hab ich bisher nicht probiert.
 
Ok,wahrscheinlich greife ich zur fertigen Seagate Lösung.
Danke erstmal...
 
die laufgeräusche finde ich im vergleich zur wd green und red auch normal, die zugriffsgeräusche sind aber glaub ich nen tick lauter.
 
Ich wiederhole nochmal mweine Frage von vor einigen Tagen.
Wie sieht das mit der Wärmeentwicklung der Platte aus?
Eher Kühler oder Ofen?
 
Also ein durchaus wärmerer Kanditdat, hatte das auch schon vermutet - wegen der 6 Platter.
 
Spricht etwas dagegen die Platte anstelle einer WD Red in ein Nas-Gehäuse zu stecken?
Dieses wird nur bei gebrauch eingeschaltet ... also sehr geringe Laufzeiten.
 
So, nachdem meine 8TB-Platte letzte Woche auch gekommen ist, habe ich diese zunächst mal mit h2testw vollgeschrieben und wieder ausgelesen. Es wurden keine Fehler gefunden.
Danach wurden dann ca. 5TB Backups von den alten Backup-Platten rüberkopiert und anschließen mit dem originalen Daten binär verglichen (Byte für Byte). Auch alles ok.
Die Platte hat nun also schon mal ca. 25TB Workload hinter sich und darf sich jetzt erst einmal eine Zeit lang im Schrank ausruhen ;-)
Hier mal noch die SMART-Werte vor und nach dem ganzen Stress:

vorher.jpg

nachher.jpg

Eine Sache ist mir noch aufgefallen: Nachdem ich die 5 TB von den alten Backup-Platten auf die 8TB-Platte kopiert hatte, habe ich danach ca. 40GB wieder von der 8TB-Platte gelöscht, weil das alte Backups waren, die ich nicht mehr brauche. Danach habe ich noch mehrere Gigabyte an Daten zusätzlich draufgeschoben (alles sehr große RAR-Archive), die bisher noch nicht im Backup waren. Danach habe ich sofort den binären Vergleich gestartet. Dieser hat natürlich insgesamt auch viele viele Stunden gedauert. Währenddessen ist die Platte mehrfach durch ein lauteres Arbeitsgeräusch (Rattern) aufgefallen. So wie eine Platte klingt, wenn sie viele kleine Dateien zusammensuchen muss - Die Köpfe also viel Arbeit haben. Ich habe dann jeweils geschaut, was gerade verglichen wird und jedes Mal war es eines der RAR-Archive, die ich nachträglich draufkopiert hatte.
Die Dateien waren also entweder stark fragmentiert (was ich nicht glaube) oder die Platte hat währenddessen die Daten aus dem Mediacache noch an die entsprechende Stelle geschrieben, weil sie vorher dafür noch keine Zeit hatte. Oder irgendwas in der Art!?
In diesen Phasen ist auch die Leserate um Faktor 10 eingebrochen und die Zugriffszeit war ca. um Faktor 30 erhöht. War er mit dem Vergleichen so eines RAR-Archivs fertig und wieder mit einer anderen Datei beschäftigt, war die Platte wieder leise und schnell.
Ich werde morgen ein paar der Dateien, bei denen es diese Auffälligkeiten gab, nochmal vergleichen und bin mir ziemlich sicher, dass es dann auch leise und schnell geht.
Mein Fazit ist auf jeden Fall, dass ich mit der Platte zufrieden bin.

Grüße CoreSucher
 
So, nachdem meine 8TB-Platte letzte Woche auch gekommen ist, habe ich diese zunächst mal mit h2testw vollgeschrieben und wieder ausgelesen.
Hast Du aufgeschrieben wie hoch die Lese- und vor allem die Schreibrate dabei war? Das wäre ja gerade das interessanteste den dem Test mit h2testw über die ganze Kapazität!

Die Köpfe also viel Arbeit haben.
...
Die Dateien waren also entweder stark fragmentiert (was ich nicht glaube) oder die Platte hat währenddessen die Daten aus dem Mediacache noch an die entsprechende Stelle geschrieben, weil sie vorher dafür noch keine Zeit hatte. Oder irgendwas in der Art!?
Von so einem Mediacache schreibt heise ja auch. Ich hatte es hier auch schon vermutet und Anandtech beschreibt es hier gut, es sind praktisch extra Spuren auf denen die Daten geschrieben werden und diese werden dann im Idle auf die finale Position geschrieben, ganz ähnlich den Pseudo-SLC Caches bei SSDs.


In diesen Phasen ist auch die Leserate um Faktor 10 eingebrochen und die Zugriffszeit war ca. um Faktor 30 erhöht.
Wie, hast Du geleichzeitig gelesen und geschrieben oder direkt nach dem Schreiben gelesen?
werde morgen ein paar der Dateien, bei denen es diese Auffälligkeiten gab, nochmal vergleichen und bin mir ziemlich sicher, dass es dann auch leise und schnell geht.
Eine Prüfung macht auch erst Sinn, wenn die Daten von dem MediaCache auf die finale Position übertragen worden sind.
 
Hast Du aufgeschrieben wie hoch die Lese- und vor allem die Schreibrate dabei war? Das wäre ja gerade das interessanteste den dem Test mit h2testw über die ganze Kapazität!

Von so einem Mediacache schreibt heise ja auch. Ich hatte es hier auch schon vermutet und Anandtech beschreibt es hier gut, es sind praktisch extra Spuren auf denen die Daten geschrieben werden und diese werden dann im Idle auf die finale Position geschrieben, ganz ähnlich den Pseudo-SLC Caches bei SSDs.


Wie, hast Du geleichzeitig gelesen und geschrieben oder direkt nach dem Schreiben gelesen? Eine Prüfung macht auch erst Sinn, wenn die Daten von dem MediaCache auf die finale Position übertragen worden sind.

Nein, mit der Lese- und Schreibrate über die gesamte Platte kann ich leider nicht dienen, da ich die Platte vorher in 3 Partitionen geteilt hatte, um die Platte nicht in einem Stück prüfen zu müssen und den Rechner nicht den ganzen Tag in Abwesenheit durchlaufen lassen zu müssen - Ich habe halt gern ein Auge drauf, wenn solche Tests laufen und bei so großen Platten dauert das eben sehr lang.

Genau, nachdem ich ein paar Daten gelöscht habe, hatte ich ja weitere Daten draufkopiert und direkt danach mit dem Vergleich der Daten begonnen, ohne das die Platte groß im Leerlauf war.

Habe heute dann nochmal eine der großen Archiv-Dateien dem Vergleich unterzogen und der ging dann richtig schnell und auch ohne Geräusche. Es war also scheinbar wirklich wie von mir vermutet so, dass er bevor er die Daten auslesen konnte, er diese noch aus dem Mediacache vorher an die entgültige Position schreiben musste. Deshalb mussten die Köpf dann ständig zwischen Mediacache und Schreibposition und Leseposition wechseln, was zu dem hörbaren Arbeitsgeräusch geführt hat. Anders könnte ich es mir nicht erklären.

Grüße CoreSucher
 
Habe heute dann nochmal eine der großen Archiv-Dateien dem Vergleich unterzogen und der ging dann richtig schnell und auch ohne Geräusche. Es war also scheinbar wirklich wie von mir vermutet so, dass er bevor er die Daten auslesen konnte, er diese noch aus dem Mediacache vorher an die entgültige Position schreiben musste. Deshalb mussten die Köpf dann ständig zwischen Mediacache und Schreibposition und Leseposition wechseln, was zu dem hörbaren Arbeitsgeräusch geführt hat. Anders könnte ich es mir nicht erklären.


Deckt sich mit meiner Erfahrung. Hatte am Wochenende Daten auf die Platte kopiert und gleichzeitig hat der Plex Server das Medienarchiv indexiert, dabei war die Platte doch recht laut. Nachdem das abgeschlossen war, ist die Geräuschkulisse deutlich angenehmer geworden.
 
Deckt sich mit meiner Erfahrung. Hatte am Wochenende Daten auf die Platte kopiert und gleichzeitig hat der Plex Server das Medienarchiv indexiert, dabei war die Platte doch recht laut. Nachdem das abgeschlossen war, ist die Geräuschkulisse deutlich angenehmer geworden.

Ist ja aber auch nicht ungewöhnlich, dass man die Platten hört, wenn man sie mit mehreren Operationen gleichzeitig belastet. Als laut würde ich sie aber keinesfalls bezeichnen!

Hast Du noch kopiert, als die Indexierung schon lief? Oder war es wie bei mir, dass der Schreibvorgang vom Betriebssystem schon lang abgeschlossen war?

Grüße CoreSucher
 
Gemäß der Beschreibung scheinen die Geräusche vor allem von den Kopfbewegungen zu kommen. AAM scheint sie aber laut den Screenshots von CrystalDiskInfo oben nicht zu unterstützen, somit kann man das auch nicht umstellen. Bei einigen HDDs sind die Kopfbewegungen lauter zu hören, bei anderen weniger laut.
 
Hat jemand erfahrungen mit mehreren dieser Platten in raidz (zfs) sammeln können bisher? Läuft es stabil? Wie ist die performance? Wie schnell ist ein resilver? und ein scrub? ... :)
 
Hat jemand erfahrungen mit mehreren dieser Platten in raidz (zfs) sammeln können bisher? Läuft es stabil? Wie ist die performance? Wie schnell ist ein resilver? und ein scrub? ... :)
Das würde mich persönlich auch brennend interessieren, ich konnte noch nirgendwo ein Setup finden, dass mehrere von den neuen 8TB HDDs verwendet. Einzeltests/-eindrücke sind zwar auch interessant, aber erst ab einer Anzahl >= 4 wäre es richtig interessant.
Möchte sobald es geht damit einen 24 Slot Fileserver befüllen, das wäre endlich mehr Speicherplatz für relativ "kleines" Geld.
 
Wie wirkt sich denn das nicht vorhandensein des ERC Features bei Verwendung eines Raid 6 genau aus? Ist das ein großes Problem, oder ist das fehlen des Features eher verkraftbar?
 
Marcer89, Dott hat doch schon auf Seite 10 diesen Test bei Technikaffe verlinkt, da liefen sie allerdings im Software-RAID 5 und RAID 6 unter OpenMediaVault nicht problemlos. Einen Test mit ZFS habe ich auch noch nicht gefunden.
 
Marcer89, Dott hat doch schon auf Seite 10 diesen Test bei Technikaffe verlinkt, da liefen sie allerdings im Software-RAID 5 und RAID 6 unter OpenMediaVault nicht problemlos. Einen Test mit ZFS habe ich auch noch nicht gefunden.

Ich habe 4 der Platten jetzt seit ca. 2 Wochen an meinem Areca Controller als Raid 5 ohne irgendwelche Probleme am Laufen.
 
Marcer89, Dott hat doch schon auf Seite 10 diesen Test bei Technikaffe verlinkt, da liefen sie allerdings im Software-RAID 5 und RAID 6 unter OpenMediaVault nicht problemlos. Einen Test mit ZFS habe ich auch noch nicht gefunden.

Was mich an dem Test bei Technikaffe stört, ist die tatsache, daß man hier nicht näher auf das Problem eingegangen ist.
Es geht aus dem Test nicht hervor, ob die Platten vorab einzeln überprüft wurden - Stichwort "Burn In" - und auch nicht nachdem Sie aus dem Raid rausgeflogen sind.
Man Bedenke daß Platten gerne mal kurz nach Inbetriebnahme ausfallen.
Erschwerend kommt hlinzu, daß angegeben worden ist, daß 2 der Platten auffällig laut vibriert haben, was auf eine zu grosse Unwucht der Plattenstapel hinweisen kann, auch hier wurde nicht näher drauf eingegangen.
Damit ist dieser Test für mich derzeit irrelevant, da nicht ausführlich dokumentiert.
 
Ich habe 4 der Platten jetzt seit ca. 2 Wochen an meinem Areca Controller als Raid 5 ohne irgendwelche Probleme am Laufen.
Hast Du denn mal viele TB am Stück geschrieben? Das würde ich mal machen, z.B. mit h2testw. Ich vermute erst dann wenn die Cachetechnologien der Archive nicht mehr greifen weil zu viele Daten in zu kurzer Zeit geschrieben werden, dann gibt es Probleme weil die Reaktionszeit zu hoch werden.

Sollte es Probleme geben, dann ziehe die S.M.A.R.T. Werte der Platten und poste sie bitte hier.
 
Marcer89, Dott hat doch schon auf Seite 10 diesen Test bei Technikaffe verlinkt, da liefen sie allerdings im Software-RAID 5 und RAID 6 unter OpenMediaVault nicht problemlos. Einen Test mit ZFS habe ich auch noch nicht gefunden.
Den Test auf Technikaffe hatte ich schon gelesen, ja. Allerdings muss ich ehrlich sagen, dass ich mir mehr Details erhofft hätte, die Ausführlichkeit dort ist doch ziemlich spärlich.
In jedem Test wird zwar lang und breit das ausgelegte Volumen von 180TB / Jahr erläutert, aber das interessiert mich eher wenig, da es ja eh im Produktdetailblatt steht.

Bezüglich TLER und wie das Feature bei den anderen Herstellern heißt, dazu kann ich nur soviel sagen, dass ich seit fast einem Jahrzehnt mehrere Hardware/Software-RAID Verbünde aktiv laufen habe und diese besitzen alle Festplatten welche nicht "RAID-klassifiziert" sind. Ein generelles "hat Feature x nicht, geht nicht", kann man nicht immer sagen, umgekehrt natürlich auch nicht "ging ja früher auch, muss jetzt auch klappen".

Hast Du denn mal viele TB am Stück geschrieben? Das würde ich mal machen, z.B. mit h2testw. Ich vermute erst dann wenn die Cachetechnologien der Archive nicht mehr greifen weil zu viele Daten in zu kurzer Zeit geschrieben werden, dann gibt es Probleme weil die Reaktionszeit zu hoch werden.

Sollte es Probleme geben, dann ziehe die S.M.A.R.T. Werte der Platten und poste sie bitte hier.

Von daher wäre der Testablauf den du beschrieben hast sehr interessant, weil ein paar GB schreiben, das stört eigentlich nirgends, aber mal mehrere TB durch die Gegend schieben, das sollte schon anspruchsvoller sein :d

Einen konkreten Test zu der neuen Archive Serie (5, 6, 8 TB) in Verbindung mit ZFS konnte ich leider auch noch nirgends finden. In einem Thread wurde auf die Gefahr des SMR in Verbindung mit ZFS diskutiert bzw. auf die letzte OpenZFS Summit in der das Thema dargebracht wurde verwiesen, aber eindeutige Resultate in Form von tatsächlich erbrachter Tests gibt es auch dort nicht.
Wäre toll wenn man so einen RAIDZ Aufbau einmal nach Herz und Nieren prüfen könnte und sieht ob die Performance wirklich so stark einbricht oder ob es eher marginal/verkraftbar ist. Kommt natürlich auch immer auf das Einsatzszenario an, aber wenn ich daran denke wie die ersten von 7200rpm auf 5400rpm zurückgestiegen sind, wurde das auch als nicht tragbar beschimpft und heute nutzen es mehr als genug, mich eingeschlossen.
 
In der illumos Mailing List wurde HIER auch mal nachgefragt (siehe Thema: ZFS on Seagate archive drives). Vielleicht kommen dort noch ein paar interessante Antworten.
 
Zuletzt bearbeitet:
Hast Du denn mal viele TB am Stück geschrieben? Das würde ich mal machen, z.B. mit h2testw. Ich vermute erst dann wenn die Cachetechnologien der Archive nicht mehr greifen weil zu viele Daten in zu kurzer Zeit geschrieben werden, dann gibt es Probleme weil die Reaktionszeit zu hoch werden.

Sollte es Probleme geben, dann ziehe die S.M.A.R.T. Werte der Platten und poste sie bitte hier.

Kommt in ein paar Tagen!
 
Den Test auf Technikaffe hatte ich schon gelesen, ja. Allerdings muss ich ehrlich sagen, dass ich mir mehr Details erhofft hätte, die Ausführlichkeit dort ist doch ziemlich spärlich.
Das ist richtig, aber kennst Du einen besseren?

dass ich seit fast einem Jahrzehnt mehrere Hardware/Software-RAID Verbünde aktiv laufen habe und diese besitzen alle Festplatten welche nicht "RAID-klassifiziert" sind.
Vor einen Jahrzehnt waren HDDs auch noch universeller einsetzbar und die TLER macht sich auch erst bemerkbar, wenn die Platten älter sind und anfangen Problem mit dem Lesen einiger Sektoren zu haben. Ist dann der Timeout der Platte für die Wiederholungen der Leseversuche länger als der Timeout des RAIDs wie lange es auch eine Antwort wartet, fliegt die Platte aus dem RAID. Das eine Platte eine TLER hat, bedeutet nur das man diesen Timeout einstellen kann, bei den anderen Platten ist das immer auch vorhanden, aber halt fix und meist länger als bei RAID Controlern üblich und der bei denen mit TLER voreingestellte. Ist der voreingestellte Wert aber trotzdem noch kürzer kürzer als der Timeout Deines RAIDs, bringt Dir das Feature dann nichts.
"ging ja früher auch, muss jetzt auch klappen".
Das ist eine native Einstellung die leider viele vertreten und dabei die Weiterentwicklung der HDDs vergessen.

Wäre toll wenn man so einen RAIDZ Aufbau einmal nach Herz und Nieren prüfen könnte und sieht ob die Performance wirklich so stark einbricht oder ob es eher marginal/verkraftbar ist. Kommt natürlich auch immer auf das Einsatzszenario an,
Und zwar gerade bei der Archive, weil die eben über den On-Disk Cache verfügt, dort die Daten erst einmal schnell schreiben kann und sie danach im Idle auf die endgültige Postion kopiert. Da hängen wie bei jedem Lösung mit Cache die Ergebnisse dann sehr massiv davon ab, ob der Cache komplett genutzt wurden und die folgenden Daten dann ohne den Cache direkt auf die endgültige Position geschrieben werden müssen oder eben nicht. Wie auch der Test bei Technikaffe nahelegt, scheint es genau dann Probleme zu geben, wenn eben der Cache gefüllt wurde und weiter geschrieben wird, er also nicht mehr wirken kann.

Kommt in ein paar Tagen!
Freue mich schon drauf.
 
Das ist richtig, aber kennst Du einen besseren?
Leider nein, ich grase zwar täglich das Internet ab auf der Suche nach einem Artikel/Foreneintrag der Licht in diese etwas dunkle Angelegenheit bringt, aber bis dato leider vergebens :(

Freue mich schon drauf.
Ich mich auch, kann es kaum erwarten.

Ich fürchte fast, dass es etwas zu euphorisch von mir war, dass man damit gleich größere Speichersysteme schaffen kann, die zuverlässig laufen. Wie bei jeder neuen Technologie muss man sie erst etwas reifen lassen bis die ganzen Kinderkrankheiten ausgemerzt sind.
Wobei das an sich ja ein Henne-Ei-Problem ist, weil wenn es keiner versucht, wo soll man dann die Grenzen kennen :d
Daher +1 für die Bereitschaft von DrCain, dass er diverse Tests durchführt und die Ergebnisse mit uns teilt :banana:
 
Moin Moin ihr Datenhorter,

ich platze auch aus allen Nähten und brauchte unbedingt mehr Speicher.
Ich beobachte die neue Seagate schon seit Monaten und habe noch immer so meine Zweifel ob die neue Technik wirklich was taugt.

Darum wollte ich ein paar Frage an den Stammtisch stellen.

1. Gibt es in moment oder in der nächsten Zeit irgendwelche Alternativen in der Größenordnung?
Ich konnte bisher dazu leider nix finden.

2. Hat jemand die 8tb schon im externen Gehäuse am laufen gehabt?
Geplant ist das ganze als externe Lösung für meine Serien Sammlung am HTPC
 
Moin Moin ihr Datenhorter,

ich platze auch aus allen Nähten und brauchte unbedingt mehr Speicher.
Ich beobachte die neue Seagate schon seit Monaten und habe noch immer so meine Zweifel ob die neue Technik wirklich was taugt.

Darum wollte ich ein paar Frage an den Stammtisch stellen.

1. Gibt es in moment oder in der nächsten Zeit irgendwelche Alternativen in der Größenordnung?
Ich konnte bisher dazu leider nix finden.

Hallo Stillpad,
mir ergeht es ähnlich wie dir, habe 2 x 2TB Platten voll und suche schon länger nach einer neuen Platte, hatte große Hoffnung in die Seagate gesteckt, allerdings finde ich die Ausfallrate dieser Platte schon sehr bescheiden. Ich werde noch ein paar Erfahrungen abwarten, aber so wie es im Moment aussieht werde ich wohl auf ein Raid 5 3x4TB WD Red gehen. Das ganze kommt bei mir in ein Nas und ich habe keine Lust das die verreckt.
Es gibt leider keine andere 8TB Platte die bezahlbar ist, evtl. hole ich mir auch eine WD RED 6TB und suche dann nach einer neuen wenn die voll ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh