Samsung F1 & F2 & F3 & F4 Festplatten [4]

@Mito
Diese Plastikbox hat Seagate als erstes vor mehreren Jahren (zu Barracuda IV oder V Zeiten) eingeführt und nennt sie selbst SeaShell. Diese ersetzt die Antistatiktüte. Schau mal hier: klick! (ich denke, dass du diese Verpackung meinst)

Etwas später hat Samsung diese Schutzverpackung ebenfalls verwendet. Laut Shock-Messungen (mit einem Shock-Logger von Seagate) der c't bietet diese Plastikbox schon einen recht ordentlichen Schutz vor Stößen. Jedenfalls weit besser als eine nackte Platte in einer Antistatiktüte.

Ich kenne die Verpackungen. Ich glaub darin wurde schon meine Cuda II geliefert. ;) Mich hat nur überrascht das manche HD204UI in Antistatiktüten kamen, anderen aber in der Box.

diese plastikhülle wie von madnex verlinkt ist eine eigentlich sichere sache.

Ich mag die Verpackungen auch, allein schon weil es den Transport und/oder Weiterverkauf erleichtert. :)

Jop, absolut gleiche Montage.
Hab beide Platten auch mal in der Hand gehalten, mal spürt den Unterschied auch.

Diese Schwankungen sind bei Samsung leider normal. Das ist schon ewig so. Der einzige Hersteller, der mir da recht konstant vorkam, war IBM bzw. später Hitachi. Zu Seagate kann ich nichts sagen - hatte ich ewig keine mehr. WD geht auch von laufruhig bis Dildo.


@Bzzz:

ich finde an dieser Form der Verpackung gibt es gar nichts auszusetzen. Die Platte sitzt stramm im Paket, aber nicht fest und bei Stößen ist das durchaus von Vorteil. Noppelfolie zusätzlich hätte - so denke ich zumindest - nahe zu keinen Nutzen mehr.

Am liebsten wäre mir eine Schaumstoffbox + diese Befestigung. Das wäre wohl das ideale, aber nun ja ... besser gehts immer. :d

Und ja, das Paket passt zu meiner Meldung im OEM Thread.

PS: Mein Paket flog sicher durch die Gegend. Das war ordentlich gestaucht und hat ein großes Loch in der Seite. ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hat denn jemand schon Erfahrungen gemacht, ob Samsung sowas als Garantiefall behandelt?
Ist schon ein wenig ärgerlich, wenn eine HDD für 90% der Geräuschkulisse im PC verantwortlich ist.
 
ich hab jetzt die zweite 2tb samsung platte von amazon erhalten und auch diese erzeugt in smart "write error rate" daten. im gegensatz zur ersten platte die innerhalb weniger minuten bei mehreren hundert ankam hat diese nach 3stunden 31 fehler. das wäre aber kommisch wenn ich gleich 2 defekte platten bekomme. kann das sonst noch was anderes sein ?!
 
Nicht nur, ich hab eine F3 verbaut, da kletterten die write error raten munter herum während ich versuchte AHCI unter Win XP zu aktivieren, d.h. den Treiber nachzuschieben. Seitdem sie wieder als IDE läuft (Aktion wegen Sinnfreiheit und Treiberproblemen, inkl. Abstürzen, aufgegeben) hat sich die Anzahl (6) nicht mehr geändert, trotz deutlich längerer Nutzungsdauer.
Bei meiner anderen F3 kann ich durch Hot-Swap einer anderen HD im Winbetrieb die Werte für "calibration retry count" und "load/unload retry count" steigen lassen, obwohl beide Platten AHCI fähig sind und als solche laufen.

Smartwerte haben auch ihre Macken, Transport- oder generell HDschäden kann man natürlich nicht ausschließen, wenn die Werte dauerhaft klettern.
 
also die 31 fehler beim schreiben sind eingerostet, ich hab sicher schon über 500gb draufgeschoben. zuerst einige wenige große dateien, nun den gesamten inhalt von c um da windows neu zu installieren ohne jetzt vorher die wichtigsten sachen rauszusuchen. ich denke das lag wohl damit zu sammen das ich nach dem ersten flashen der platte nicht gleich den ausknopf gedrückt habe sondern nur resetet und im bios die platte dann nicht mehr erkannt wurde. nach nen neustart lief die dann aber naja. hab später nochmal geflasht und richtig ausgemacht. wenn die fehler so bleiben ist es ja ok. find nur das der spin up time von 12000 etwas hoch ist, als aktuellen wert gibt er 61 an. allerdings hab ich bei einigen anderen smartlisten hier im thread auch so hohe spinup times gesehen. scheint wohl alles in ordnung zu sein, hoffe ich zumindestens. man wirds ja in paar tagen sehen, wenn ne platte 2-3 wochen sauber läuft wird sie es wohl auch noch 2-3jahre :fresse2: (qualitätsmanagement -> ausfallwahrscheinlichkeit, endweder das produkt stirbt sofort oder es stirbt im unendlichen irgendwann.)
 
Die ersten 3 Monate sind die kritischste (Start)Zeit für eine Festplatte. Gruß an die google Studie. :fresse:

EDIT:
Falls die einer nicht kennen sollte: http://labs.google.com/papers/disk_failures.pdf

Leider kam bis heute nicht heraus welcher Hersteller überdurchschnittlich oft gestorben ist. :-[
 
Zuletzt bearbeitet:
Die ersten 3 Monate sind die kritischste (Start)Zeit für eine Festplatte.

Wobei die Belastung, die HDDs binnen 3 Monaten in Googles Rechenzentrum 24/7 aushalten müssen, schafft so mancher private PC User nicht in 3 Jahren. :)

Aus alle Fälle sollte man wie Google einen Burn-in Test mit neuen HDDs machen, bevor man Daten darauf packt.

Before being put into production, all disk drives go
through a short burn-in process, which consists of a
combination of read/write stress tests designed to catch
many of the most common assembly, configuration, or
component-level problems.

Ein Test ist, die HDD komplett vollzuschreiben und zu prüfen, ob das Geschriebene stimmt - wie z.B. mit H2testw von der c't. Dauert bei einer 2 TB HDD allerdings schlanke 12 Stunden. Naja, soll aber auch ein Stresstest sein. :fresse:
 
Zuletzt bearbeitet:
Google unterteilt in low/mid/high load. Dauerlaufen ist im Übrigen lange nicht so nervig wie die ständigen aus/an Zyklen in normalen Rechnern. Hitachi gibt allen seinen Platten eine 24/7 Freigabe (nicht 247/7 load!).

Ich sags mal so, eine HDD die bei low nicht nach 3 Monaten verreckt, wird wohl trotzdem keine 5 Jahre alt werden. Sie stirbt halt nur später. :fresse:
Ironischerweise sind low/high in den ersten 6 Monaten öfters ausgestiegen als mid.

EDIT:
Ich wüsste ja mal gerne wie lang dieser burn-in von google rennt und wie er arbeitet. H2testw schreibt ja am Stück und liest am Stück. Ich denke mal an verschiedene(n) Stellen Schreiben/Lesen und das im Zufallsmodus wäre deutlich effektiver.
 
Zuletzt bearbeitet:
Ja, das habe ich auch irgendwo gelesen, dass h2testw eigentlich nicht ausreicht. Man soll noch Zugriffszeit-Benches durchführen, die die Köpfe wild hin- und herbewegen. Leider kenne ich da keinen Zugriffszeit-Bench ausser HD Tune und da kommt ja immer der Datentransfer-Bench vorne weg.
 
@Grummel
Mit beispielsweise h2benchw kannst du gezielt die Zugriffszeit testen. Auch dürfte sich der Anwendungsindex für so einen Test eigenen, da dabei ja auch die Köpfe wild hin und her bewegt werden. Mit IOMeter sollte das auch möglich sein.
 
Ich sags mal so, eine HDD die bei low nicht nach 3 Monaten verreckt, wird wohl trotzdem keine 5 Jahre alt werden. Sie stirbt halt nur später. :fresse:
Ironischerweise sind low/high in den ersten 6 Monaten öfters ausgestiegen als mid.

die auswahrscheinlichkeit einer festplatte, bzw eines jeden technischen produktes ist 1. (also 100%) wenn man drüber nachdenkt ergibt das auch sinn.
 
---ups, da war wohl noch ne ungelesene Seite im Thread :fresse: --

Ich wüsste ja mal gerne wie lang dieser burn-in von google rennt und wie er arbeitet. H2testw schreibt ja am Stück und liest am Stück. Ich denke mal an verschiedene(n) Stellen Schreiben/Lesen und das im Zufallsmodus wäre deutlich effektiver.
HDDScan kanns im Butterfly-Verfahren, sprich ein Häppchen vom Anfang, eins vom Ende, wieder zum Anfang....
das macht halt ein irres Getöse und ist dabei nichtmal Random. Je nach Größe der gelesenen Blöcke wird das auch ziemlich übel auf die Mechanik gehen.
 
Zuletzt bearbeitet:
Google unterteilt in low/mid/high load. Dauerlaufen ist im Übrigen lange nicht so nervig wie die ständigen aus/an Zyklen in normalen Rechnern. Hitachi gibt allen seinen Platten eine 24/7 Freigabe (nicht 247/7 load!).

Ich sags mal so, eine HDD die bei low nicht nach 3 Monaten verreckt, wird wohl trotzdem keine 5 Jahre alt werden. Sie stirbt halt nur später. :fresse:
Ironischerweise sind low/high in den ersten 6 Monaten öfters ausgestiegen als mid.

Ich benutze seit 18 Jahren HDDs, gestorben ist mir noch keine einzige. Mache ich etwas falsch, weil ich Streßtests für unsinniges Risiko halte, Systemplatten, deren Anfang durchaus heftig genutzt wurde, die auch täglich 1-2 mal hochgefahren werden, nach spätestens 4-5 Jahren in zusätzliche Backupgräber umwandele, die ihre restliche Lebenszeit meist ohne Strom fristen dürfen? Eine zwei meiner ältesten Hdds, eine davon eine uralte Spinpoint, haben 10 Jahre als Systemplatte (nach 5 Jahren nicht mehr im Hauptrechner, trotzdem fast täglicher Betrieb) "durchgehalten", und laufen immer noch.

All das schließt Backups natürlich nicht aus, aber ich denke es gibt Nutzer, die mit ihren Anwendungsarten Festplatten schneller unbrauchbar machen, wie andere. Eine HDD die man täglich zu 50% mit neuen Daten füttert, die man dann noch hin und herschiebt, wird gewiss nicht so alt, eine mit völlig fragmentierten Daten auch nicht, gleiches gilt für Raids mit schlechten Controllern am Heimrechner.
 
1 Wort dazu: Glück

Ich hatte auch noch keinen Totalausfall, aber schon Platten die ich nach 1 Jahr 24/7 einsenden durfte.
Bei 2 Generationen extrem lautes Lagerpfeifen (AVER & AVVA). Wurden anstandslos getauscht. Oder eine Cuda II mit dem Seagate typischen Fehler der defekten Sektoren.

Deine idle/load Vermutung ist falsch, siehe Google Studie. In den ersten 3 Monaten waren die meisten ausgefallenen Platten die mit hoher Last, was ja durchaus logisch ist. An zweiter Stelle kamen allerdings die, die nichts zu tun hatten. Im späteren Verlauf pendele sich das etwas ein, um nach 5 Jahren dann wieder die Platten mit hoher Last übermäßig zu zerlegen. ;)

Ich denke nicht das ein "burn-in" verkehrt ist. Das ist bei Servern vollkommen normal, denn lieber im Testbetrieb, als im produktiven Einsatz.
OEMs würden das bei "PCs von der Stange" auch nicht machen, wenn das die RMA Quote nicht drücken würde. Für die ist Zeit nämlich Geld und nur wenn die investierte Zeit sich mehr rechnet, als eine ggf. höhere RMA Quote, wird etwas umgesetzt. Da auch dort Lasttests üblich sind, denke ich mal, dass es sich rechnet "faule Eier" durch burn-ins vorab zu einem Ausfall zu bewegen. Bei Netzteilen ist das doch auch Standard. ;)

PS:
Meine 2 7k250 haben nun knapp 40.000 reine Betriebsstunden auf dem Counter und laufen wie am ersten Tag. Nachdem die bei mir rausflogen, laufen sie in einem anderen Rechner (RAID 1)
weiter und der wird am Tag zig mal aus/angeschaltet. Geht alles, wenn man Glück hat. ;)


EDIT:
Was ist denn ein "schlechter" RAID Controller und was soll der mit dem möglichen Alter einer Festplatte zu tun haben? :hmm:
 
Zuletzt bearbeitet:
Wie will man durch schlechte Treiber eine Platte ins Jenseits schicken? :hmm: Im schlimmsten Falle haut es dir aufgrund von Bugs und/oder schlechter Implementierung die Platten regelmäßig aus dem Array. Aber wie bitte sollen die dadurch kaputt gehen? :fresse:
 
Zuletzt bearbeitet:
Er meint vermutlich, dass dadurch "Pending Sectores" produziert werden können (also in diesem Fall SoftBads), die von den Anwendern in der Regel als tatsächlich defekt bewertet werden (sie tauchen ja auch beim Error Scan von HD-Tune als rote Kästchen auf). Dass diese Sektoren nicht wirkich defekt sein müssen, wissen die wenigsten.
 
Zuletzt bearbeitet:
@Grummel
Mit beispielsweise h2benchw kannst du gezielt die Zugriffszeit testen. Auch dürfte sich der Anwendungsindex für so einen Test eigenen, da dabei ja auch die Köpfe wild hin und her bewegt werden. Mit IOMeter sollte das auch möglich sein.

Danke für den Tipp, das werde ich mir mal anschauen!
 
@Madnex:

Damit bei HD Tune defekte Sektoren auftauchen, müssen doch erst mal alle Reservesektoren verbraucht sein. Das schafft man i.d.R. nicht mit einigen, wenigen ausgelagerten Sektoren. Oder habe ich hier einen Denkfehler? :hmm:
 
@Mito
Nein, das ist ein Denkfehler. Defekte oder als defekt angesehene Sektoren können in der Regel nicht sofort von der Plattenlogik ausgetauscht werden, da noch Daten in dem jeweiligen Sektor gespeichert sind, die die Festplatte versucht möglichst noch zu retten. Diese Sektoren landen in der "Current Pending"-Liste (und bleiben dort bis die Daten doch noch erfolgreich gelesen werden konnten oder ein Schreibzugriff stattfindet) und das sind genau die, die man bei einem Error Scan als "defekt" angezeigt bekommt. Bereits ausgetauschte Sektoren sind ja nicht mehr direkt ansprechbar. Mit aufgebrauchten Reservesektoren hat das erst mal nichts zu tun.
 
Zuletzt bearbeitet:
Werden Current Pending echt als "defekt" markiert und HD-Tune sieht das?
Ich dachte bisher die Plattenelektronik markiert Sektoren als "current pending", wenn diese bei Schreib oder Lesevorgängen Fehler verursacht haben, der Vorgang bei der Wiederholung aber ausgeführt werden konnte. Danach sollte die Elektronik diese eine Zeit lang überwachen und bei erneutem Fehler als reallocated auslagern. Wenn der Vorgang direkt fehlschlägt werden die doch normal sofort ausgelagert. :hmm:

Wenn der Sektor wirklich ausgelagert wurde (reallocated) ist er für HD-Tune ja unsichtbar.
 
Werden Current Pending echt als "defekt" markiert und HD-Tune sieht das?
Jep, die werden bei einem Error Scan angezeigt. Kannst du ja mal überprüfen, wenn du mal eine Festplatte mit "Current Pending Sectors" in den Händen hältst. HD-Tune wird diese Sektoren finden und als defekt anzeigen. Nullst du die Platte, wird die Pending-Liste wieder auf 0 gesetzt und bei einem anschließenden Error Scan durch HD-Tune werden keine defekten Sektoren mehr gefunden.

Sofort ausgelagert wird in der Regel nie, da Lesefehler unter Umständen auch nur temporär sein können. Würden die Sektoren sofort ausgelagert, wären die darin gespeicherten Daten auch sofort verloren ohne die Chance sie doch noch retten zu können. Die Festplattenlogik ist bei Desktop-Laufwerken so ausgelegt, dass Daten möglichst gerettet werden.
 
Na ja, gibt doch auch reallocated event und sector count. Ich dachte "event" wären die defekten Sektoren, die darauf warten ausgelagert zu werden? Pending sind ja nur welche die bisher durch behebbare Fehler aufgefallen sind und überwacht werden.

Ein reallocated event ist zwar defekt, aber normal kann der trotzdem in einem Reservesektor wiederhergestellt werden (ECC Infos). :hmm: Sonst hätte man ja bei jedem genutzten Reservesektor schon "Datenverlust", dem ist ja z.G. i.d.R. nicht so.

Das HD-Tune die "Pending" Sektoren als defekt meldet war mir unbekannt. Ich hatte bisher nur direkt ausgelagerte Sektoren.
 
Zuletzt bearbeitet:
@Mito
Der "Reallocated Event Count" ist meines Wissens der Zähler, der die erfolgreichen UND nicht erfolgreichen Versuchen zählt defekte Sektoren auszutauschen. Aber so genau ist mir der Unterschied zwischen "Reallocated Event Count" und "Reallocated Sector Count" auch nicht bekannt. Auch nicht, ob das mit den erfolgreichen und nicht erfolgreichen Versuchen wirklich stimmt. Eventuell bedeutet der Event Count auch die erfolgreiche Datenrettung vor dem Austausch des Sektors.

Hingegen kann ich dir mit Sicherheit sagen, dass unter "Current Pending Sector" die Sektoren gelistet sind, die auf die Auslagerung warten, aber noch Daten enthalten. Allerdings ist unter den "Pseudo-Experten" umstritten, ob es sich dabei um Sektoren handelt, die gar nicht mehr gelesen werden können oder mal mehrer Anläufe benötigten um gelesen zu werden. Jedenfalls sind das die Sektoren, die von einem Error Scan (egal ob von HD-Tune oder einem anderen Programm) und auch von Windows als defekt erkannt werden.

Man muss auch bedenken, dass Smart kein strikt definiertes System ist und daher die Mechanismen von Hersteller zu Hersteller auch verschieden sein können.

Wenn Sektoren nicht mehr gelesen werden können haben die Fehlerkorrekturmechanismen der Festplatte versagt und auch die ECC-Infos helfen dann nicht mehr.
 
Zuletzt bearbeitet:
Geht es bei eurer Diskussion eigentlich noch um Samsung Festplatten ? :fresse:

Ansonsten bitte -> :btt:
 
Ich dachte die Platte lagert Sektoren aus, wenn die Sektoren defekt sind unabhängig davon, ob diese nun mit ECC Infos wiederhergestellt werden können oder eben nicht. Wobei ich der Meinung war das ersteres im Normalfall der Fall ist und somit die Daten funktionsfähig in einem Reservesektor landen. Sonst hätte man ja bei jedem reallocated Sektor auch Datenverlust, was definitiv nicht so ist. (Eine meine Hitachis hat leider 6 Stück (ich warte auf den Ausfall ^^) und der RAID 1 hat bei deiner Redundanzprüfung nichts zu beanstanden gehabt)

Current Pending Sektoren hatte ich bisher noch keine und dachte eigentlich, dass das die Vorstufe der reallocated wäre. Ist wohl auch so, aber checkdisk oder ähnliche Tools melden den Sektor wirklich als defekt.
Wenn man ihn per Formatierung sauber beschreiben kann, wird er wohl wieder vom Zähler entfernt. Bei erneutem Fehler ausgetauscht.

Wieder was gelernt :)

EDIT:
@BlackGhost: Unser Post hat sich gerade überschnitten. :fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh