CrystalDisk zeigt schwebende Sektoren an - was bedeuted das?

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Während des Schreddern der Platte sind diese schwebenden Sektoren (erster Beitrag hier) plötzlich offenbar verschwunden, sie werden jedenfalls nicht mehr angezeigt:

iKkcCxp.png


GAmG0z1.png


Wie kann das sein?
 
Wie kann das sein?
Durch das Überschreiben! Schwebende Sektoren sind ja einfach nur Sektoren deren Daten nicht mehr zur ECC passen die hinter jedem Sektor steht und die mit deren Hilfe auch nicht mehr korrigiert werden können. Da die korrekten Daten nicht mehr feststellbar sind, gibt die Platte statt falscher Daten einen Lesefehler als Antwort wenn man versucht diese schwebenden Sektoren zu lesen. Das kann auch anderen Gründe als defekte Oberflächen haben, z.B. einen Stromausfall während eines Schreibvorgang der dazu führt, dass eben nicht die ganze Daten plus der neuen ECC geschrieben wurden oder wegen eines Stoßes oder Vibrationen ist der Kopf beim Schreiben aus der Spur gekommen und hat Daten auf der Nachbarspur überschrieben. Auch arbeiten HDDs nicht 100%ig und die Hersteller geben die Fehlerhäufigkeit auch in Form der UBER an, wobei eine UBER von 1:10^14 bedeutet, dass je 10^14 gelesener Bits was etwa 12TB gelesener Daten entspricht, ein Lesefehler und damit schwebender Sektor im Rahmen der Erwartungen liegt.

Die Controller merken sich die schwebenden Sektoren und prüfen die Daten nach dem erneuten Schreiben auf diese Sektoren, dann verschwinden diese einfach oder werden eben durch Reservesektoren ersetzt. Dies ist hier nicht passiert, aber es gab 0x063 = 99 unerwartete Spannungsabfälle, daher können die schwebenden Sektoren gekommen sein, wenn in dem Moment gerade geschrieben wurde. Es waren 16, immer wenn es ein ganzen Vielfaches von 8 ist, könnte es sein das dort die Anzahl der logischen Sektoren steht, denn auf einem pyhsikalischen 4k Sektor werden ja 8 logische 512 Byte Sektoren emuliert und dann wären es nur 2 physikalische Sektoren. Außerdem sind ST8000DM004 nur einfache Desktopplatten und die sind extrem kostenoptimiert, daher fehlen denen auch Sensoren um leicht Vibrationen zu erkennen, die aber ausreichen können die Spuren beim Schreiben aus der Spur zu bekommen und wie wenig dazu reicht, sieht man im Video "Shouting in the Datacenter" seht gut. Dort sind es Enterprise HDDs mit entsprechenden Sensoren die dann die Datenübertragung unterbrechen und entsprechend bricht dann die Performance ein.
 
Da die korrekten Daten nicht mehr feststellbar sind, gibt die Platte statt falscher Daten einen Lesefehler als Antwort wenn man versucht diese schwebenden Sektoren zu lesen.
In Form einer Meldung beim Versuch sie zu transferieren, die etwa einfach etwas besagt wie, "...kann nicht kopiert werden" (falls ich mich recht erinnere) ohne einen Hinweis auf schwebende Sektoren oder einen irreparablen Fehler etc.

wobei eine UBER von 1:10^14 bedeutet, dass je 10^14 gelesener Bits was etwa 12TB gelesener Daten entspricht, ein Lesefehler und damit schwebender Sektor im Rahmen der Erwartungen liegt.
Dafür habe ich offenbar recht wenig Lesefehler, jedenfalls falls ich CDI immer habe laufen lassen (wovon ich eigentlich ausehen) und sie auch immer angezeigt würden.

nur einfache Desktopplatten und die sind extrem kostenoptimiert, daher fehlen denen auch Sensoren um leicht Vibrationen zu erkennen
Bei besseren Platten werden also leichte (bis zu einer gewissen Intensität, schwere können dann wohl auch nicht mehr ausgeglichen werden) Vibrationen erkannt und (mechanisch?) ausgeglichen?

Danke auch für den Link.

Dort sind es Enterprise HDDs mit entsprechenden Sensoren die dann die Datenübertragung unterbrechen und entsprechend bricht dann die Performance ein.
Ach so, nicht mechanisch ausgeglichen, sondern solange unerbrochen bis die Vibrationen vorbei sind. Dann fortgeführt wo aufgehört wurde. Es entsteht also keine Lücke / kein Fehler, nur die Platte wird langsamer.

Das heißt, die Platte ist jetzt wieder völlig in Ordnung, weil diese ECC, wohl eine Tabelle, die die Daten der Dateien, Speicherorte etc. enthält, (ebenfalls) gelöscht / geändert wurde und die Platte war wohl nie physisch kaputt?

Dies ist hier nicht passiert, aber es gab 0x063 = 99 unerwartete Spannungsabfälle
Woher können mir derart viel erscheindene Abfälle gekommen sein? Im Hausstrom / bei den Stadtwerken verursacht (wäre das normal?). Oder im Netzteil / der Platte selber (aber das beides müsste ja dageben gesichert sein, nehme ich an) oder gar im Computer, hier ein Notebook?
 
Zuletzt bearbeitet:
In Form einer Meldung beim Versuch sie zu transferieren, die etwa einfach etwas besagt wie, "...kann nicht kopiert werden" (falls ich mich recht erinnere) ohne einen Hinweis auf schwebende Sektoren oder einen irreparablen Fehler etc.
Die Platten kann keine Fehlermeldungen auf dem Bildschirm anzeigen, die reicht statt Daten eine Fehlermeldung weiter und was dann angezeigt wird, hängt von dem Programm ab, welches versucht hat diese Daten zu lesen. Schlimmstenfalls ignoriert es diese Fehlermeldung sogar und tot so als wäre alles kopiert worden, obwohl die Zieldatei dann natürlich nur teilweise kopiert wurde oder eben teilweise korrupt ist. Mies programmierte Software gibt es leider immer wieder und meist denken die User dann auch noch, dass es eine tolle Software wäre weil sie etwas kopieren konnte was die anderen nicht konnten und schimpfen hinterher das die Platte falsche Daten geliefert hätte, obwohl HDDs dies nicht tun, sondern eben einen Lesefehler statt der korrupten Daten ausgeben.
Dafür habe ich offenbar recht wenig Lesefehler, jedenfalls falls ich CDI immer habe laufen lassen (wovon ich eigentlich ausehen) und sie auch immer angezeigt würden.
Die Lesefehler treten nur auf, wenn man versucht einen der betroffenen Sektoren zu lesen, dieser wird dann auch, sofern nicht schon geschehen, als schwebender Sektor makiert und in den S.M.A.R.T. Werten der Rohwert des Attributs C5 hochgezählt. Dieser Rohwert des Attributs C5 bleibt dann solange gleich bis entweder einer weitere dazukommt oder einer davon überschrieben wird und dadurch verschwindet.

Ach so, nicht mechanisch ausgeglichen, sondern solange unerbrochen bis die Vibrationen vorbei sind. Dann fortgeführt wo aufgehört wurde. Es entsteht also keine Lücke / kein Fehler, nur die Platte wird langsamer.
Sie unterbrechen Schreibvorgänge eben um zu verhindern, dass Daten auf einer anderen Spur überschrieben werden, weil die Köpfe durch Vibrationen aus der Spur gekommen sind. Da geht es ja nur um einige nm! Du kannst ja selbst mal aufrechnen wie viel, die ST8000DM004 hat laut Product Manual "Track density (avg) 540 ktracks/in", also 540.000 Spuren auf 2,54cm. Dies sind 21260 Spuren pro mm, oder eben eine Spurbreite von 47nm und dort Kopf darf genau wie eine LKW auf der Aufbahn innerhalb seiner Spur zwar ein wenig von der Ideallinie abweichen, aber nicht zu weit und schon gar nicht um eine ganz Spurweite, sonst fährt er auf der Nachbarspur. Die Toleranz für die Positionierung der Köpfe ist also geringer als die Strukturen selbst der kleinsten Halbleiter, sonst bei dem 7nm Prozess von TSMC beträgt die Fin Pitch 30nm und die Gate Pitch 57nm (HD) bzw. 64nm (HP). Das nur mal als Größenvergleich um einen Eindruck davon zu bekommen mit welcher mechanischen Präzision HDDs arbeiten und wenn man dann überlegt wie lang der Ausleger ist an dem die Köpfe hängen, dann kann man sich wie minimal der Winkel nur abweichen muss damit ein Kopf aus der Spur kommt.

Das heißt, die Platte ist jetzt wieder völlig in Ordnung, weil diese ECC, wohl eine Tabelle, die die Daten der Dateien, Speicherorte etc. enthält, (ebenfalls) gelöscht / geändert wurde und die Platte war wohl nie physisch kaputt?
Wie ich schon schrieb, steht hinter jedem einzelnen physikalischen Sektoren auf der Platte eine ECC Prüfsumme für die Daten dieses Sektors. Lies doch Post #33 noch einmmal, da steht es doch.

Die Platte war nie physisch kaputt, schwebende Sektoren können ein Hinweis auf einen Defekt der Platte sein, aber muss es eben nicht und wenn wie hier die schwebenden Sektoren nach dem Überschreiben einfach verschwunden und keine wiederzugewiesenen Sektoren vorhanden sind, dann ist die Oberfläche der Platter in Ordnung und die Platte ist nicht defekt, es könnte maximal ein Problem mit der Positionierung der Köpfe geben. Meist ist das aber dann kein Fehler der Platte, sondern einer der Umgebung in der sie arbeiten muss, etwa weil ein Bass in der Nähe ist.
Woher können mir derart viel erscheindene Abfälle gekommen sein?
Es war ja eine USB Platte und wenn man diese nicht korrekt über "Hardware sicher entfernen " abmeldet sondern einfach abzieht, dann kann dies passieren und ebenso bei Abstürzen des Rechners. Auch wenn man ins BIOS geht, könnte dies passieren, ich würde nicht darauf schwören das jeder BIOS beim Verlassen auch die entsprechenden Befehle (ATA_SBI) an alle, auch die USB- Platten schickt.
 
Die Platten kann keine Fehlermeldungen auf dem Bildschirm anzeigen, die reicht statt Daten eine Fehlermeldung weiter und was dann angezeigt wird, hängt von dem Programm ab, welches versucht hat diese Daten zu lesen. Schlimmstenfalls ignoriert es diese Fehlermeldung sogar und tot so als wäre alles kopiert worden, obwohl die Zieldatei dann natürlich nur teilweise kopiert wurde oder eben teilweise korrupt ist. Mies programmierte Software gibt es leider immer wieder und meist denken die User dann auch noch, dass es eine tolle Software wäre weil sie etwas kopieren konnte was die anderen nicht konnten und schimpfen hinterher das die Platte falsche Daten geliefert hätte, obwohl HDDs dies nicht tun, sondern eben einen Lesefehler statt der korrupten Daten ausgeben.
Den Defekt den die Ursache für die schwebenden Sektoren ausgelöste hat auf der geschredderte Platte habe ich offenbar gefunden: ein einziges Lied, sonst offenbar nichts. Das könnte bei 16 Sektoren vielleicht hinkommen / plausibel sein.

Sie unterbrechen Schreibvorgänge eben um zu verhindern, dass Daten auf einer anderen Spur überschrieben werden, weil die Köpfe durch Vibrationen aus der Spur gekommen sind. Da geht es ja nur um einige nm! Du kannst ja selbst mal aufrechnen wie viel, die ST8000DM004 hat laut Product Manual "Track density (avg) 540 ktracks/in", also 540.000 Spuren auf 2,54cm. Dies sind 21260 Spuren pro mm, oder eben eine Spurbreite von 47nm und dort Kopf darf genau wie eine LKW auf der Aufbahn innerhalb seiner Spur zwar ein wenig von der Ideallinie abweichen, aber nicht zu weit und schon gar nicht um eine ganz Spurweite, sonst fährt er auf der Nachbarspur. Die Toleranz für die Positionierung der Köpfe ist also geringer als die Strukturen selbst der kleinsten Halbleiter, sonst bei dem 7nm Prozess von TSMC beträgt die Fin Pitch 30nm und die Gate Pitch 57nm (HD) bzw. 64nm (HP). Das nur mal als Größenvergleich um einen Eindruck davon zu bekommen mit welcher mechanischen Präzision HDDs arbeiten und wenn man dann überlegt wie lang der Ausleger ist an dem die Köpfe hängen, dann kann man sich wie minimal der Winkel nur abweichen muss damit ein Kopf aus der Spur kommt.
Vielen Dank auch für die Links / das PDF. Gegen die Spuren wirkt ein menschliches Haar also riesig. Aus dieser Perspektive insgesamt gesehen, könnte man eher staunen, wieviel eine Platte überhaupt aushält (vor allem an mechanischen Einwirkunge). Vor allem bei 2,5''-Platten, die ja im Vergleich zu 3,5'' recht robust sind.

Wie ich schon schrieb, steht hinter jedem einzelnen physikalischen Sektoren auf der Platte eine ECC Prüfsumme für die Daten dieses Sektors. Lies doch Post #33 noch einmmal, da steht es doch.
Ja, natürlich, Entschuldigung.

Die Platte war nie physisch kaputt, schwebende Sektoren können ein Hinweis auf einen Defekt der Platte sein, aber muss es eben nicht und wenn wie hier die schwebenden Sektoren nach dem Überschreiben einfach verschwunden und keine wiederzugewiesenen Sektoren vorhanden sind, dann ist die Oberfläche der Platter in Ordnung und die Platte ist nicht defekt, es könnte maximal ein Problem mit der Positionierung der Köpfe geben. Meist ist das aber dann kein Fehler der Platte, sondern einer der Umgebung in der sie arbeiten muss, etwa weil ein Bass in der Nähe ist.
Ein Problem mit der Positionierung der Köpfe, bei der die Ursache nicht in der Platte liegen muss (läge er bei ihr, entstünden ja vermutlich weiterhin / andauernd schwebende Sektoren, unabhängig vom Ort ihres Betreibens), sondern außerhalb. Ob ein Sektor Ursache einer physich kaputten Platte oder nur eines Schreibfehlers ist, ließe sich bestimmt mit einer (wohl lange dauernden, jedenfalls bei 8 TB) Oberflächenanlalyse / einem Scan feststelen, nehme ich an. Beseitigen könnte man einen Sektor nicht physischen Defekts wohl nicht, ohne die Daten auf der Platte zu löschen.

Es war ja eine USB Platte und wenn man diese nicht korrekt über "Hardware sicher entfernen " abmeldet sondern einfach abzieht, dann kann dies passieren und ebenso bei Abstürzen des Rechners. Auch wenn man ins BIOS geht, könnte dies passieren, ich würde nicht darauf schwören das jeder BIOS beim Verlassen auch die entsprechenden Befehle (ATA_SBI) an alle, auch die USB- Platten schickt.
Bei meinen Platten ist ja einzig "Für schnelles Entfernen" (oder wie das heißt) aktiviert, glaube, Voreinstellung in den "Richtlinien". Das heißt ja (eigentlich und laut Windows / Microsoft wohl), man könnte den USB-Stecker einfach abziehen (ohne zuvor "sicher entfernen" zu klicken). Bzw. was sollte diese Option sonst für eine Bedeutung haben. Tue ich aber sicherheitshalber trotzdem nicht. Das sogenannte sichere Entfernen funktionierte bei mir aber noch nie. Fast immer oder meistens kommt eine Fehlermeldung, also irgendein Zugriff auf die Platte, den es aber meistens nicht gibt / geben kann / der nicht zu finden wäre. Ich ziehe dann den Stecker einfach ab, mangels anderer (praktikabler) Möglichkeiten. Daher könnten die Stromabfälle also rühren, aber 99 Mal, das dürfte keines Falls hinkommen.
 
Den Defekt den die Ursache für die schwebenden Sektoren ausgelöste hat auf der geschredderte Platte habe ich offenbar gefunden: ein einziges Lied,
Nein, dies ist nicht die Ursache, sondern die Datei zu der die schwebenden Sektoren gehören und die daher natürlich jetzt korrupt ist, denn wie gesagt können die Daten von schwebenden Sektoren ja eben nicht mehr korrekt gelesen werden. Die Ursache könnten Vibrationen beim Schreiben einer andere Datei gewesen sein, da reicht schon ein Bass in der Nähe oder wenn man mit dem Fub ans Gehäuse des Rechners kommt oder man auf den Tisch haut auf dem die USB Platte steht, wodurch dann die Köpfe aus der Spur gekommen sind und diese Sektoren überschrieben hat, die eben zu der einen Datei gehört haben.
Aus dieser Perspektive insgesamt gesehen, könnte man eher staunen, wieviel eine Platte überhaupt aushält
Eben, die halten schon viel aus, aber eben nicht alles und Vibrationen sind für so einfache Platten die keine Sensoren haben um damit umzugehen, eben zu schwebenden Sektoren führen. Ich bevorzuge daher selbst im Desktop NAS Platten, die sind i.d.R. für bis zu 8 HDDs pro Gehäuse zugelassen, weil sie eben besser mit den Vibrationen umgehen können, kosten aber eben auch etwas mehr. Am Besten in einem echten RAID, denn HDDs in einem echten RAID, also einem mit Redundanz und nicht einem RAID 0 welches eigentlich ein AID 0 ist, zeigen normalerweise keine schwebenden Sektoren, weil die RAID Controller (ggf. RAID SW) bei Lesefehlern die Daten aus den Daten der anderen Platten rekonstruiert und den Sektor überschreibt bei denen der Lesefehler aufgetreten ist. Außerdem bekommt das Programm welches die Daten lesen will, diese natürlich auch und man bekommt von dem Problem das eine Platte einen Lesefehler gemeldet hat, gar nichts mit (außer ggf. ein gewissen Verzögerung).
Ob ein Sektor Ursache einer physich kaputten Platte oder nur eines Schreibfehlers ist, ließe sich bestimmt mit einer (wohl lange dauernden, jedenfalls bei 8 TB) Oberflächenanlalyse / einem Scan feststelen, nehme ich an.
Es geht nicht um Schreibfehler, die können zwar auch vorkommen, aber dann ist HDD meist praktisch unbrauchbar. Außerdem werden Daten die nach dem Schreiben normalerweise nicht geprüft, sondern nur wenn der Sektor vorher ein schwebender Sektor war, da muss der Controller ja dann Prüfen ob ein Defekt auf der Oberfläche des Platter vorliegt und dann ggf. eine Reservesektor an seiner Stelle verwenden. Genau dies ist beim Überschreiben der Platte bei Löschen der Daten passiert und da kein Reservesektor verwendet wurde, liegt also kein physikaischer Fehler vor.

Wenn Du die Platte selbst testen willst, beschreibe sie fast komplett mit h2testw, wähle ein paar Hundert MB bis 1 GB weniger als vorgeschlagen wird, da die Metadateien des Filesystem bei großen Volumen schneller wachsen als heise es erwartet hat und sonst am Ende der Platz ausgeht, was zu einem Fehler am Ende des Schreibvorgangs führt. Der hat dann auch nichts mit der HW zu tun, den kann man dann daher getrost ignorieren und trotzdem die Daten prüfen lassen, was auch ohne Fehler passieren sollte.
Beseitigen könnte man einen Sektor nicht physischen Defekts wohl nicht, ohne die Daten auf der Platte zu löschen.
Ja, einen schwebenden Sektor kann man nur durch Überschreiben beseitigen, da die Daten auf einem Sektor sowieso schon nicht mehr korrekt sind und nicht mit der ECC korrigiert werden können, gehen in dem Sinne keine Daten verloren. Das Problem ist aber herauszufinden welches die schwebenden Sektoren sind und dann gezielt nur diese zu überschreiben, zumal unter Windows.
Bei meinen Platten ist ja einzig "Für schnelles Entfernen" (oder wie das heißt) aktiviert, glaube, Voreinstellung in den "Richtlinien". Das heißt ja (eigentlich und laut Windows / Microsoft wohl), man könnte den USB-Stecker einfach abziehen (ohne zuvor "sicher entfernen" zu klicken).
Das bezieht aber nur auf die Einstellung des Schreibcaches von Windows und ggf. noch des Schreibcaches der Platte. Aber die Platte erfährt erst durch das "Hardware sicher entfernen" vom bevorstehenden Spannungsabfall und stellt sich darauf ein indem sie die Köpfe parkt, schonender als sie bei einem unerwarteten Spannungsabfall macht. Dazu kommt, dass Deine HDD eine SMR Platte ist und einen Media Cache besitzt, also einige GB an Daten in CMR Bereichen auf der Platte schreibt und dann im Idle auf ihre endgültige Position im SMR, also dem der überlappenden Spuren, schreibt. Keine Ahnung ob es dabei zu schwebenden Sektoren kommen kann, aber ich würde es als einen zusätzlichen Grund sehen immer "Hardware sicher entfernen" zu verwenden. Ebenso auch bei SSDs, die machen ja im Idle auch eine Idle-GC und haben inzwischen alle einen Pseudo-SLC Cache aus dem die Daten im Idle in den normalen TLC oder QLC Bereich kopiert werden, außerdem sind unerwartete Spannungsabfälle während Schreibvorgängen, auch denen wegen interner Schreibvorgänge, Gift für SSDs.

Daher kann ich nur jedem empfehlen immer die "Hardware sicher entfernen" Funktion zu verwenden, aus gutem Grund hat Windows diese ja immer noch und sie wurde nicht entfernt und es erscheinen dort auch Platten bei denen "Für schnelles Entfernen" eingestellt ist. Leider scheint selbst den meisten Fachjournalisten der Zusammenhang nicht bekannt zu sein und was unerwartete Spannungsabfälle für HDDs und SSDs bedeuten. USB Sticks haben übrigens teils auch SSD Controller verbaut und selbst die normalen Controller für USB Sticks dürften sich in der Technologie den SSD Controller annährend, z.B. indem auch dort ein Pseudo-SLC Schreibcache verwendet wird um mit hohen Schreibraten werben zu können, auch wenn diese nur über wenige/einige GB durchgehalten werden können.
 
Wenn Du die Platte selbst testen willst, beschreibe sie fast komplett mit h2testw, wähle ein paar Hundert MB bis 1 GB weniger als vorgeschlagen wird, da die Metadateien des Filesystem bei großen Volumen schneller wachsen als heise es erwartet hat und sonst am Ende der Platz ausgeht, was zu einem Fehler am Ende des Schreibvorgangs führt. Der hat dann auch nichts mit der HW zu tun, den kann man dann daher getrost ignorieren und trotzdem die Daten prüfen lassen, was auch ohne Fehler passieren sollte.
Danke für den Link. Werde die 8 TB-Platte damit dann mal testen, habe gerade mal einen USB-Stick zur Hand, das wird angezeigt:

QqGiUpl.png


Es gibt offenbar keine Vorgabe, so dass ich also keinen Wert, der weniger also die Vorgabe wäre, wählen könnte. Was sollte ich da für einen Wert eingeben für eine 8 TB-Platte?

h2testw_1.4 kann, nehme ich an, sozusagen nach Belieben unterbrochen werden, jede von ihm geschriebene Datei wird doch unmittelbar nach dem Schreiben geprüft, dann erst die nächste geschrieben, geprüft und so fort.

Ich dachte, allein schon beim Schreddern der Platte in einem Löschvorgang, in dem die Dateien mit Zufallsinformationen überschrieben wurden, könnte man schon davon ausgehen, dass die Platte keinen phyisischen Defekt hat, wenn die schwebenden Sektoren nach dem Schreddern vollständig verschwunden sind, also ohne Fehler überschrieben worden sein mmüssten. Das ist nicht so?

m2x2oQ9.png

Das heißt also, nach dem, was hier zu "Schnelles Entfernen (Standard)" steht, sollte man sich definitiv lieber nicht richten, sondern die Platte IMMER mit "sicher entfernen" entfernen. Verwunderlich, dass in der Beschreibung "jedoch" steht (statt etwa so etwas wie "deshalb").

Macht es einen Unterschied, ob man beim nicht sicheren Entfernen (also ohne die Option anzuklicken) erst den Netzstecker der Platte zieht oder erst den USB-Stecker? Und sollte man beim Anschließen der Platte beim Einstecken dieser Stecker auch eine gewisse Reihenfolge einhalten? Wenn ich hier einen Netzstecker einstecke, zeigt sich oft ein kurzes Aufblitzen zwischen Stecker und Steckdose. Aber gegen derartige Auswirkungen - was auch immer das bewirken mag - wirkt ja bestimmt das Netzteil entgegen.

Wenn man die Platte nicht über "sicher entfernen" entfernen kann (weil das bei mir fast nie funktioniert) und sie sofort entfernen will oder muss, etwa um eine Platte andere anzuschließen, bleibt also tatsächlich nur den Rechner neu zu starten (oder genügte, ihn in den Ruhezustand zu bringen und zu starten)? Das scheint mir unfaßbar unpraktisch, eigentlich in der Praxis gar nicht praktikabel.
 
Hiess es nicht mal, dass NAS-Platten nicht für so häufige An/Ausschalt-Zyklen geeignet sind sondern möglichst dauerhaft laufen sollten?
habe gerade mal einen USB-Stick zur Hand, das wird angezeigt:

Es gibt offenbar keine Vorgabe, so dass ich also keinen Wert, der weniger also die Vorgabe wäre, wählen könnte.

jede von ihm geschriebene Datei wird doch unmittelbar nach dem Schreiben geprüft, dann erst die nächste geschrieben, geprüft und so fort.
Wer hat den Quatsch je behauptet? Bei allen NAS Platten von denen ich jemals die Spezifikation gelesen habe, waren es die gleichen 10.000 Start-Stopp Zyklen der Spindel pro Jahr wie bei Desktopplatten. Sogar machen Enterprise Nearline Platten wie die Ultrastar haben diese 10.000, die alten Seagate Constellation ES.2 hatte nur 250:
Bei den Nachfolgern fehlt diese Angabe komplett, aber dies sind wie gesagt Enterprise Nearline Platten und keine NAS Platten!

Ich dachte, allein schon beim Schreddern der Platte in einem Löschvorgang, in dem die Dateien mit Zufallsinformationen überschrieben wurden, könnte man schon davon ausgehen, dass die Platte keinen phyisischen Defekt hat, wenn die schwebenden Sektoren nach dem Schreddern vollständig verschwunden sind, also ohne Fehler überschrieben worden sein mmüssten. Das ist nicht so?
Wie gesagt wird man kaum je einen Schreibfehler erhalten, weil die Platten normalerweise die Daten nicht nach dem Schreiben prüfen, außer eben wenn der Sektor vorher als schwebend markiert war.
Es gibt offenbar keine Vorgabe, so dass ich also keinen Wert, der weniger also die Vorgabe wäre, wählen könnte.
Doch, unten in der Mitte bei Datenmenge, klicke mal auf "nur Byte" und dann kannst Du in dem Feld da eine Wert eingeben und der sollte etwas geringer als die Vorgabe sein die h2testw dann macht.
jede von ihm geschriebene Datei wird doch unmittelbar nach dem Schreiben geprüft, dann erst die nächste geschrieben, geprüft und so fort.
Nein, es wird erst alles geschrieben und dann werden alle Dateien geprüft. Bestehende Dateien kann man auch später jederzeit wieder prüfen oder sie löschen.
Verwunderlich, dass in der Beschreibung "jedoch" steht (statt etwa so etwas wie "deshalb").
Keine Ahnung was Microsoft sich dabei gedacht hat, die Windows Entwickler haben offenbar nur an ihren Teil und nicht an die Anforderungen der Laufwerke gedacht.
Macht es einen Unterschied, ob man beim nicht sicheren Entfernen (also ohne die Option anzuklicken) erst den Netzstecker der Platte zieht oder erst den USB-Stecker?
Dies dürfte recht egal sein, um Zweifel würde ich aber erst den USB Stecker ziehen.

Wenn man die Platte nicht über "sicher entfernen" entfernen kann (weil das bei mir fast nie funktioniert)
Wenn es nicht funktioniert, dann ist vermutlich noch ein Handle auf die Platte offen und deshalb klappt es nicht. Man sollte also alle Dateien schließen und ggf. auch den Mediaplayer beenden, der VLC hält z.B. ein Handle auf den Ordner aus dem er zuletzt etwas abgespielt hat und ist auch hilfreich wenn man sich im Eyplorer keinen Ordner auf der Platte anzeigen lässt.
 
Wie gesagt wird man kaum je einen Schreibfehler erhalten, weil die Platten normalerweise die Daten nicht nach dem Schreiben prüfen, außer eben wenn der Sektor vorher als schwebend markiert war.
Der Sektor war ja als schwebend markiert gewesen, nach dem Schreddern war er nicht mehr da. Wenn also der (ehemals) schwebende Sektor nach wie vor nicht beschreibbar ist, weil die Platte dort phyisisch defekt ist, bleibt er oder wird er erneut als defekt gekennzeichnet, dachte ich.

Wie gesagt wird man kaum je einen Schreibfehler erhalten, weil die Platten normalerweise die Daten nicht nach dem Schreiben prüfen, außer eben wenn der Sektor vorher als schwebend markiert war.
Verzeihung. Aber wenn ein schwebender Sektoren nicht mehr vorhanden ist nach dem Schreddern, ist diese Kennzeichnung gelöscht und er steht wieder zur Verfügung. Er mmüsste dann erst erneut zu überschreiben versuchte werden und würde dann erneut gekennzeichnet, falls (immer noch) defekt? Wenn er nicht beschrieben werden kann bleibt er erneut als defekt gekennzeichnet?

Doch, unten in der Mitte bei Datenmenge, klicke mal auf "nur Byte" und dann kannst Du in dem Feld da eine Wert eingeben und der sollte etwas geringer als die Vorgabe sein die h2testw dann macht.
Kann da keinen Wert sehen oder anzeigen, wohin ich auch klicke, das leere Feld, weißer Hintergrund, bleibt leer.
 
Wenn also der (ehemals) schwebende Sektor nach wie vor nicht beschreibbar ist, weil die Platte dort phyisisch defekt ist, bleibt er oder wird er erneut als defekt gekennzeichnet, dachte ich.
Ein Sektor ist immer "beschreibbar", der Kopf kann da immer drüberfahren und die Magentisierung ändern, ob es geklappt hat, weiß man in dem Moment noch nicht, denn die Frage ist, ob diese Daten dann auch wieder korrekt gelesen werden können. Dies wird halt bei den Sektoren geprüft, die vorher als schwebend bekannt waren, wo also die Daten nicht zur ECC dahinter gepasst haben und wenn bei der Prüfung festgestellt wird das die Daten nicht korrekt gelesen werden konnten, dann wird ein Reservesektor anstelle dieses Sektors verwendet und dann war dort die Oberfläche wirklich defekt.
Aber wenn ein schwebender Sektoren nicht mehr vorhanden ist nach dem Schreddern, ist diese Kennzeichnung gelöscht und er steht wieder zur Verfügung. Er mmüsste dann erst erneut zu überschreiben versuchte werden und würde dann erneut gekennzeichnet, falls (immer noch) defekt?
Was Du hier Schreddern nennst, war ein Überschreiben und ein Sektor steht immer zur Verfügung, bis er durch einen Reservesektor ersetzt wurde, denn danach wird an seiner Stelle ja ein anderer Sektor verwendet. Ein Sektor kann auch mehrfach schwebend werden, wenn eben die Daten irgendwann wieder nicht zur ECC dahinter passen und dann muss er wieder überschrieben werden damit er nicht mehr schwebend ist.

Nochmal: Das ein Sektor schwebend ist, bedeutet nur das die Daten nicht zur ECC dahinter passen und sagt nichts darüber warum dies der Fall ist.
Wenn er nicht beschrieben werden kann bleibt er erneut als defekt gekennzeichnet?
S.o., ein Sektor ist immer überschreibbar, was sollte dies auch verhindern? Alles was dies verhindern könnte, wären schwere Schädem der Platte die dann Schrott wäre.
Kann da keinen Wert sehen oder anzeigen, wohin ich auch klicke, das leere Feld, weißer Hintergrund, bleibt leer.
Du musst ja auch erst links neben dem weiße die Option auswählen, im Screenshot ist die Option darüber, "gesamter feier Platz", ausgewählt und dahinter steht wie viel freier Platz zur Verfügung steht. Gebe also eine etwas geringere Zahl an als da angegeben ist.
 
Ein Sektor ist immer "beschreibbar", der Kopf kann da immer drüberfahren und die Magentisierung ändern, ob es geklappt hat, weiß man in dem Moment noch nicht, denn die Frage ist, ob diese Daten dann auch wieder korrekt gelesen werden können. Dies wird halt bei den Sektoren geprüft, die vorher als schwebend bekannt waren, wo also die Daten nicht zur ECC dahinter gepasst haben und wenn bei der Prüfung festgestellt wird das die Daten nicht korrekt gelesen werden konnten, dann wird ein Reservesektor anstelle dieses Sektors verwendet und dann war dort die Oberfläche wirklich defekt.
Verzeihung für mein Unverständnis. Die 16 schwebenden Sektoren sind nach dem Schreddern ja nicht mehr als solche gekennzeichnet offenbar, sie werden ja nicht mehr angezeigt. Das heißt offenbar, es sind ganz normale Sektoren oder Bereiche jetzt, wie sie es wohl einmal gewesen waren oder wären auf einer normalen, intakten Platte. Warum sind sie denn jetzt nicht mehr als schwebende Sektoren kenntlich? Weil die Festplatte getestet hat, dass sie normal funktionstüchtig sind? Oder wurde einfach nur die Kennzeichnung zurückgesetzt, weil die Daten, die in Verbindung mit den Sektoren standen gelöscht wurden? Oder sonst? Ist jetzt - solange sie nicht neu zu beschreiben versucht werden - unbekannt, ob sie durch einen Defekt der Platte oder durch einen Schreibfehler, etwa aus der Spur gekommen Köpfe, entstanden sind? Und könnten sie abermals beim nächsten Schreibversuch als schwebende Sektoren deklariert werden, weil der Status des Bereichs unbekannt ist jetzt?

Ein Sektor kann auch mehrfach schwebend werden, wenn eben die Daten irgendwann wieder nicht zur ECC dahinter passen und dann muss er wieder überschrieben werden damit er nicht mehr schwebend ist.
Dann wird die Wahrscheinlichkeit, dass es ein phyischer Defekt ist also größer bzw. (fast) sicher, nehme ich an. Wäre ja Zufall, wenn der selbe Sektor ein weiteres Mal durch einen Schreibfehler, etwa bei einer Vibration, betroffen wäre, vermute ich.

S.o., ein Sektor ist immer überschreibbar, was sollte dies auch verhindern?
Ein physischer Defekt, würde ich denken, fehlende / verlorengegange Magnetisierungseigenschaften. Weshalb er ja eben auch defekt sein kann. Verzeihung für meine Irretation.

Alles was dies verhindern könnte, wären schwere Schädem der Platte die dann Schrott wäre.
Das heißt vielleicht, ein physischer Defekt (ein schwebender Sektor könnte sich doch als ein solcher herausstellen), gehörte auch dazu?

Du musst ja auch erst links neben dem weiße die Option auswählen, im Screenshot ist die Option darüber, "gesamter feier Platz", ausgewählt und dahinter steht wie viel freier Platz zur Verfügung steht. Gebe also eine etwas geringere Zahl an als da angegeben ist.
Verstehe ich richtig, es maximal 1 GB weniger eingegeben werden als die Zahl, die den gesamten Speicherpaltz anzeigt, also bei "gesamter freier Speicherplatz"?
 
Warum sind sie denn jetzt nicht mehr als schwebende Sektoren kenntlich?

Weil die Festplatte getestet hat, dass sie normal funktionstüchtig sind?

Ist jetzt - solange sie nicht neu zu beschreiben versucht werden - unbekannt, ob sie durch einen Defekt der Platte oder durch einen Schreibfehler, etwa aus der Spur gekommen Köpfe, entstanden sind?

Und könnten sie abermals beim nächsten Schreibversuch als schwebende Sektoren deklariert werden, weil der Status des Bereichs unbekannt ist jetzt?
Nein, nicht bei einem Schreibversuch, sondern allenfalls bei einem Leseversuch. Die Daten werden geschrieben und normalerweise danach nicht geprüft, ob sie richtig geschrieben wurden, erkennt die Platte erst wenn versucht wird sie zu lesen, aber nicht schon wenn sie geschrieben wurden.

Normalerweise, weil die vorher als schwebend erkannten Sektoren eben doch sofort geprüft werden und damit weiß die scheinen Platte dann auch sofort wie der Status des Bereichs ist.
Wäre ja Zufall, wenn der selbe Sektor ein weiteres Mal durch einen Schreibfehler, etwa bei einer Vibration, betroffen wäre, vermute ich.
Nochmal: Vergiss Schreibfehler, beim Schreiben kann man nicht feststellen ob die Daten korrekt geschrieben wurden, dies erkennt man erst wenn sie danach wieder gelesen werden. Es gibt zwar auch Schreibfehler bei HDDs, aber die haben andere Ursachen. Du solltest klar zwischen Schreib- und Lesefehlern unterscheiden, Schreiben ist bei einer HDD wie das Aufdrücken eines Stempels, ob der richtig abgebildet wurde oder irgendwo Tinte gefehlt hat, sieht man erst wenn man den Stempel wieder abhebt und sich das Ergebnis ansieht, also beim Lesen und daher sind es dann eben Lesefehler.

Ein physischer Defekt, würde ich denken, fehlende / verlorengegange Magnetisierungseigenschaften. Weshalb er ja eben auch defekt sein kann.
Richtig, dann wird ein schwebender Sektor nach der Prüfung die direkt nach dem Überschreiben erfolgt, eben auch ausrangiert und ein Reservesektor tritt an dessen Stelle. Erst dann kann man auch wirklich von einem defekten Sektor sprechen, aber da ja nun ein Reservesektor verwendet wird, verliert die Platte deswegen auch weder an Kapazität noch gibt es deswegen dann Probleme. Daher habe ich auch immer ein Problem wenn jemand von defekten Sektoren spricht, während er eigentlich schwebende Sektor meint.

Das heißt vielleicht, ein physischer Defekt (ein schwebender Sektor könnte sich doch als ein solcher herausstellen), gehörte auch dazu?
Mit verhindern des Schreibens meine ich eher, was verhindern sollte, dass die Köpfe über den Sektor fliegen und versuchen dort die Magentsierung zu ändern, ebe so wie was verhindern sollte, dass man den Stempel aufs Papier drückt. Selbst wenn der Stempel trocken ist und das Papier Löcher hat, geht das, auch wenn das Ergebnis eben dann kein (vollständiger) Abdruck des Stempels auf dem Papier ist.

Verstehe ich richtig, es maximal 1 GB weniger eingegeben werden als die Zahl, die den gesamten Speicherpaltz anzeigt, also bei "gesamter freier Speicherplatz"?
Ja, 1GB sollte reichen damit die Metadateien von NTFS auch dann noch genug Platz zu Wachsen haben, wenn 8TB getestet werden. Du kannst auch alles testen lassen, aber dann geht em Ende der Platz aus und h2testw gibt einen entsprechenden Fehler aus, was manche nervös macht, auch wenn es kein Hinweis auf ein Problem der Platte ist.
 
Die nun nicht mehr angezeigten schwebenden Sektoren werden also jetzt als normale Sektoren behandelt, so wie zuvor auch als sie noch nicht als schwebende Sektoren erkannt gewesen waren. Sie würden nun irgenwann neu beschrieben werden wie normale Sektoren auch und - falls der nächste Lesevorgang erneut Lesefehler lieferte - abermals als schwebende Sektoren deklariert werden (womit es wohl sehr wahrscheinlich wäre, dass ein phyischer Defekt vorläge, falls es derselbe Sektor wäre, nicht etwa ein neuer nicht bereits als schwebender gekennzeichnet gewesener Sektor). Falls es keinen Lesefehler gäbe, blieben die Sektoren normale Sektoren. Deshalb müsste man - um die Oberfläche zu überprüfen - die Platte jetzt eben auch noch einmal neu beschreiben (und vor allem lesen).

Richtig, dann wird ein schwebender Sektor nach der Prüfung die direkt nach dem Überschreiben erfolgt, eben auch ausrangiert und ein Reservesektor tritt an dessen Stelle.
Und er bleibt dann auch ausrangiert (anders als schwebende), wird nicht irgendwann wieder, etwa nach dem Schreddern / neu beschreiben zu einem normalen Bereich der Festplatte, der beim nächsten Lesen erneut als defekt erkannt / als schwebender Sektor deklariert wird.

Erst dann kann man auch wirklich von einem defekten Sektor sprechen, aber da ja nun ein Reservesektor verwendet wird, verliert die Platte deswegen auch weder an Kapazität noch gibt es deswegen dann Probleme.
Der Reservesektor wird also nicht, wie ich dachte, vom normal verfügbaren Speicher genommen oder wie erklärt sich, dass die Kapatzität nicht geringer wird, wenn auch nur minimal? Denn der kaputte Sektor fehlt ja jetzt, also müsste Speicherplatz fehlen.

Ja, 1GB sollte reichen damit die Metadateien von NTFS auch dann noch genug Platz zu Wachsen haben, wenn 8TB getestet werden. Du kannst auch alles testen lassen, aber dann geht em Ende der Platz aus und h2testw gibt einen entsprechenden Fehler aus, was manche nervös macht, auch wenn es kein Hinweis auf ein Problem der Platte ist.
Also 8 TB, davon der Nettospeicherplatz, vielleicht ca. 0,5, 07 TB abziehen (macht das Programm ja automatisch) und minus besagte 1 GB für Metadaten. Vielleicht ca. 7,499 TB, 7,299 TB minus, die einzugeben wären.
Das heißt, es wird bestimmt noch ein geringer nicht getesteter / beschriebener Bereich der Platte übrigbleiben, dadurch, dass die abgezogenen 1 GB nicht vollständig mit Metadaten gefüllt oder sonst wie würden, was bestimmt Zufall wäre.

Die Daten werden geschrieben und normalerweise danach nicht geprüft, ob sie richtig geschrieben wurden,
Vermutlich übrigens, weil das die Transferzeit etwas verdoppeln würde, nehme ich an.
 
Die nun nicht mehr angezeigten schwebenden Sektoren werden also jetzt als normale Sektoren behandelt, so wie zuvor auch als sie noch nicht als schwebende Sektoren erkannt gewesen waren.
Genau, die sind ja auch in Ordnung, nur waren aus irgendeinem Grund die Daten die dort standen eben korrupt, was eben anhand der ECC zu erkennen ist. Deshalb heißen sie auch schwebende (oder auf englisch pending) Sektoren und nicht defekte Sektoren.

abermals als schwebende Sektoren deklariert werden (womit es wohl sehr wahrscheinlich wäre, dass ein phyischer Defekt vorläge, falls es derselbe Sektor wäre
Man wird ja kaum merken, ob es die selben Sektoren sind, einfach weil die Nummer des Sektors nur im S.M.A.R.T. Log erscheint (CDI kann dies aber nicht auslesen), aber die Anzahl der Logeinträge begrenzt ist und ab einer bestimmten Anzahl werden dann nicht mehr alle dort aufgeführt sein.

Deshalb müsste man - um die Oberfläche zu überprüfen - die Platte jetzt eben auch noch einmal neu beschreiben (und vor allem lesen).
Man kann auch Tools wie HD Tune nehmen und damit einen Oberflächentest machen, aber ich halten von diesen Tools wenig, denn die Lesen einfach alle Sektoren und färben die Kästchen auch dann rot ein, wenn die Antwort länger auf sich warten lässt. Dies kann aber auch passieren wenn irgendein anderes Programm auf die Platte zugreift, dann müssen sie Köpfe sich ja erstmal an die angefragte Stelle bewegen und schon hat man da vermeindlich ein Problem wo gar keines ist. Ich bevorzuge daher h2testw, zumal dies auch wirklich prüft ob die Daten korrekt sind. Aber vorsicht, RAM Fehler können auch hier zu Fehlalarmen führen.

Und er bleibt dann auch ausrangiert
Ja, wenn der Controller festgestellt hat das der Sektor einen Schaden hat, also Daten die geschrieben wurden nicht mehr korrekt eingelesen werden können, macht es ja keinen Sinn mehr ihn nochmals verwenden zu wollen. Solche Probleme heilen ja nicht von selbst. Die Ursache für so einen ausgefallenen Sektor kann harmlos sein, es kann aber auch etwas sein was dann bald zum Ausfall weiterer Sektoren und damit zum baldigen Totalausfall führt. Daher ist neben der Anzahl auch die zeitliche Veränderung der Anzahl wiederzugewiesener Sektoren wichtig und ich habe eben auch schon Platten (RAID 1 Members) gesehen die mit der Zeit immer mehr Reservesektoren genutzt haben und trotzdem bis zum Ende der geplanten Nutzungsdauer des Servers in dem sie verbaut waren, durchgehalten haben. Da steckt man eben nicht drin.
Der Reservesektor wird also nicht, wie ich dachte, vom normal verfügbaren Speicher genommen
Genau, dafür haben die HDDs extra zusätzlich Sektoren für den Fall das mal einer ausfällt. Die Kapazität darf ja nicht geringer werden, sonst müsste das Filesystem auf der Platte ja auch verkleinert werden und das kann die HDD ja nicht selbst machen, die bietet ja nur einen durchgehenden Adressraum an LBAs an, den der Rechner dann über Partitionen und das Filesystem verwaltet. Außerdem stelle man sich vor die Platte wäre Teil eines RAIDs, wie sollte sie dann den anderen Platten im RAID Bescheid geben?

Also 8 TB, davon der Nettospeicherplatz, vielleicht ca. 0,5, 07 TB abziehen (macht das Programm ja automatisch) und minus besagte 1 GB für Metadaten. Vielleicht ca. 7,499 TB, 7,299 TB minus, die einzugeben wären.
Nix Nettokapazität, das ist ein Märchen welches leider schwer zu bekämpfen ist. Die International Disk Drive Equipment and Materials Association (IDEMA) hat eindeutig definiert wie viele LBAs eine HDD oder SSD bei einer beworbenen Kapazität haben muss bzw. welche Kapazität bei wie vielen nutzbaren LBAs beworben werden darf.
Bei den für SSDs und HDDs die nicht 4kn Modelle sind, üblichen 512 Byte pro LBA lauten die Formeln:
So hat z.B. jede 10TB HDD sogar ein wenig mehr als 10TB nutzbare Kapazität, denn 10TB sind 10.000.000.000.000 Byte, da TB ein im Internationalen Einheitensystem (SI) definierter Dezimal-Präfix ist. Nur Windows verwendet eben diesen Dezimal-Präfix als Einheit, rechnet aber mit Binärpräfixe, also auf Basis von Zweierpotenzen und müsste daher korrekterweise TiB als Einheit für Tebibyte verwendet werden, macht es aber nicht. Die 10TB sind also 9,09TiB und wenn man bei den Eigenschaften im Explorer ein weniger weiter links schaut, dann steht dort auch ausgeschrieben wie viele Bytes es genau sind und da wird dann vorne eine 10 stehen.

So wird es aussehen wenn man da eine große Partition drauf anlegt:

attachment.php


Die HDD Hersteller liefern also kein Byte weniger als angegeben ist, sondern ein paar mehr und auch NTFS verbraucht kaum Platz für seine Metadaten, solange das Filesystem leer ist (hier 400MB bzw. 381MiB), denn die werden in Dateien abgelegt die in Spare angelegt sind und daher wachsen, die Dateiname fangen mit $ an und sind im Explorer nicht sichtbar und auch nicht sicherbar zu machen. Im Resourcen Monitor sieht man aber schon die Zugriffe auf diese Dateien.

Das ganze Problem kommt nur daher, dass Microsoft es nicht gebacken bekommt Windows mal die Einheiten anzeigen zu lassen mit denen es auch rechnet und dies vor allem in den Reviews dann auch nicht klar gesagt wird, sondern man dort viel zu oft so einen Schwachsinn liest, wie nach dem Formatieren stehen nur noch 9,09TB zu Verfügung.

Wie viel Kapazität Deine 8TB hat, zeigt Dir auch CDI oben an, da steht hinter der Bezeichnung ST8000DM004 am Ende 8001,5GB, die hat also 1,5GB mehr als die angegebenen 8TB.

Vermutlich übrigens, weil das die Transferzeit etwas verdoppeln würde, nehme ich an.
Ja die Schreibraten würden auf maximal die Hälfte der Leseraten der jeweiligen Spur fallen und da HDDs aber fast genauso schnell Schreiben wie Lesen können, bleibt ja gar keine Zeit die Daten nach dem Schreiben auch noch zu prüfen. Deine HDD hat übrigens SMR, weshalb diese ggf. schon deutlich langsamer schreibt als liest, aber dies liegt halt an der SMR Aufzeichnung und nicht daran, dass sie vielleicht doch alle geschriebenen Daten prüfen würde.
 
Genau, die sind ja auch in Ordnung, nur waren aus irgendeinem Grund die Daten die dort standen eben korrupt, was eben anhand der ECC zu erkennen ist. Deshalb heißen sie auch schwebende (oder auf englisch pending) Sektoren und nicht defekte Sektoren.
Aber es hätte doch - und das kann es doch auch immer noch - auch ein physischer Defekt vorliegen können. Der Grund, die Ursaache, aus dem denen die Daten nicht zu lesen waren, waren ja nicht bekannt, deshalb die schwebenden (nicht etwa) defekte Sektoren.

Man kann auch Tools wie HD Tune nehmen und damit einen Oberflächentest machen, aber ich halten von diesen Tools wenig, denn die Lesen einfach alle Sektoren und färben die Kästchen auch dann rot ein, wenn die Antwort länger auf sich warten lässt. Dies kann aber auch passieren wenn irgendein anderes Programm auf die Platte zugreift, dann müssen sie Köpfe sich ja erstmal an die angefragte Stelle bewegen und schon hat man da vermeindlich ein Problem wo gar keines ist. Ich bevorzuge daher h2testw, zumal dies auch wirklich prüft ob die Daten korrekt sind. Aber vorsicht, RAM Fehler können auch hier zu Fehlalarmen führen.
Die Antwort auf eine Frage, die ich mich schon fragte: warum nicht eines der vielen anderen Festplattentest-Programme. Ist ja erstaunlich, dass ein seit - ich glaube - 2008 unverändertes Programm zu bevorzugen ist. Dessen Vorgehensweise ist ja, wenn ich recht verstand, recht einfach, schreiben und das Geschriebene auf Fehler prüfen bis die Platte voll ist.

Genau, dafür haben die HDDs extra zusätzlich Sektoren für den Fall das mal einer ausfällt. Die Kapazität darf ja nicht geringer werden, sonst müsste das Filesystem auf der Platte ja auch verkleinert werden und das kann die HDD ja nicht selbst machen, die bietet ja nur einen durchgehenden Adressraum an LBAs an, den der Rechner dann über Partitionen und das Filesystem verwaltet. Außerdem stelle man sich vor die Platte wäre Teil eines RAIDs, wie sollte sie dann den anderen Platten im RAID Bescheid geben?
Wieviel Speicherplatz an Reserve-Sektoren gibt es denn da? Wieviel normal verfügbarer / kaputter Speicher könnte also maximal ersetzt werden?

Das ganze Problem kommt nur daher, dass Microsoft es nicht gebacken bekommt Windows mal die Einheiten anzeigen zu lassen mit denen es auch rechnet und dies vor allem in den Reviews dann auch nicht klar gesagt wird, sondern man dort viel zu oft so einen Schwachsinn liest, wie nach dem Formatieren stehen nur noch 9,09TB zu Verfügung.
Das heißt, die Ursache ist einfach nur eine falsche Darstellung bzw. die Umrechnung in eine andere Einheit bzw. die Nutzung einer anderen Einheit, als die, die angezeigt wird? Ist ja erstaunlich. Der (vom Werk) angegebene Speicherplatz ist und bleibt also immer vorhanden. Ja, die Zahl, die CDI als Speicherkapazität anzeigt, hatte ich auch nie verstanden.
 
Aber es hätte doch - und das kann es doch auch immer noch - auch ein physischer Defekt vorliegen können.
Aber eben nur bis sie überschrieben wurden, was Du vorher als Schreddern bezeichnet hast und danach keine wiederzugewiesenen Sektoren ausgewiesen wurden. Es gibt ja Leute die einer HDD schon bei einem schwebenden Sektor nicht mehr trauen und sie entsorgen. Dies ist nicht nur extrem voreilig, sondern meist auch total unnötig, aber man weiß eben erst nach dem Überschreiben und damit Verschwinden der schwebenden Sektoren, durch einen Blick auf die Anzahl der wiederzugewiesenen Sektoren, ob die Ursache sowas banales wie unerwartete Spannungsafälle / Vibrationen während Schreibvorgängen oder doch ein echter Schaden an der Oberfläche war.

Wieviel Speicherplatz an Reserve-Sektoren gibt es denn da?
Keine Ahnung und dies dürfte auch von jeweiligen Modell abhängen. Man sollte anhand des Aktuellen Werts von Attribut 05 erkennen können, wie viele so ungefähr noch übrig sind. Fällt der unter den Grenzwert wird es allerhöchste Zeit die Platte zu ersetzen, aber es hängt davon ab was die Ursache für den Ausfall der Sektoren ist, ob diese Frage überhaupt relevant ist. Manchmal geht es auch so schnell, dass die schon während des Überschreibvorgangs alle aufgebraucht werden oder die Platte dabei gleich komplett ausfällt.
Das heißt, die Ursache ist einfach nur eine falsche Darstellung bzw. die Umrechnung in eine andere Einheit bzw. die Nutzung einer anderen Einheit, als die, die angezeigt wird?
Genau so ist es, auch wenn man immer noch in Reviews so einen Blödsinn liest wie das nach dem Formatieren noch x GB übrig wären. Das ist so dumm wie lächerlich als würde ein Autojournalist bei einem Autotest schreiben, dass von den 150 PS des Motors nach der Zulassung noch 115 übrig wären, nur weil eben 115kW in den Papieren angegeben sind.
 
Wer hat den Quatsch je behauptet? Bei allen NAS Platten von denen ich jemals die Spezifikation gelesen habe, waren es die gleichen 10.000 Start-Stopp Zyklen der Spindel pro Jahr wie bei Desktopplatten. Sogar machen Enterprise Nearline Platten wie die Ultrastar haben diese 10.000, die alten Seagate Constellation ES.2 hatte nur 250: Bei den Nachfolgern fehlt diese Angabe komplett, aber dies sind wie gesagt Enterprise Nearline Platten und keine NAS Platten!

"Das Internet" hat sowas behauptet. Bzw. fast alle Reviews die irgendwann in den letzten Jahren die NAS-Platten vorgestellt haben.

Aber gut zu wissen, dann kann ich wieder n Gerät mehr über Nacht in den Tiefschlaf legen.
 
Aber eben nur bis sie überschrieben wurden, was Du vorher als Schreddern bezeichnet hast und danach keine wiederzugewiesenen Sektoren ausgewiesen wurden. Es gibt ja Leute die einer HDD schon bei einem schwebenden Sektor nicht mehr trauen und sie entsorgen. Dies ist nicht nur extrem voreilig, sondern meist auch total unnötig, aber man weiß eben erst nach dem Überschreiben und damit Verschwinden der schwebenden Sektoren, durch einen Blick auf die Anzahl der wiederzugewiesenen Sektoren, ob die Ursache sowas banales wie unerwartete Spannungsafälle / Vibrationen während Schreibvorgängen oder doch ein echter Schaden an der Oberfläche war.
Aber mit dem Überschreiben kann doch nicht festgestellt werden, ob der Sektor tatsächlich heil oder kaputt ist, das Geschriebene (in diesem Fall durch das Schreddern entstanden, also aus zufälligen Zeichen bestehend) wird ja nicht überprüft. Das müsste doch heißen, erst nach dem nächsten Überschreiben kann doch das erneute Lesen danach - wenn dabei dann ein Fehler entsteht - festgestellt werden, ob die Daten richtig geschrieben sind.
 
"Das Internet" hat sowas behauptet.
Im Internet steht viel Blödinn, gefühlt sogar viel mehr Blödsinn als Wahrheit und Reviews kann leider jeder schreiben, Ahnung vom Thema zu haben ist leider keine Voraussetzung dafür. Dies gibt dem Leser die Verantwortung die Informationen selbst zu bewerten und dazu muss man in diese Fall eben die Spezifikationen lesen, die bei Seagate HDDs in den Product Manuals sehr ausführlich gegeben werden.

Aber mit dem Überschreiben kann doch nicht festgestellt werden, ob der Sektor tatsächlich heil oder kaputt ist, das Geschriebene (in diesem Fall durch das Schreddern entstanden, also aus zufälligen Zeichen bestehend) wird ja nicht überprüft.
Wenn es vorher schwebende Sektoren waren, dann doch, wie ich geschrieben habe, hast Du das schon vergessen? Schwebende Sektoren werden nach dem Überschreiben geprüft um zu sehen ob die neuen Daten korrekt lesbar sind oder ein Reservesektor an seiner Stelle verwendet werden muss. Wann sollte man sonst je wissen ob ein Reservesektor benötigt wird?
 
Wenn es vorher schwebende Sektoren waren, dann doch, wie ich geschrieben habe, hast Du das schon vergessen? Schwebende Sektoren werden nach dem Überschreiben geprüft um zu sehen ob die neuen Daten korrekt lesbar sind oder ein Reservesektor an seiner Stelle verwendet werden muss. Wann sollte man sonst je wissen ob ein Reservesektor benötigt wird?
Ja, natürlich, Entschuldigung!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh