Externe Festplatte verliert Verbindung - CDI zeigt "Seek Time Performance" rot an

dass ich vermuten würde das die mechanisch alle gleich konstruiert sind und dann danach unterschieden wird wie gut die geraten sind.
Das heißt, die Herstellung von Platten geht also gar nicht anders, als dass Platten unterschiedlich in ihrer Qualität ausfallen werden, das ist einkalkuliert, offenbar eben wegen der bei der Herstellung erforderlichen Genauigkeit, die nicht immer erreicht wird bei der Herstellunge.

Desktopplatten wie die ST8000DM004 sind für 2400 Power On Hours pro Jahr ausgelegt und halten zwar auch eine Weile den Dauerbetrieb aus, aber erreichen dann nicht unbedingt die vom Hersteller geplante Nutzungsdauer von 5 Jahren.

Also nicht einmal für ein Drittel der Tage im Jahr, das klingt ja nicht so viel. Dann ist ja (regelmäßige) Datensicherung wichtiger mit zunehmender Verkürzung der Backup-Periode je höher die Betriebstunden werden.

Keine Ahnung und dies ist auch total irrelevant! Relevant ist was ein Unternehmen am Ende verdient oder eben nicht
Na ja, na ja, widerspricht sich das nicht selbst, ersteres bedingt ja zweiteres bzw. umgekehrt.

denn es müssen alle Kosten gedeckt werden, nicht nur die direkt für die Herstellung des Produktes, sondern auch die für die deren Entwicklung, den Vertrieb, etc. pp.
Na ja, wie es in der Marktwirschaft, bei "normalen" Firmen / Konzernen eben üblich ist, oder verstehe ich da etwas falsch? Oder sollte ich dem etwas bestimmtes enthnehmen können?

Hast Du nun eigentlich mal probiert ob die Platte mit einem anderen Netzteile anläuft?
Nein, noch nicht, damit wollte ich doch lieber warten, bis ich eine andere Platte hätte, auf die ich direkt / so schnell wie möglich die Datein kopierte. Irgendetwas stimmt mit der Platte ja nicht bzw. mit dem Netzteil, da will ich lieber kein Risiko eingehen. Werde ich dann hier auf jeden Fall mitteilen inklusive der SMART-Werte.

ich vermute das Problem mit dem Verschwinden und wieder Erscheinen der Platte liegt an dessen Spannungsversorgung (Netzteil, Kabel, Stecker oder der Buchse im Gehäuse) und dies könnte auch die Ursache sein warum Programme verschwundene Dateien melden.
Wenn eine brauchbare Spannungsversorgung nicht wiederhergestellt werden könnte, müsste ich die Platte vermutlich ausbauen, falls das überhaupt ginge, wohl abhängig davon wie sie eingebaut wäre? Ginge das nicht, könnte es ja schwer oder gar unmöglich sein die Daten zu kopieren, oder?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das heißt, die Herstellung von Platten geht also gar nicht anders, als dass Platten unterschiedlich in ihrer Qualität ausfallen werden, das ist einkalkuliert
Davon würde ich ausgehen, denn die Modelle sind sich einfach zu ähnlich bei den hohen Kapazitäten ab/über 10TB und es gibt in diesen Kapazitäten keine einfachen Desktopplatten mehr wie die Barracuda oder WD Blue. Selbst die WD Red die angeblich nur 5400rpm haben, drehen in Wahrheit mit 7200rpm und die Transferraten wurden per FW gedrosselt. Meines Wissens nach gibt es keine HDD mit Heliumfüllung, was derzeit ab 12TB der Fall ist, die nicht 7200 rpm hat, die Hersteller machen da nicht mal den Aufwand eine zweite Serie mit weniger rpm zu entwickeln und zu bauen.

Also nicht einmal für ein Drittel der Tage im Jahr, das klingt ja nicht so viel.
Man sollte nicht vergessen was ein Desktop traditionell ist. Dies ist der Rechner den man im Büro auf dem Schreibtisch (also Desktop) hat und der ein persönliches Arbeitsgerät ist. Der wird also von Montags bis Freitags morgens eingeschaltet und abends, nach einem 8 Stunden Arbeitstag plus der Stunde Mittagspause wieder ausgeschaltet. Da steckt eine HDD (heutzutage dann meist eine SSD) drin und der Rechner muss 24/7 laufen und hat auch nicht ständig viel Last, die meisten Zeit wird man da tippen oder was Lesen, was kaum Last für den Rechner oder seine Platte erzeugt.

Im Gegensatz dazu stehen Server und Workstations, diese sind beide für Dauerbetrieb und auch Dauerlast ausgelegt. Der Unterschied ist hier, dass Server normalerweise headless laufen, also keiner direkt am Server sitzt, sondern dieser in einem Serverraum steht und seine Dienste übers Netzwerk bereitstellt, während eine Workstation ein Rechner ist an dem jemand arbeitet und wo klassisch die Aufgabe im Vordergrund steht, also z.B. bei einer CAD Workstation eben die Konstruktion und da können sich Leute an dieser Aufgabe abwechseln, es ist also nicht wirklich ein Persönlicher Computer (PC). In dem Sinne ist ein Kassen-PC auch kein PC, sondern eigentlich eine Workstation, da hier die Aufgabe, nämlich die Kunden abzukassieren im Vordergrund steht und sich die Leute an Kassen normalerweise abwechseln, womit es eben kein persönliches Hilfsmittel einer Verkäuferin ist.

Die Leistungsfähigkeit ist nicht wirklich ein Kriterium, die hat zwar mal zu dieser Unterteilung geführt, früher waren Rechner teuer und erst recht solche für rechenintensive Anwendungen wie CAD, von den Kosten für die SW mal abgesehen, weshalb damals nicht jeder Mitarbeiter der sowas gemacht hat einen eigenen Rechner mit so viel Leistung bekommen hat, was heute anders sein mag. Aber diese klassische Einteilung, auch wenn viele sie heute gar nicht mehr kennen, spielt bei Hardware immer noch eine gewisse Rolle, auch wenn sie etwas aufgeweicht wurde. So gibt (oder gab?) es eben neben den klassischen einfachen Desktopplatten wie der Barracuda oder Blue auch Pro Modelle wie die Barracuda Pro oder die Black, die immerhin für Dauerbetrieb ausgelegt sind. Darüber kommen dann die NAS Platten, die neben dem Dauerbetrieb auch den Betrieb mehrere HDDs im gleichen Gehäuse vertragen, hier sind die Vibrationen das Thema und mit entsprechenden Sensoren die Vibrationen erkennen vermeidet man hier das Daten auf der Nachbarspur überschrieben werden, wenn Vibrationen auftreten und sie sollten selbs natürlich auch nicht zu viele Vibrationen erzeugen. Desktopplatten sind nur für den Betrieb als einzige HDD im Gehäuse ausgelegt:

Desktopplatten sind auch von Workload Rating her, also dem gelesenen und geschriebenen Datenvolumen zusammen, nur für 55TB im Jahr ausgelegt und auch NAS Platten sind nicht für Dauerlast ausgelegt, die haben 180TB/Jahr oder 300TB/Jahr Workload Rating. Für Dauerlast braucht man Enterprise HDDs, also bei Seagate die Exos und bei WD die Gold und Ultrastar, die mit 550TB/Jahr angegeben werden, was bedeutet das sie für Dauerlast ausgelegt sind und anderes als bei NAS Platten üblich, können von denen auch unbegrenzt viele in einem Gehäuse verbaut werden. Deshalb waren die normalerweise auch immer am teuersten und jetzt sind sie in den großen Kapazitäten meist am billigsten, was einfach an den Volumen liegen dürfte, da solche HDDs vor allem von Unternehmen für große Storages gekauft werden.
Na ja, na ja, widerspricht sich das nicht selbst, ersteres bedingt ja zweiteres bzw. umgekehrt.
Die Herstellungskosten sind aber nur ein Teil der Kosten. Man sieht dies gut bei Rüstungsprojekten, wo die Entwicklungskosten oft viele Milliarden ausmachen und die Stückzahlen zuweilen nur sehr gering sind. Deswegen waren die F22 und B2 so teuer, es wurden einfach so wenig davon gebaut und deswegen hat ein Gepard dreimal so viel wie wie ein Leopard 1 gekostet, auf dessen Chassis er basiert. Nur auf die Herstellungskosten zu schauen greift also zu kurz, die Hersteller müssen alle Kosten reinholen um Gewinn zu machen und sie müssen Gewinn machen um auf Dauer zu überleben.

Zu den Einnahmen trägt auch die Resteverwertung bei. Laut Anandtech ist der AMD RYZEN 5 5600X3D so eine Resteverwertung von 5800X3D Dies mit Kernen die die Spezifikationen nicht erreichen, keine Ahnung ob dies stimmt und ob AMD bei 230$ Verkaufspreis die Herstellungskosten rein bekommt, aber es ist auch egal, wenn die Frage ist ob man etwas entsorgen muss oder noch wenigstens ein wenig Geld dafür bekommen kann, was nur nochmal zeigt wie egal die Herstellungskosten wirklich sind.

Wenn eine brauchbare Spannungsversorgung nicht wiederhergestellt werden könnte, müsste ich die Platte vermutlich ausbauen, falls das überhaupt ginge, wohl abhängig davon wie sie eingebaut wäre?
Eigentlich kann man alle USB Gehäuse öffnen und die HDDs ausbauen, bei 2.5" kann man dann das Problem haben das die kein SATA Interface mehr haben, sondern der USB-SATA Bridgechip und die USB Buchse direkt auf der Platine sitzen. Bei 3.5" habe ich dies aber nie gesehen. Google halt nach einer Anleitung wie dies bei der Platte geht, meist findet man dann einige YT Videos die zeigen wie es geht.

Aber selbst wenn man sie ausbauen kann, könnte es noch Fallstricke geben. Gerade bei älteren 3TB USB Platten gab es Tricks wie 4k Sektoremulation und ohne die kommt man nicht an die Daten und dann gibt es noch Gemeinheiten wie Datenkompression, gerade bei WD MyBook (aber auch einige Elements sollen es haben), wo die Daten verschlüsselt gespeichert werden, obwohl man es weder aktiviert hat noch ein Passwort eingeben muss um an die Daten zu kommen. Besonders gemein bei de MyBook ist, dass der Schlüssel bei jedem Fertigungslos geändert wurde und man damit praktisch nur im originalen Gehäuse hat die Daten wieder auszulesen.
Ginge das nicht, könnte es ja schwer oder gar unmöglich sein die Daten zu kopieren, oder?
Das hängt davon ab woran es liegt. Ich vermute wie schon gesagt, dass das Verschwinden der Platte an der Spannungsversorgung liegt und S.M.A.R.T. Werte im ersten Post einfach Fake sind, wegen des Bugs in CDI beim Wechsel von Platten und kann daher nicht sagen wie der Zustand der Platte selbst ist. Es sollte mich aber nicht wundern wenn die Platte selbst komplett in Ordnung wäre. Deshalb würde ich ja gerne die realen S.M.A.R.T. Werte der Platte sehen um besser beurteilen zu könne was Sache ist, denn natürlich kann ein Hund auch mehr als eine Floh im Pelz haben.
 
Resümierend kann man also wohl sagen, meine Nutzung von Festplatten und Rechner, also eben einfach wohl eine übliche, lässt es also immerhin zu, dass ich mir eigentlich so gut wie keine Gedanken über Festplatten zu machen brauchte, solange ich einfach immer jeweils eine zweite für die Datensicherung habe bzw. ansonsten alle Daten sichern kann, aber der Einfachheit wegen ist wohl immer eine zweite gleiche Platte am sinnvollsten zur Sicherung. Für meine Anwendungszwecke genügten also die einfachsten, billigsten, externen USB-Platten, also die, die Du ja schon nanntest, die dann eben, auch wenn sie nach Zeit / Datenfrequenz intensiver genutzt würden, als "Normal-Verbraucher ja wohl auch nicht übermäßig also, solange man die Sicherung hat und die Geschwindigkeit der Platte sich nicht nachteilig auf die Nutzung auswirkte. Die Programme sind ja ohnehin auf einer internen SSD (auf einer externen SSD wäre vielleicht auch nicht schlecht, so könnte man ganz schnell und einfach jederzeit den Rechner wechseln). Geht die exterme Platte mit den originalen Dateien kaputt, kauft man eben einfach eine neue. Eine eigentlich einfache Handhabung.

Ja, bei Festplatten werden die Kosten bis sie verkaufsfertig produziert werden können ja bestimmt enorm sein. Allein die Entwicklungskosten, Mitarbeiter und Farbriken. Etc.

Könnten sich denn auf der selben Ebene, etwa einem Tisch, im / auf dem selben Möbel, abgestellte USB-Platten wegen ihrer Vibrationen gegenseitig beeinträchtigen. Wie öfter mal mitgekriegt habe, gehen, offenbar bei bestimmten Lasten oder auch ohne, recht deutlich (auch vom Möbel, auf dem sie stehen) warhnehmbare Vibrationen von so einer Platte aus. Falls ja, könnte / sollte man das, z.B. mit einer Gummimatte, ausgleichen?

Aber selbst wenn man sie ausbauen kann, könnte es noch Fallstricke geben.
Ja, das Ausbauen, das Gehäuse kann dabei ja ruhig zerstört werden, ist vielleicht auch nicht das Hauptproblem, sondern die Nutzung der Platte, die eben so mit dem Gehäse verbunden ware, dass die nicht mehr möglich sein könnte.

Gemeinheiten wie Datenkompression, gerade bei WD MyBook (aber auch einige Elements sollen es haben), wo die Daten verschlüsselt gespeichert werden, obwohl man es weder aktiviert hat noch ein Passwort eingeben muss um an die Daten zu kommen.
Das bedeutet, die Daten sind tatsächlich verschlüsselt und komprimiert, ohne dass man es mitkriegte bzw. eingestellt hätte? Ohne ein Passwort eingegeben zu haben? Und solange die Platte im Gehäuse ist, kommt man an die Daten, außerhalb des Gehäuses nicht? Was ist denn der Sinn der ungewollten Verschlüssung?

Deshalb würde ich ja gerne die realen S.M.A.R.T. Werte der Platte sehen um besser beurteilen zu könne was Sache ist, denn natürlich kann ein Hund auch mehr als eine Floh im Pelz haben.
Ja, weswegen es zur Datenrettung, falls man überhaupt von Rettung sprechen könnte, aber wegen der Verbindungsprobleme scheint es ja so zu sein, vielleicht besser ist zu warten, bis ich eine neue Platte habe, damit ich sofot nach anschließen der betroffenen Platte die Daten kopieren kann. Ich will versuchen auf auf eine Rezuzierung bei Amazo oder sonst einem Laden zu warten. Wären bei drei Platten himmerhin 210 € (bei gleicher Rezuzierung wie zuvor).
 
Ja, bei Festplatten werden die Kosten bis sie verkaufsfertig produziert werden können ja bestimmt enorm sein. Allein die Entwicklungskosten, Mitarbeiter und Farbriken. Etc.
Eben, es greift zu kurz nur auf die Materialkosten zu schauen. Man sieht dies bei Chips besonders gut, die bestehen vor allem als Silizium, genau wie Sand und nicht mehr als Spuren viel anderer Elemente, geht man also nur danach was die Ausgangsmaterialen kosten, so sind es Centbeträge. Aber es fängt schon beim Silizium an, dies muss extrem rein sein, 99,99... (so 10 Nachkommastellen sollten es gerne sein) Prozent Reinheit sollte es schon sein und es gibt nur wenige Firmen auf der Welt dies das hinbekommen. Dann hat man aber noch keinen Wafer, dazu muss man einen monokristalline Stab ziehen und in Scheiben schneiden und das bekommt man auch nicht in der heimischen Küche hin. Dann geht es auch erst richtig los, Fabs kosten nicht umsonst viele Milliarden und alleine die Kosten um die Reinräume auch rein zu halten sind nicht ohne. Dann muss man natürlich auch designen was hinten rauskommen soll und was kostet es ein neues CPU, GPU oder auch nur DRAM oder NAND Design zu entwickeln und zu testen bis es auch läuft? Da ist man sicher schnell in den Milliarden. Dies sind alles Kosten die eingespielt werden müssen und es macht keinen Sinn irgendwelche davon rausrechnen zu wollen, damit am Ende Geld übrig bleibt, müssen die Verkaufspreise alle Kosten decken.

Falls ja, könnte / sollte man das, z.B. mit einer Gummimatte, ausgleichen?
Ja, das könnte durchaus hilfreich sein, auch für die Geräusche. Pass aber auf das es die Lüftung nicht zu sehr behindert.

Das bedeutet, die Daten sind tatsächlich verschlüsselt und komprimiert, ohne dass man es mitkriegte bzw. eingestellt hätte? Ohne ein Passwort eingegeben zu haben?
Von Komprimierung wüsste ich nichts, aber ja, die MyBook machen dies oder haben es zumindest eine Weile gemacht, keine Ahnung ob das bei den aktuellen Modellen noch so ist.

Und solange die Platte im Gehäuse ist, kommt man an die Daten, außerhalb des Gehäuses nicht?
Ja.

Was ist denn der Sinn der ungewollten Verschlüssung?
Gute Frage, die müsste man dem Mitarbeiter bei WD stellen der dies eingeführt hat. Vielleicht ist es, weil die Platten ja eine Datenverschlüsselung ermöglichen und es so besser zu implementieren ist. Man braucht ja im Prinzip nur noch den Schlüssel zu verschlüsseln mit dem die Daten sowieso verschlüsselt sind und muss nicht alle Daten neu verschlüsseln, wenn diese Verschlüsselung vom User aktiviert wird oder der User seinen Schlüssel ändert. Dazu könnte WD, wenn sie die Schlüssel für alle Fertigungslose gespeichert haben, die Daten selbst immer noch retten, auch wenn der Kunde sein Passwort vergessen hat. Aber ist nur meine Vermutung, ich haben die Verschlüsselung bei meinen MyBook nie aktiviert und kann daher auch nicht sagen wie lange es dauert, aber wenn es nur ein Augenblick ist und die Platte danach nicht ewig rumrödelt um die ganzen Daten zu verschlüsseln, würde dies für meine Vermutung sprechen.

Ja, weswegen es zur Datenrettung, falls man überhaupt von Rettung sprechen könnte, aber wegen der Verbindungsprobleme scheint es ja so zu sein, vielleicht besser ist zu warten, bis ich eine neue Platte habe, damit ich sofot nach anschließen der betroffenen Platte die Daten kopieren kann.
Das Kopieren könnte aber auch Probleme machen, wenn die Platte dann immer verschwindet. Ich vermute wie gesagt, dass es eher an der Spannungsversorgung als der Platte selbst liegt und würde daher empfehlen die Platte und am Besten den ganzen Schreibtisch möglichst nicht anzufassen, während die Daten kopiert werden und Gummimatten um Vibrationen zu vermeiden wären wohl auch eine gute Idee. Ziehe nach dem Anschließen aber aber bitte einen neuen Screenshot von CDI für die Platte und poste ihn hier. Wenn das Kopieren gekappt hat, kannst Du danach ja mal vorsichtig hier und da am Kabel des Netzteil wackeln und schauen ob die Verbindung dann weg ist.
 
Ja, das könnte durchaus hilfreich sein, auch für die Geräusche. Pass aber auf das es die Lüftung nicht zu sehr behindert.
Ja, mache ich, danke. Mich wundert, dass diese Luftauslässe bzw. Öffungen, vor allem die wenigen oder offenbar gar keine, die bei einigen alten Platten vorhanden sind, überhaupt zum Lüften genügen, da selbst etwa Platten wie Elements, MyBook von CID oft mit über 50° angezeigt werden, glaube, auch 56, 57" werden durchaus erreicht, ich nehme an, dass diese Temperaturen auch tatsächlich stimmen. Das wird vielleicht nur deren Haltbarkeit verkürzen, sie sind bestimmt für diese Temperaturen ausgelegt bzw. jedenfalls einsetzbar, für eine gewisse Zeit jedenfalls, ohne Schaden zu nehmen.

Das Kopieren könnte aber auch Probleme machen, wenn die Platte dann immer verschwindet.

Ja, das befürchte ich auch. Vielleicht lässt sich eine Position, etwa durch drehen, seitliches bewegen des Steckers in der Buchse, Lage, bewegen des Kabels etc. finden, die das Verschwinden ausbleiben ließe. Welche Auswirkungen beim Versuch vorteilhafte Positionen etc. zu finden verkraftet so eine Platte denn? Also wie oft, schnell hintereinander kann eine Platte ein-, abschalten, ohne dass es ihr schadete?

Ich vermute wie gesagt, dass es eher an der Spannungsversorgung als der Platte selbst liegt und würde daher empfehlen die Platte und am Besten den ganzen Schreibtisch möglichst nicht anzufassen, während die Daten kopiert werden und Gummimatten um Vibrationen zu vermeiden wären wohl auch eine gute Idee.

Ja, danke, werde ich so machen.

Ziehe nach dem Anschließen aber aber bitte einen neuen Screenshot von CDI für die Platte und poste ihn hier. Wenn das Kopieren gekappt hat, kannst Du danach ja mal vorsichtig hier und da am Kabel des Netzteil wackeln und schauen ob die Verbindung dann weg ist.
Ja, dann ist die Platte ja nicht mehr so wichtig. Ja, werde ich hier auf jeden Fall posten.

Ließe sich ggf. dieses sogenannte Universalnetzteil für die Platte verwenden? Oder könnte grundsätzlich etwas dageben sprechen, etwa gewisse Ungenauigkeiten bei Spannung oder so was? Einer der Stecker passt (körperlich) in die Buchse der Platte, die Polung kann umgestellt werden:
R7fzwIc.jpeg
 
Welche Auswirkungen beim Versuch vorteilhafte Positionen etc. zu finden verkraftet so eine Platte denn? Also wie oft, schnell hintereinander kann eine Platte ein-, abschalten, ohne dass es ihr schadete?
Das kann man schwer sagen, HDDs sind da ein wenig die Boxer, die können auch eine Menge Schläge einstecken und dann liegen sie vielleicht doch plötzlich auf der Matte, obwohl der letzte Schlag des Gegners vielleicht gar nicht der härteste war.

Ließe sich ggf. dieses sogenannte Universalnetzteil für die Platte verwenden?
Nein, erstens hat dies nur 300mA und reicht damit bei weitem nicht, dann sind die Spannungen bei diesen umschaltbaren Universalnetzteile oft recht ungenau, die würde ich eher nicht nehmen. Probiere es mal mit einem der 1,5A Netzteile einer der anderen USB Platten, die haben mit 1,5A zwar auch weniger als die 2A die Seagate für den Anlaufstrom der ST8000DM004 angibt, aber meist geben sie auch etwas mehr ab und vielleicht haben die ST8000DM004 die in USB Gehäusen landen auch weniger Anlaufstrom, was per FW angepasst werden kann und zwar dazu führt das sie länger zum Anlaufen brauchen, aber durchaus gemacht wird. Ich würde es mal ausprobieren und bei der Gelegenheit, wenn die Platte damit anläuft, dann auch die richtigen S.M.A.R.T. Werte mit CDI ziehen, damit man endlich mal weiß wie es um die Platte bestellt ist und ob das Problem mit dem Verschwinden denn wirklich am Netzteil oder seinem Kabel / Stecker liegt. Dann weißt Du wie es wirklich um die Platte bestellt ist und wenn sie mit dem anderen Netzteil nicht verschwindet, welches Netzteil Du beim Kopieren der Daten verwenden solltest, wenn dann die andere USB Platte ankommt.
die Polung kann umgestellt werden:
Steht die Polung einmal falsch, haut es Dir zumindest die 12V Schutzdiode der HDD raus und die Platten läuft gar nicht mehr und wenn man sie dann intern in einem PC ansteckt, stinkt und qualmt es meistens auch noch.
 
Das kann man schwer sagen, HDDs sind da ein wenig die Boxer, die können auch eine Menge Schläge einstecken und dann liegen sie vielleicht doch plötzlich auf der Matte, obwohl der letzte Schlag des Gegners vielleicht gar nicht der härteste war.
Also eher vorsichtig walten.

OK, werde ich alles so machen (vielleicht lässt sich ja auch ganz einfach kopieren und die Spannungsversorgung ist wie sie sein soll).

Vielen Dank!
 
Ja, Vorsicht ist immer gut. Ich würde es wie gesagt mit einem der 1,5A Netzteile einer der anderen USB Platten probieren, die Chance ist auf jeden Fall nicht so schlecht das es klappt. Dabei halt ein Ohr in der Nähe der Platte haben und auf die Geräusche achten, bricht die Drehzahl beim Hochfahren plötzlich ein, dann reicht der Strom nicht und man sollte das Netzteil wieder abziehen. Fährt sie hoch und wird vom Rechner erkannt, manche fahren ja nicht einmal hoch wenn sie nicht per USB verbunden sind, dann kannst Du die S.M.A.R.T. Werte auslesen und wenn die in Ordnung sind, kannst Du ja mal schauen ob das mit dem Verschwinden immer noch auftritt. Dann weißt Du auch ob wirklich eine Datenrettung ansteht wenn die neue USB Platte kommt oder nur das Anlegen eines Backups, welches es ja offenbar derzeit nicht gibt.
 
Ja, werde ich so machen, danke.

Die Platte ist zu einem Teil für Backups verwendet, vielleicht zur Hälfte. Aber eben auch für originale Dateien, die zwar nicht lebenswichtig sind, aber zu verlieren überhaupt nicht schön wäre bzw. wäre es ein beachtlicher Fehler gewesen wegen nicht vorhandener Sicherungsplatten Daten zu verlieren. Zwei, drei neue mindestens 20 TB-Platten müssen sowieso her. Allein ist die Handhabung ja schon so viel angenehmer, nicht alle möglichen Daten auf kleine (vor allem auch schon ältere) Platten verstreut zu haben. Und eben auch schon für die Datensicherung.

Ja, wäre natürlich gut zu wissen, ob es eine "Datenrettung" wird oder ein schlichtes Kopieren, Bei letzterem würde ich sie jederzeit noch einmal so anschmeißen, aber im ungünstigen Falle wäre es eben gut möglichst viele Daten retten zu können.
 
Nochmal allgemein zum Verständnis:

Bei Consumer-Platten wie der ST8000DM004 kommen zwei Dinge zusammen:
1. Teilkontaktbetrieb. Das ermöglicht zwar kleinere Kopfabstände und damit höhere Datendichten, führt aber auch zu gewissen Mengen an Abrieb (der hoffentlich zentrifugal weggeschleudert wird und im Filter landet), weswegen solche Platten fleißig bei jeder Gelegenheit die Köpfe parken und nicht für den Dauerbetrieb freigegeben sind.
2. SMR. Die überlappenden Spuren ermöglichen wiederum eine höhere Datendichte. Dies führt aber zu Flash-ähnlichen Eigenheiten (Schreiben in Blöcken etc.), welche ganz schön auf die Performance gehen können. Eine TRIM-Unterstützung bietet dieses Modell leider anscheinend noch nicht.

In Summe sind das dann die günstigsten Platten mit den wenigsten Plattern und am kühlsten / leisesten bei gegebener Kapazität, was ja an sich durchaus erwünschte Eigenschaften sind.

Nur ist sowas als Backup-Platte eher ungünstig, nachdem dort öfter mal größere Datenmengen überschrieben werden.
Noch schlimmer wird es, wenn man sie törichterweise (oder schlicht aus Unkenntnis) als Systemplatte einsetzt. Eine ST2000DM008 hat hier kaum ein Jahr bis zu den ersten Datenfehlern durchgehalten...

Für eine Backup-Platte würde ich sagen: Teilkontaktbetrieb durchaus ja, SMR lieber nicht.
 
Bei Consumer-Platten wie der ST8000DM004 kommen zwei Dinge zusammen:
1. Teilkontaktbetrieb. Das ermöglicht zwar kleinere Kopfabstände und damit höhere Datendichten
Den Teilkontaktbetrieb haben seit mehr als 10 Jahren alle HDD, nur die 2.5" Enterprise HDDs mit 10.000 und 15.000rpm haben den nie gehabt, deren Kapazitäten waren aber auch nicht so hoch, weil deren Datendichte eben nicht so hoch war und die sind inzwischen ausgestorben, weil sie komplett von SSDs verdrängt wurden. Man bekommt also schon länger keine neue HDD ohne den Teilkontaktbetrieb mehr, aber die Oberflächen sind entsprechend beschichtet und geschmiert um Abrieb zu vermeiden. Seit der Einführung des Teilkontaktbetriebs gibt es übrigens auch ein Workload Rating für HDDs und auch die Exos X20 oder neuste Ultrastar haben alle ein Workload Rating, denn die haben alle Teilkontaktbetrieb.

HDD HDI Head Disk Interface.png
HDD HDI Head Disk Interface 2.png

Das haben viele der einfachen Desktopplatten, eben WD Blue oder Seagate Barracuda, aber auch NAS Platten sind Consumer Platten und da haben es nur die WD Red, nicht aber die Red Plus oder Seagate IronWolf. Von daher ist diese Aussage so pauschal mal falsch.
Eine ST2000DM008 hat hier kaum ein Jahr bis zu den ersten Datenfehlern durchgehalten...
Definiere Datenfehler! Ein Lesefehler und damit in Folge schwebende Sektor ist in gewissen Rahmen normal und wie oft man damit rechnen muss, wird Form der UBER angegeben. Die einfachen Desktoplatten wie die ST2000DM008 haben eine UBER von 1:10^14, es muss also pro etwa 12TB gelesener Daten mit einem Lesefehler und schwebenden Sektor gerechnet werden und dies ist kein Defekt, sondern im Rahmen der Spezifikation der Platte normal. Ist die Vibrationen ausgesetzt, etwas weil noch andere HDDs im Gehäuse sind, dürfte es sogar häufiger passieren, denn wenn diese bei Schreibvorgängen auftreten kann der Kopf auf der Spur kommen und Daten auf der Nachbarspur überschrieben, die danach natürlich nicht mehr fehlerfrei lesbar sind, weil sie dann nicht mehr zur ECC passen die jede HDD hinter jedem Sektor hat.
 
Vielen Dank!

Nur ist sowas als Backup-Platte eher ungünstig, nachdem dort öfter mal größere Datenmengen überschrieben werden.
Weshalb? Eine Platte, auf der offenbar Daten nicht oder nicht gewissen Mengen überschrieben werden sollten käme mir irgendwie komisch vor.

Noch schlimmer wird es, wenn man sie törichterweise (oder schlicht aus Unkenntnis) als Systemplatte einsetzt.
Also eine externe Platte also Systemplatte? Also als, wie ich denken würde, Platte, auf der das Betriebssystem installiert wäre? Wäre so eine Platte nicht zu langsam dafür?

Wofür könnte oder sollte man so eine Platte dann also überhaupt nehmen, wenn nicht für Backups und als Systemplatte?

Eine ST2000DM008 hat hier kaum ein Jahr bis zu den ersten Datenfehlern durchgehalten...
Meine ca. vor drei Jahren gekaufte externe 10 TB WD-Platte läuft gottseidank offenbar noch fehlerfrei, also aus Sicht eines ahnungslosen Nutzers jedenfalls.
 
Weshalb? Eine Platte, auf der offenbar Daten nicht oder nicht gewissen Mengen überschrieben werden sollten käme mir irgendwie komisch vor.
Weil SMR wie Flashspeicher nur blockweise neu beschrieben werden kann. Wird also eine Datei neu geschrieben, müssen alle Blöcke mit den von ihre belegten Sektoren gelesen, geändert und wieder geschrieben werden. Und eine Festplatte hat dabei noch ganz klassisch mit dem Thema Zugriffszeiten zu kämpfen. Eine Betriebssystem-Installation mit ihren Registry- und Logdateien ist da das reine Gift.
Also eine externe Platte also Systemplatte? Also als, wie ich denken würde, Platte, auf der das Betriebssystem installiert wäre? Wäre so eine Platte nicht zu langsam dafür?
Das war in dem Fall eine interne, die eine malade 1-TB-Platte von 2011 in einem Core 2 Duo ablösen sollte. Das war so 2018, da war die Serie gerade erst erschienen, und von SMR wußte ich damals noch nichts. Heute würde man das natürlich nicht mehr machen und gleiche eine SSD nehmen. Habe ich dann am Ende auch gemacht und eine MX500 2 TB verbaut. Die läuft heute noch im Nachfolgerechner.
Wofür könnte oder sollte man so eine Platte dann also überhaupt nehmen, wenn nicht für Backups und als Systemplatte?
Für irgendwas, wo primär nur Daten dazukommen, dann aber nicht mehr groß geändert werden. Also vielleicht so Sachen wie inkrementelle Backups oder Download-, Foto- und andere Archive.

Aber die Frage ist berechtigt. Die Anzahl von SMR-Platten am Markt ist auch schon wieder auch deutlich zurückgegangen, eben weil sie nicht annähernd universell einsetzbar sind.
 
Weil SMR wie Flashspeicher nur blockweise neu beschrieben werden kann. Wird also eine Datei neu geschrieben, müssen alle Blöcke mit den von ihre belegten Sektoren gelesen, geändert und wieder geschrieben werden. Und eine Festplatte hat dabei noch ganz klassisch mit dem Thema Zugriffszeiten zu kämpfen. Eine Betriebssystem-Installation mit ihren Registry- und Logdateien ist da das reine Gift.

Wieso? Was bewirkt die? Klingt irgendwie so, als wäre so eine SMR-Festplatte desaströs konzipiert, entwickelt.

Das war in dem Fall eine interne, die eine malade 1-TB-Platte von 2011 in einem Core 2 Duo ablösen sollte. Das war so 2018, da war die Serie gerade erst erschienen, und von SMR wußte ich damals noch nichts. Heute würde man das natürlich nicht mehr machen und gleiche eine SSD nehmen. Habe ich dann am Ende auch gemacht und eine MX500 2 TB verbaut. Die läuft heute noch im Nachfolgerechner.
Das über die Maßen Erstaunliche für mich ist, dass ich wohl tatsächlich nicht einmal einen Unterschied, der ja beträchtlich sein müsste - nach meiner laienhaften Vorstellung jedenfalls - in der Leistung des Computers erkenne bei Nutzung einer SSD anstelle einer normalen 2,5". Bzw. anders ausgedrückt, für die offenbar beachtlich höhere Geschwindigkeit einer internen SSD (für das Betriebssystem) im Vergleich zu einer normalen internen 2,5"-Platte scheint die Leistung des Computers nur nicht oder kaum oder lächerlich gering höher zu sein. Jedenfalls meine ich zu erinnen, dass das Notebook nach Austausch der normalen 2,5" mit einer SSD für mich nicht merkbar besser / schneller lief.

Für irgendwas, wo primär nur Daten dazukommen, dann aber nicht mehr groß geändert werden.
Das klingt ja nach einer radikalen Einschränkung.
 
Die Anzahl von SMR-Platten am Markt ist auch schon wieder auch deutlich zurückgegangen, eben weil sie nicht annähernd universell einsetzbar sind.
Woran machst Du das fest? Nur daran das die großen Kapazitäten kein SMR haben (außer den Enterprise Modellen mit Host Managed SMR die man aber nicht im normalen Handel findet)? Bei den 2.5" und den 3.5" Desktop HDDs wüsste ich nicht welche Modelle mit SMR da einen Nachfolger ohne SMR bekommen hätten und das beide so langsam aussterben, weil die SSDs ihnen das Wasser abgraben, würde ich nicht als Hinweis auf einen Rückgang von SMR Platten betrachten.

Was bewirkt die? Klingt irgendwie so, als wäre so eine SMR-Festplatte desaströs konzipiert, entwickelt.
Das liegt an den überlappenden Spuren, bei denen kann der Schreibkopf nicht ein einzelne Spur überschreiben, sondern immer nur zwei auf einmal und deshalb müssen alle Daten erst gelesen werden, dann werden die geänderten Daten überschrieben, was eben auch die Daten der Nachbarspur überschreibt, deren Daten müssen dann wieder zurückgeschrieben werden usw. bis der ganze Bereich der überlappenden Spuren dann neu geschrieben ist. Keine Ahnung wie viele Spuren sich da jeweils überlappen, aber dazwischen gibt es Lücken damit sich das nicht endlos fortsetzt. Google einfach mal zu SMR, da findet sich einiges was die Funktionsweise beschreibt.
 
Okay, diese Vorgehensweise klingt ja komisch, vor allem eben auch so, als kostete sie tatsächlich viel Zeit, aber wird ja vemutlich einen Sinn haben, etwa Kostenreduzierung.
 
Der Sinn ist die Datendichte zu erhöhen indem man eben die Spuren weniger breit macht, nicht mal mehr breit genug das der Schreibkopf eben nur eine Spur beschreiben kann. Schreibköpfe müssen im Prinzip größer als Lesekopfe sein um genug Energie zur Ummagnetisierung aufbringen zu können, während beim Lesen kleinere Köpfe reichen um die Magnetisierung zu erkennen. Mit SMR konnte man 2TB pro 3.5" Platter erreichen lange bevor dies ohne SMR ging und jeder Platter kostet eben Geld, weshalb die billigen, einfach Desktopplatten wie die WD Blue oder Seagate Barracuda eben SMR bekommen haben dürften, da man damit einen Platter einsparen konnte, was bei 2TB Modellen, wo man dann nur einen Platter statt zwei, oder bei 4TB wo es dann nur zwei statt Platter sind, eben prozentual eine Menge ausmacht.

Bei 2.5" ist es ähnlich, da sind 1TB pro Platter auch nur mit SMR möglich, inzwischen dürfte es auch ohne SMR gehen, aber meines Wissens nach hat sich kein Hersteller mehr die Mühe gemacht solche HDDs zu entwickeln. Dazu kommt bei 2.5" das die früher übliche Bauhöhe von 9,5mm ausgestorben ist und es neben den 15mm Höhe nur noch 7mm wie bei SSDs gibt, höhere Platten bekommt man in den meisten Notebooks in den letzten 10 Jahren kaum noch eingebaut. Inzwischen sind 2.5" Einbauplätze bei Notebooks wohl schon mehr oder weniger komplett durch M.2 Slots verdrängt worden,. aber damals waren eben 2TB in 7mm Bauhöhe, was halt gerade mal 2 Platter erlaubt, dann nur mit SMR machbar und bei 1TB 2.5" HDDs konnte man dann wieder einen Platter und damit einiges an Kosten einsparen, zumal wenn man dann die gleichen Platter und Köpfe wie bei den 2TB Modellen verwendet und nicht auch noch unterschiedliche 2.5" Platter produzieren muss.
 
Also eigentlich gar keine schlechte Idee (mit Geschwindigkeitsverlust und Ineffizienz und Verringung der Lebensdauer offenbar) seinerzeit, jedenfalls in gewisser Hinsicht. Aber als Endverbraucher also wohl besser ohne SMR.
 
Von einer Verringerung der Lebensdauer wäre mir nichts bekannt und der Geschwindigkeitsverlust ist ja nur beim Schreiben und auch nur beim Schreiben kleiner Dateien, wenn man so eine Platte neu hat und z.B. mit h2testw testet, dann ist die Schreibgeschwindigkeit nur geringfügig schlechter als die Lesegeschwindigkeit. Außerdem haben die Consumer SMR HDDs auch alle eine Media Cache, also einen Bereich von einigen GB mit normalen PMR Spuren in die geschrieben wird und im Idle kopiert der Controller diese Daten dann auf ihre endgültige Position um. Dies erlaubt bei schreiben kleiner Dateien sogar besser Schreibraten als bei einer normalen PMR HDD, da die Daten ja in diesem Bereich in einer zufälligen Reihenfolge geschrieben werden können, weshalb die SMR Platten für normale Desktop Workloads, wo ja normalerweise eben nicht dauernd viel geschrieben wird, durchaus geeignet sind.

Für Backups sind sie eben solange geeignet, wie man z.B. Images anlegt und damit lange sequentielle Schreibzugriffe macht, wenn man aber Dateiweise (z.B. mit FreeFileSync oder sowas) Backups man und dies nicht zu oft und dann haben sich viele kleine Dateien geändert, kann es plötzlich sehr langsam werden, wenn diese Media Cache dann voll ist. Natürlich sollte man der Backupplatte danach noch eine Weile im Idle gönnen, bevor man sie mit Hardware sicher entfernen abmeldet und entfernt, damit der Controller eben den Media Cache leeren kann und der nicht schon voll ist, bevor man mit dem Synchronisieren anfängt.

Datenverschlüsselung kann die Schreibperformance von SMR Platten übrigens auch richtig in den Keller bringe, vermutlich weil dadurch lange sequentielle Schreibzugriffe in kleinere aufgeteilt werden. Da muss man sich dann also nicht wundern wenn es echt extrem lahm wird.
 
Dachte in meiner laienhaften Vorstellung, bei der Menge an Daten, die wegen SMR mehr geschrieben werden müssten, wäre das eine plausible Folge. Ebenso, dass die Schreibgeschwindigkeit doch erheblich leiden müsste wegen der zusätzlichen Menge an Daten., die geschrieben werden müssten, als es ohne SMR sein müsste, dass sie sich nur geringfügig verschlechtert, hätte ich nicht gedacht.. Offenbar verringert sich die Geschwindigkeit, falls meine Beobachtungen richtig wären jedenfalls, vielleicht waren auch andere Fakktoren ursächlich, glaube ,ich las es auch schon öfter, ab einer gewissen Datenmenge zunehmend je mehr Daten auf sie kommen. Und wenn dazu noch der Geschwindigkeitsverlust wegen des SMR hinzukäme, könnte sich das ja ganz schön negativ auswirken.

Für Backups sind sie eben solange geeignet, wie man z.B. Images anlegt und damit lange sequentielle Schreibzugriffe macht, wenn man aber Dateiweise (z.B. mit FreeFileSync oder sowas) Backups man und dies nicht zu oft und dann haben sich viele kleine Dateien geändert, kann es plötzlich sehr langsam werden, wenn diese Media Cache dann voll ist. Natürlich sollte man der Backupplatte danach noch eine Weile im Idle gönnen, bevor man sie mit Hardware sicher entfernen abmeldet und entfernt, damit der Controller eben den Media Cache leeren kann und der nicht schon voll ist, bevor man mit dem Synchronisieren anfängt.
Ja, wie es bei mir eben offensichtlich ständig beim Synchronisieren mit Programmen wie FreeFileSync pasiert. Oder auch beim Kopieren / Verschieben mit anderen Programmen. Aber das kann man schon kaum mehr als sehr langsam bezeichnen, über längere Zeit, vielleicht Dutzende von Minuten, nund das auch mehr als einmal pro selber Synchronisation, werden laut Anzeige, etwa von FreeFileSync, gar keine Datein übertragen, irgendwann geht es dann einfach weiter.

Das heißt, wird die Platte nicht sicher entfernt, kann es sein, dass der Media Cache nicht oder nur teilweise geleert wird, die verbleibenden Daten würden dann beim nächsten Kontakt mit der Platte geleert? Gingen also nicht gänzlich oder teilweise verlorgen oder defekt? Falls das so wäre, dann müsste der Media Cache ja solange zu einem Teil oder sogar ganz gefüllt bleiben, bis die Ausgangsplatte wieder angeschlossen würde. und somit für andere Transfers nur zu einem Teil genutzt werden können. Das sichere Entfernen geht mitunter auch Stunden Wartezeit nicht, wenn kein Programm auf die Platte zugreift.
 
Ebenso, dass die Schreibgeschwindigkeit doch erheblich leiden müsste wegen der zusätzlichen Menge an Daten., die geschrieben werden müssten, als es ohne SMR sein müsste, dass sie sich nur geringfügig verschlechtert, hätte ich nicht gedacht..
Wie weit die Schreibperformance fällt, hängt immer von den Umständen ab. Das mit den Spuren bei SMR Platte ist ein wenig wie bei Dachziegeln, wo die Regeln eben sind, dass man in der obersten Reihe jeden Ziegel einfach so tauschen (was dann dem Überschreiben eines Sektors entsprechen würde) kann, wenn man aber nur einen Ziegel der zweiten Reihe tauschen will, dann muss man die ganze oberste Reihe aufnehmen und danach wieder hinlegen. Tauschen ist vielleicht eine schlechte Analogie, ersetzen weil er runtergefallen ist wäre wohl besser, denn wenn man neben eines Ziegels der zweiten Reihe auch die oberste ersetzen will, braucht man keine Ziegel aufzunehmen (also nichts einzulesen) und kann auch einfach alle Ziegel legen.

Entsprechend kann man eben auch das ganze Dach einfach so legen, also den ganzen Bereich aller überlappenden Spuren auf einmal so schnell überschrieben wie bei einer PMR Platte, aber wehe man will eben nur einen Ziegel der untersten Reihe an der Traufe ersetzen, dann dauert es eben lange. Es ist also sehr unterschiedlich wie stark SMR die Schreibperformance bremst.

Offenbar verringert sich die Geschwindigkeit, falls meine Beobachtungen richtig wären jedenfalls, vielleicht waren auch andere Fakktoren ursächlich, glaube ,ich las es auch schon öfter, ab einer gewissen Datenmenge zunehmend je mehr Daten auf sie kommen.
Das HDDs langsamer werden je voller sie werden liegt daran das auf den äußeren Spuren ja der Umfang größer ist und daher dort mehr Sektoren auf eine Spur passen. Da die Zeit für eine Umdrehung immer gleich ist, passieren also mehr Daten in der gleichen Zeit unter den Leseköpfen bzw. können eben vom Schreibkopf geschrieben werden. Zwischen den innersten und den äußersten Spuren liegt da etwa Faktor 2 und dies hat mit SMR nichts zu tun.

werden laut Anzeige, etwa von FreeFileSync, gar keine Datein übertragen, irgendwann geht es dann einfach weiter.
Also ich nutze FreeFileSync nicht selbst, aber würde mal vermuten das FreeFileSync dann schaut welche Dateien es überhaupt kopieren muss und dies dauert eben gerade bei HDDs halt zuweilen länger, zumal wenn sie wenig geändert hat.

Das heißt, wird die Platte nicht sicher entfernt, kann es sein, dass der Media Cache nicht oder nur teilweise geleert wird, die verbleibenden Daten würden dann beim nächsten Kontakt mit der Platte geleert?
Das Sicher entfernen sollte man machen damit die Platte weiß das gleich die Spannungsversorgung unterbrochen wird, sie also Hintergrundaktivitäten wie das Leeren des Media Caches einstellen und die Köpfe parken kann. Wird der Platte aber keine Gelegenheit gegeben den Media Cache zu leeren, dann kann man beim nächsten mal halt weniger Daten schnell schreiben.

Gingen also nicht gänzlich oder teilweise verlorgen oder defekt?
Der Media Cache ist ja ein normaler PMR Bereich auf der HDD, die Daten dort gehen also nicht verloren, wenn plötzlich die Spannungsversorgung unterbrochen wird. Sowas ist aber generell nicht gut für HDDs und daher empfehle ich auch immer das Hardware sicher entfernen zu verwenden.

Das sichere Entfernen geht mitunter auch Stunden Wartezeit nicht, wenn kein Programm auf die Platte zugreift.
Es kann schon reichen wenn ein Explorer offen ist der ein Verzeichnis auf der Platte anzeigt. Um zu sehen was es ist, kann man das Tool handle verwenden:

 
Der Media Cache ist ja ein normaler PMR Bereich auf der HDD, die Daten dort gehen also nicht verloren, wenn plötzlich die Spannungsversorgung unterbrochen wird.
Aber solange der Media Cache nicht vollständig entleert ist oder gar gut gefüllt ist mit Daten für eine (gerade nicht angeschlossene) Festplatte, dauern die Transfers / Synchronisationen grundsätzlich länger, bis diese Daten auf die Platte, zu denen sie gehören geschrieben wurden?

Es kann schon reichen wenn ein Explorer offen ist der ein Verzeichnis auf der Platte anzeigt. Um zu sehen was es ist, kann man das Tool handle verwenden:
Vielen Dank für den Link. Bei starten der exe erscheint so ein DOS-Fenster, in dem Zeilen nach oben laufen, dann schließt sich das Fenster. Man könnte also nur sehr eingeschränkt, flüchtig lesen. Wie kann man das Fenster offen halten?
 
Aber solange der Media Cache nicht vollständig entleert ist oder gar gut gefüllt ist mit Daten für eine (gerade nicht angeschlossene) Festplatte, dauern die Transfers / Synchronisationen grundsätzlich länger, bis diese Daten auf die Platte, zu denen sie gehören geschrieben wurden?
Das ist klar, wenn der voll oder teilweise voll ist, dann steht es nicht bzw. eben nur zum Teil zur Verfügung, weshalb man SMR Platten nach Schreibvorgängen etwas Zeit im Idle gönnen sollte oder eben bevor man dann wieder etwas darauf schreibt, wenn nach dem letzten Backup dafür keine Zeit geblieben ist.

Wie kann man das Fenster offen halten?
Das ist eine DOS Anwendung, die muss man in einer Eingabeaufforderung öffnen.
 
Hier also das Foto von den Daten der (vermeintlich) defekten Platte:
6MIXKMo.png



Crystal zeigt also erstmal einen völlig anderen / sozusagen den gegenteiligen Zustand (von "Bad") an, als zuvor. Trotzdem stimmt mit der Platte offenbar etwas nicht, allein das Löschen wird vom Sync-Programm gegenwärtig mit 0,5 Elementen / Sek. angezeigt, ist also extrem langsam. 524 GB freier Speicherplatz gerade.
 
Zuletzt bearbeitet:
Ist es auch dieselbe Platte? Denn PowerOn mit + 8000h bei unter 2 Monaten ist schon sehr gewagt und auch paar andere Werte stimmen wohl auch nicht mehr überein. Am besten lösche, falls vorhanden, den Inhalt aus \CrystalDiskInfo\Smart-Ordner und lass es komplett neu bilden.
 
Ja, ist dieselbe, wurde, wie Holt vermutete, offenbar falsch eingelesen, Daten von einer anderen Platten angezeigt. Startete Crystal jetzt erst, nach dem die Platte angeschlossen wurde.

Crystal noch mal beendet, neu gestartet, Anzeige mit F6 aktualisiert:
2vjXDTG.png


Kopierte gerade mal eine 1,5 GB-Datei und danach eine 2,2 GB-Datei von N: zu einer anderen externen Platte, das ging wie es wohl sein soll, mit ca. 115, 120 MB / Sek.
Beitrag automatisch zusammengeführt:

Hier die Daten von SeaTools:
RaWxuF4.png


8HBOGW8.png


Free Space mit 8 TB angegeben, obwohl die gar nicht frei sind.

Die1VH2.png


NSjnA9b.png


Test laufend:
77eOa1p.png
 
Zuletzt bearbeitet:
Trotzdem stimmt mit der Platte offenbar etwas nicht, allein das Löschen wird vom Sync-Programm gegenwärtig mit 0,5 Elementen / Sek. angezeigt, ist also extrem langsam.
Die ST8000DM004 hat SMR und dies kann gerade bei kurzen zufälligen Schreibzugriffen wie denen auf die Verwaltungsdaten des Filesystems eben zu einer sehr geringen Schreibperformance führen.

Kopierte gerade mal eine 1,5 GB-Datei und danach eine 2,2 GB-Datei von N: zu einer anderen externen Platte, das ging wie es wohl sein soll, mit ca. 115, 120 MB / Sek.
Die Leseperformance wird von SMR nicht beeinträchtigt.

Das einzige was an den S.M.A.R.T: Werten auffällt ist das Attribut BB, aber was dies genau für unkorrigierbare Fehler sind, weiß ich nicht und wenn Seatools die als Gut ansieht, sind es ja offenbar auch keine so gravierenden Fehler.

Ist es auch dieselbe Platte? Denn PowerOn mit + 8000h bei unter 2 Monaten ist schon sehr gewagt und auch paar andere Werte stimmen wohl auch nicht mehr überein.
Die Werte im ersten Post dürften nicht zur dieser Platte gehören, denn die passen nicht zu seiner Seagate HDD, wie ich damals schon schrieb:
: Manchmal bringt CDI die Werte durcheinander wenn man unterschiedliche HDDs mit dem gleichen Laufwerksbuchstaben gewechselt hat und nur F5 statt F6 drückt.
 
Die ST8000DM004 hat SMR und dies kann gerade bei kurzen zufälligen Schreibzugriffen wie denen auf die Verwaltungsdaten des Filesystems eben zu einer sehr geringen Schreibperformance führen.
Aber doch bestimmt nicht zu einer, wie dieser, die so eine Platte unbrauchbar machte, oder? Da wäre die Platte ja offenbar völlig fehlkonstruiert, sinnlos. Vor allem war die Platte ja mal schneller. Auch werden große Dateien, 1, 1,5 GB ja auch langsam übertragen auf die Platte, etwa mit 1 bis 3 MB / Sek.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh