Prüfen nach Prüfsumme und Dateiinhalt einer kopierten Datei unzuverlässig?

Pixell

Neuling
Thread Starter
Mitglied seit
16.08.2015
Beiträge
405
Habe gelesen, daß das Prüfen nach Prüfsumme und Dateiinhalt einer kopierten / verschobenen Datei auf einer Festplatte oder auf eine andere Festplatte unzuverlässig sein soll, da bei der Überprüfung der Dateien die sich (noch) im internen Buffer / Speicher einer Festplatte gespeicherten Dateien überprüft würden und nicht die auf der Zielfestplatte (physische) transferierte Datei. Stimmt das?

Falls ja, wie könnte man ansonsten einfach, mit möglichst wenig Aufwand überprüfen, ob alle Dateien fehlerfrei transferiert werden?

Wie groß ist so ein Buffer / Speicher einer Festplatte? Wieviel Dateien könnten in ihm gespeichert sein?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja das ist korrekt, da Windows wie eigentlich alle modernen Betriebssystem sonst unbelegtes RAM als Diskcache nutzt. Aber da die Korruption von Dateien weit überwiegend sowieso im RAM passiert, wenn man kein ECC RAM hat was man unbedingt haben sollte wenn man sich Sorgen um Datenkorruption macht, ist es auch nicht so unsinnig die Daten über Prüfsummen zu vergleichen, denn wenn ein RAM Fehler diese korrumpiert hat, steht die veränderten Daten auch so im RAM.

Außerdem können Daten vor allem auf den internen Datenpfaden der Platten (vor allem ihrem Cache) korrumpiert werden, Enterprise SSDs und HDDs haben einen Schutz davor, Consumerlaufwerke meist nicht. Einige Seagate Consumer HDDs haben aber ein Attribut B8 "Ende-zu-Ende Fehler", was zumindest auf eine Erkennung solche Fehler hinweist. So eine HDD ist einer die kein solches S.M.A.R.T. Attribut hat dann schon mal vorzuziehen. Bei der Übertragung werden die Daten übrigens mit einer CRC gesichert und daher Fehler sehr zuverlässig erkannt und auch im S.M.A.R.T. Attribute C7 angezeigt. Auf dem Medium haben HDDs wie SSDs immer eine ECC und da ist die Rate der unentdeckten vernachlässigbar gering, da es extrem unwahrscheinlich ist, dass zufällig falsche Bit entstehen die dann noch zur ECC passen und wenn sie nicht passen, was ungleich wahrscheinlicher ist, dann gibt es einen Lesefehler und man hat danach einen schwebenden Sektor, die Daten werden also nicht falsch geliefert.

Wer sich also Sorgen um Slient-Data-Corruption macht, der fängt zuerst einmal mit ECC RAM an und natürlich einer CPU und einem Board welches dieses auch unterstützen, sonst funktioniert die Korrektur von Single-Bit Fehlern und Erkennung von Doppelfehlern ja nicht. Dazu sollte auch ein OS benutzt werden, welches diese ebenfalls unterstützt und dann z.B. bei erkannten aber nicht korrigierbaren Fehlern eine Kernelpanik auslöst um die Weitergabe korrupter Daten zu verhindern.

Das ist auch ein Grund warum die Microserver wie der HP N54L, der leider neu kaum noch zu haben ist, dessen Nachfolger HP Microserver G8 oder den Dell PowerEdge T20, obwohl auch das Modell schon ausgelaufen zu sein scheint, als Heimserver und NAS Alternative gerade bei den Leuten beliebt sind, die diese Problematik kennen. Die haben alle eine ECC RAM Unterstützung und waren teils sehr günstig zu haben, teils günstiger als die günstigsten 4 Bay-NAS bei denen man weder ECC RAM noch auch nur einen Bruchteil der CPU Performance oder des RAMs bekommen hat.
 
Ich kenne mich mit alledem leider überhaupt nicht aus, deshalb Verzeihung für meine schlechte Auffassung.

Ja das ist korrekt, da Windows wie eigentlich alle modernen Betriebssystem sonst unbelegtes RAM als Diskcache nutzt. Aber da die Korruption von Dateien weit überwiegend sowieso im RAM passiert, wenn man kein ECC RAM hat was man unbedingt haben sollte wenn man sich Sorgen um Datenkorruption macht, ist es auch nicht so unsinnig die Daten über Prüfsummen zu vergleichen, denn wenn ein RAM Fehler diese korrumpiert hat, steht die veränderten Daten auch so im RAM.

Hmmm, wenn also die Korruption etwa auf der (oder durch die) Oberfläche der Zielplatte oder auf dem Weg dorthin vom RAM geschähe, käme das bei der Überprüfung eventuell nicht 'raus, es sei denn die Datei könnte paßte wegen ihrer zu großen Größe nicht in den RAM und müßte somit von der Zielplatte gelesen werden, könnte ich mir vorstellen. Wieso passiert Korruption eigentlich im RAM überwiegend? Also auch in einem intaktem oder nur in defekten? Habe meinen mit MemTest geprüft, kein Fehler angezeigt.
Das heißt also, bei insgesamt 4 GB RAM, von dem vielleicht 2,5 GB von anderen Programmen als etwa dem Synchronisationsprogramm, mit dem die Dateien geprüft werden sollen, und dem OS bereits gebraucht sind, bliebe dann nur ca. 1,5 GB als Speicher, den die Festplatte nutzte, in dem also eine Datei (oder mehrere?) gespeichert sein könnte, so daß wohl eine Datei, die größer ist als 1,5 GB von der Platte, auf der sie physisch vorhanden wäre, geprüft würde, weil sie eben nicht mehr in den RAM paßte? Heißt das auch, daß wenn ich erst mit einem Synch-Programm alle Dateien kopierte und danach erst alle Dateien auf Richtigkeit überprüfte, alle Dateien (originale Datei und Kopie) von der Platte gelesen würden, da sie ja nicht in den RAM passen? Somit wäre dann so eine Überprüfung auf jeden Fall zuverlässig?
Die Platte selber hat also anders als ich dachte, keinen eigenen Speicher / Buffer. Der einzige Speicher, den sie nutzt ist der RAM, und den entsprechend dem, was noch an RAM zur Verfügung steht.

Also, man sollte keinen ECC-RAM haben, verstehe ich das richtig? Wie kann ich feststellen, ob ich ECC-RAM habe, bzw. daß ich keinen habe? Der wird bei mir angezeigt:
gqSeiXJ.png


Außerdem können Daten vor allem auf den internen Datenpfaden der Platten (vor allem ihrem Cache) korrumpiert werden
Ach so, also gibt es doch noch einen Speicher (ein Cache ist glaube ich ein solcher), aber in dem werden keinen Dateien gespeichert?

Wer sich also Sorgen um Slient-Data-Corruption macht
Also wohl solche, die einfach unbemerkt bleibt, nehme ich an. Ist wohl noch eine andere Art der Korruption als die des sogenannten bit rot (falls ich die Bezeichnung richtig erinnere).

...der fängt zuerst einmal mit ECC RAM an und natürlich einer CPU und einem Board welches dieses auch unterstützen, sonst funktioniert die Korrektur von Single-Bit Fehlern und Erkennung von Doppelfehlern ja nicht. Dazu sollte auch ein OS benutzt werden, welches diese ebenfalls unterstützt und dann z.B. bei erkannten aber nicht korrigierbaren Fehlern eine Kernelpanik auslöst um die Weitergabe korrupter Daten zu verhindern.
Klingt ja danach, daß Win so etwas nicht bietet und klingt ja recht aufwändig das alles einzurichten und so als müßte man dazu einen neuen Computer beschaffen. Ah, verstehe, also es sollte ECC-RAM vorhanden sein zur Vermeidung von Korruption.

Wie oft kommt denn im allgemeinen so eine Korruption überhaupt vor (bei an sich intakten Computern, Bauteilen, Festplatten)? Habe davon noch nie etwas gehört, daß beim Kopieren, Verschieben einfach Dateien korrumpiert werden, ohne daß es darüber eine Meldung gibt.

Der Grund, aus dem ich überhaupt frage, ist, daß bei zwei Notebooks und verschiedenen (externen) USB-Platten (mehrere WD, 4TB, eine Seagate 5TB und weitere Platten) beim Kopieren / Verschieben von Dateien es zu Fehlern kam (außer beim Transfer auf der internen Platte, da habe ich bislang nie einen Fehler bemerkt, es waren also nur Kopien, die beschädigt waren, wenn von einer internen Platte auf eine externe oder auf einer externen oder von einer externen zu einer externen Platte transferiert wurde), die Kopie als beschädigt war. Es wurde nie eine Fehlermeldung ausgegeben. Beschädigte Dateien entstehen aber nicht immer, manchmal lassen sich vielleicht 200 GB ohne Fehler kopieren, manchmal gibt es bei 20 GB fehlerhafte Dateien.

Ich hätte nicht gedacht, daß so etwas überhaupt möglich ist, daß nicht einmal eine Fehlermeldung ausgegeben wird.

Außerdem können Daten vor allem auf den internen Datenpfaden der Platten (vor allem ihrem Cache) korrumpiert werden,
Wie groß ist denn so ein Cache? Aber der wird bestimmt keine Dateien speichern, sondern wohl anderes.

Bei der Übertragung werden die Daten übrigens mit einer CRC gesichert und daher Fehler sehr zuverlässig erkannt und auch im S.M.A.R.T. Attribute C7 angezeigt.
Was ist denn dieses "Attribute C7"? Wo finde ich das? Das heißt, etwa in CrystalDiskInfo kann ich sehen, ob Dateien korrumpiert wurden und welche? Verstehe ich bestimmt falsch.
Heißt das für diesen CRC, es ist für das Überprüfen keine oder kaum weitere Zeit nötig, da der CRC beim Lesen und beim Schreiben erzeugt werden kann, die Dateien also nicht extra gelesen werden müssen für diesen CRC? Aber diese Überprüfung gibt es eben nur bei diesen speziellen Platten, wenn ich recht verstehe. Wie kann man diese Platten denn erkennen? Also z.B. erkennen, ob WD Elements, MyBook, Seagate Expansion 5TB etc. diese Funktion haben? Mit Programmen wie CrystalDiskMark?
 
Wieso passiert Korruption eigentlich im RAM überwiegend?
Weil die Daten ohne ECC dort komplett ungeschützt sind, während sie auf dem Medium mit einer ECC gesichert werden, ebenso bei der Übertragung zwischen dem Host Controller und dem Controller der Platte. Außerdem sind RAM Fehler eben viele denken, , google hat dazu mal eine Analyse gemacht, die nutzen aber ECC RAM und was dort als correctable errors auftaucht, bleibt ohne ECC RAM natürlich unentdeckt und führt ggf. zu einem Problem:
Fehler müssen also auch nicht von Anfang an vorhanden sein, die können auch erst später auftreten.
Also auch in einem intaktem oder nur in defekten?
Es gibt zwei Arten von RAM Fehlern, hard-errors und soft-errors, die hard-errors treten bei einem bestimmten Zugriffsmuster auf bestimmte Adressen immer auf, zumindest bei gleichen Einstellungen und können daher auch mit Testprogrammen wie Memtest86+ erkannt werden, die soft-errors sind spontan kippende Bits, die treten meist durch Strahlung auf, z.B. elektromagnetische, kosmische oder (natürliche) radioaktive Strahlung und findet man mit den Testprogramm praktisch nicht, da diese Programme alle die RAM Bereiche beschrieben und gleich darauf wieder lesen, da bleibt nur wenig Zeit für ein Bit um spontan zu kippen. Daher kann praktisch nur ECC RAM solche Fehler anzeigen.
Habe meinen mit MemTest geprüft, kein Fehler angezeigt.
Welches Memtest? Das Memtest von HCI welches unter Windows läuft ist komplett unsinnig, denn Windows hat eine eigene Speicherverwaltung und damit weiß man nie, welcher Teil des physikalischen Speichers nun gerade getestet wird und daher besagt das ausbleiben eines Fehler nicht, dass das ganze RAM wirklich fehlerfrei ist. Man sollte für einen sinnvollen RAM Test also immer die iso / img von Memtest86 oder Memtest86+ von CD oder USB-Stick booten. Zuerst und nach der Fehlerbehebung auch zuletzt immer mit allen Riegeln und den finalen BIOS Einstellungen testen, erst wenn Fehler auftreten die Riegel einzeln auf Fehler testen, sollten alle fehlerfrei sein die BIOS Einstellungen anpassen, also mehr Spannung, weniger Frequenz und/oder weniger scharfe Timming wählen. Es sollten am Ende mindestens 6 PASS ohne einen einziger Fehler durchlaufen, also am Besten über Nacht durchlaufen lassen.
bliebe dann nur ca. 1,5 GB als Speicher, den die Festplatte nutzte
Die Platte kann den Speicher nicht selbst nutzen, den nutzt das OS für die Daten auf der Platte.
Heißt das auch, daß wenn ich erst mit einem Synch-Programm alle Dateien kopierte und danach erst alle Dateien auf Richtigkeit überprüfte, alle Dateien (originale Datei und Kopie) von der Platte gelesen würden, da sie ja nicht in den RAM passen?
Auch wenn ich die Cache Strategien der einzelnen Betriebssysteme nicht kenne, so würde ich doch sagen, dass die Chancen umso höher stehen das die Daten dann beim Vergleich wirklich von der Platte gelesen werden, je mehr Daten vorher geschrieben wurden, wenn dies mehr ist als an freiem RAM verfügbar ist.
Die Platte selber hat also anders als ich dachte, keinen eigenen Speicher / Buffer. Der einzige Speicher, den sie nutzt ist der RAM, und den entsprechend dem, was noch an RAM zur Verfügung steht.
Wie kommst Du da jetzt drauf? Lies noch mal was ich zu den internen Datenpfaden der Platten im zweiten Absatz meines letzten Posts geschrieben habe.
Also, man sollte keinen ECC-RAM haben, verstehe ich das richtig?
Nein, genau andersrum, man sollte zuerst einmal ECC RAM haben und ein System welches dieses auch unterstützt, wenn man sich Sorgen um die Integrität der Daten macht. Wie man aus den beiden letzten Absätzen meines letzten Posts auf die Idee kommen kann besser kein ECC RAM zu haben, ist mit ehrlich ein Rätzel. Wir scheinen komplett aneinander vorbei zu reden.
Ach so, also gibt es doch noch einen Speicher (ein Cache ist glaube ich ein solcher), aber in dem werden keinen Dateien gespeichert?
Würden da keine Daten gespeichert, wäre es kein Cache.

Ah, verstehe, also es sollte ECC-RAM vorhanden sein zur Vermeidung von Korruption.
Genau und ja, ganz billig ist der Spaß meist nicht, die Plattformen die ECC RAM unterstützen sind meist teurer als andere. Daher auch der Hinweis auf die Microserver im letzten Abschnitt, da diese teilweise eben für recht wenig Geld ECC RAM fähige Plattformen liefern. Den HP ProLiant MicroServer Gen8, Celeron G1610T, 2GB RAM (712317-421) listet Geizhals aktuell ab € 201,94 und ein 4 Bay NAS gibt es auch erst ab 159€, die haben dann aber wie weniger RAM, kein ECC und auch nur schwache ARM CPUs. So gesehen ist der HP G8 dann wieder günstig und als ich Ende 2013 meinen N54L mit 4GB für 210€ gekauft habe, hat das günstigste 4 Bay NAS auch mindestens 200€ gekostet.

Wie oft kommt denn im allgemeinen so eine Korruption überhaupt vor (bei an sich intakten Computern, Bauteilen, Festplatten)? Habe davon noch nie etwas gehört, daß beim Kopieren, Verschieben einfach Dateien korrumpiert werden, ohne daß es darüber eine Meldung gibt.
Das ist schwer zu sagen, aber Meldungen findest Du vor allem in den ZFS Foren immer wieder mal von Leuten die ihren Pool verloren und eben kein ECC RAM verwendet haben. ZFS bietet eigene Prüfsummen für die Dateien um eben Datenkorruption erkennen und innerhalb bestimmter Grenzen auch korrigieren zu können, es schützt aber seine Metadaten im RAM nicht, da es für Server entwickelt wurde und diese immer ECC RAM haben, die HW diese Aufgabe also übernimmt. Da es gleichzeitig sehr viele Metadaten im RAM hat und diese dort auch länge hält, ist es besonders für RAM Fehler anfällig und da es neben dem eigentlichen Filesystem auch noch ein SW-RAID darstellt, können die Folgen von RAM Fehlern entsprechend groß sein.

Der einzige Vorteil von RAM ohne ECC sind die geringeren Kosten und leider werden die meisten Leute eben erst aus Schaden klug und daher gibt es immer noch viele die ECC RAM für unnötig halten, auch von denen die ZFS nutzen.

Man findet aber schon auch mal Fälle, z.B.:
md5sum liefert immer andere Prüfsummen für die gleiche Datei



!!SOLUTION!!

Ich hatte die Situation bisschen anders:
An meinem Notebook habe ich installiert WIN XP und Ubuntu 12.10. Und dieser Wahnsinn ist bei beiden Systemen aufgetreten. Deswegen hatte ich Hardware verdächtigt - nicht OS.
Ich wollte meherer >= 4 GB 7z Container aus anderem PC über USB 3.0 Memory Speicher holen und am Notebook entpacken.
Die hatten dann CRC Probleme gemeldet, bis ich endlich merkte, dass die md5sum am Quell PC und Notebook varieren. Dann habe ich den Transfer prozess mittels USB Memory verdächtigt. Dann dachte ich USB 3.0 ist Problem, aber es hatte auch bei USB Harddisk 2.0 gemacht. Somit hatte ich den USB Controller im Verdacht. Dann habe ich den 4.0 GB 7z über Network kopiert - und wieder mal md5sum anders - somit wusste ich, dass USB alleine ist das Problem nicht. Nachher BIOS Update - wieder nichts! Nachher habe ich gemerkt, dass eigentlich kein Transfer stattfinden muss, da schon alleine der lokale File an sich beim mehrmaligen md5sum check verschiedene Ergebnisse bringt - dann war ich wucki und begab sich auf die Suche im Internet. Ich fand dein Problem.

Ich habe meinen Notebook irgendwann in Vergangenheit erweitert um zusätzlichen 2 GB RAM Modul zu dem 2GB die er bereits hatte. Jetz ist mir eingefallen den neuen "probeweise" wieder ausbauen. Und es hat jetzt geklappt! Die md5sums sind wieder für ein 4 GB File gleich!
Ich dachte damals, dass der neue RAM Modul kompatibel ist - war wahrscheinlich nicht!
Was war es also? Richtig RAM-Fehler!

Oder gerade die Tage hier bei HL:
Es ist eben ein Irrtum zu glauben, RAM Fehler müssten immer zu Bluescreens führen. Das hängt immer davon ab, welcher RAM Bereich den Fehler hat und welchen Windows mit seinem wichtigen Programmcode belegt hat.
Der Grund, aus dem ich überhaupt frage, ist, daß bei zwei Notebooks und verschiedenen (externen) USB-Platten (mehrere WD, 4TB, eine Seagate 5TB und weitere Platten) beim Kopieren / Verschieben von Dateien es zu Fehlern kam
Erstmal das RAM testen, und zwar vernünftig mit Memtest86+ und 6 PASS abwarten, dann poste mal die Screenshots von CrystalDiskInfo für die betroffenen Platten, ziehe aber bitte die Fenster soweit auf, dass alle Attribute und auch die Hex-Werte bzw. Rohwerte vollständig sichtbar sind.

Es wurde nie eine Fehlermeldung ausgegeben. Beschädigte Dateien entstehen aber nicht immer, manchmal lassen sich vielleicht 200 GB ohne Fehler kopieren, manchmal gibt es bei 20 GB fehlerhafte Dateien.
Das klingt sehr nach RAM Fehlern. Und woher soll die Fehlermeldung beim Kopieren kommen? Die werden richtig gelesen und im RAM gepuffert, dort kippt ein Bit und ohne ECC RAM, Notebooks haben praktisch nie ECC RAM (die ersten mobilen Xeons mit ECC für Notebooks wurden gerade erst angekündigt, warum wohl und Lenovov hat mit dem ThinkPad P50 und P70 die ersten Mobil Workstations damit schon angekündigt), fällt das überhaupt nicht auf. Dann werden die durch das gekippt Bit unbemerkt veränderten Daten auf die andere Platte geschrieben, auch dabei passiert kein Fehler, aber dort steht nun etwas anderes. Das klingt wie die ganz typische Silent-Data-Corruption und die liegt eben fast immer an RAM Fehlern.

Keine Ahnung was Du da bisher wie getestet hast, machen testen die Riegel nur einzeln was Blödsinn ist weil die ja zusammen arbeiten und daher auch zusammen getestet werden müssen den zusammen belasten sie die Spannungsversorgung mehr und auch den RAM Controller und wenn es unterschiedliche Riegel mit verschiedenen Einstellungen im SPD sind, dann können die für den einen Riegel beim anderen nicht passen und umgekehrt und jeder für sich läuft fehlerfrei weil das BIOS die Einstellungen für ihn aus seinem SPD nimmt, aber bei beiden weiß man nie wessen denn nun ausgelesen und war eingestellt wird. Es ist besonders fies wenn der eine Riegel mit den Einstellungen des andere nicht klarkommt, aber umgekehrt schon, dann nimmt das BIOS womöglich die Einstellungen des einen und alles läuft super, keine Fehler beim Memtest86+, beim nächsten Booten werden die Einstellungen des anderen Riegels genommen und es gibt laufend Fehler. Daher RAM am Besten immer als Kit kaufen, denn selbst scheinbar identischen Riegel können andere Werte im SPD hinterlegt haben!
Ich hätte nicht gedacht, daß so etwas überhaupt möglich ist, daß nicht einmal eine Fehlermeldung ausgegeben wird.
Woher soll denn eine Fehlermeldung kommen? Nur bei ECC RAM werden RAM Fehler überhaupt erkannt und bei den HDDs/SSDs hängt es wie gesagt davon ab, ob diese eine Erkennung von Fehlern auf den internen Datenpfaden haben. Bei Consumer Platte ist das eher nicht der Fall, aber bei Seagate HDDs stehen die Chancen so schlecht nicht, also posten die S.M.A.R.T: Werte (CrystalDiskInfo) und wir sehen, ob es da Probleme gibt. Mache den RAM Test vernünftig und wir sehen ob da Fehler auftreten. Wenn beides nichts bringt und es z.B. eine WD ohne so eine "Ende-zu-Ende-Fehler" Attribut ist, kann man nur noch mit h2testw ein paar GB auf die HDD schreiben und diese immer wieder prüfen. Vorher muss man aber sicher sein RAM Fehler, wenigstens die hard-errors, ausschließen zu können, sonst weiß man je wieder nicht ob der Fehler von der Platte gekommen oder im RAM passiert ist.

Wie groß ist denn so ein Cache? Aber der wird bestimmt keine Dateien speichern, sondern wohl anderes.
Die Angaben stehen meist im Datenblatt, aber es wird nur ein Teil davon wirklich als Datencache verwendet, ein Teil dient auch für andere Zwecke wie dem Controller als RAM.
Was ist denn dieses "Attribute C7"? Wo finde ich das? Das heißt, etwa in CrystalDiskInfo kann ich sehen, ob Dateien korrumpiert wurden und welche? Verstehe ich bestimmt falsch.
Poste die Screenshots von CrystalDiskInfo, aber Ultra-DM-CRC Fehler führen nicht zur Silent-Data-Corruption, außer wenn zufällig die CRC zu den Daten passen sollte, was sehr unwahrscheinlich ist. Das führt nur zu Performancenachteilen weil die Daten wiederholt übertragen werden müssen und in schlimmen Fällen zu Abbrüchen der Übertragung, was dann auch entsprechende Fehlermeldungen nach sich zieht.

Heißt das für diesen CRC, es ist für das Überprüfen keine oder kaum weitere Zeit nötig, da der CRC beim Lesen und beim Schreiben erzeugt werden kann, die Dateien also nicht extra gelesen werden müssen für diesen CRC?
Die Controller erzeugen diese CRC automatisch für jede Übertragung über SATA (jede FIS), da muss man sich nicht drum kümmern, so wie man sich nicht um die ECC kümmern muss, die der Controller einer HDD oder SSD für die Daten jedes Sektors bzw. jeder NAND Page beim Schrieben erzeugt und beim Lesen prüft.
Aber diese Überprüfung gibt es eben nur bei diesen speziellen Platten, wenn ich recht verstehe.
Nein, das haben alle SATA Platte und es wurde schon vorher bei PATA eingeführt, weshalb das Attribut auch meist als Ultra-DMA CRC Fehler bezeichnet wird.
Wie kann man diese Platten denn erkennen? Also z.B. erkennen, ob WD Elements, MyBook, Seagate Expansion 5TB etc. diese Funktion haben?
Die einfachen WD Consumer HDDs haben das i.d.R. nicht, bei Seagate stehen die Chancen dagegen gut, dass diese Fehler auf den internen Datenpfaden zumindest erkennen und in den S.M.A.R.T. Werten ausgeben.
Mit Programmen wie CrystalDiskMark?
Ja, wenn ein Attribute der Ende-zu-Ende Fehler vorhanden ist, sollte es auch eine entsprechende Erkennung geben.
 
Zuletzt bearbeitet:
Ich hatte zu diesem Problem ja schon in einigen Foren geschrieben, wie ich
jetzt erkenne offenbar in den völlig falschen Foren, obwohl es eben
welche waren, wie ich dachte, die zu diesem Thema geeignet wären, bzw.
genau die richtigen wären. Es ist ja auch schwer - für mich jedenfalls,
der von überhaupt nichts eine Ahnung hat - ohne auch nur einen
geringsten Anhalt zu haben über die Ursache, den Ort / die Herkunft /
Art des Fehlers ein passendes Forum zu finden. Selbst User, die offenbar
bei / für WD arbeiten, WD repräsentieren, jedenfalls wohl irgendwie in
Zusammenhang mit WD stehen und sich nach meiner Einschätzung auch
auskannten, waren der Meinung, es liege an der falschen Initialisierung
(für Platten ab 2,2 TB) der Platten, die bei mir bei jeder Platte in MBR
ist, nur eine Platte, die Seagate Expansion 5TB ist in GPT
initialisiert. Alle Platten werden aber von Win 7 offenbar richtig
angezeigt / erkannt, genauso wie jede kleinere Platte angezeigt wird
also, so daß allein deshalb schon kein Anlaß für mich erkennbar gewesen
wäre, der zu besagten Fehlern führt.
Ich hätte also auch gar nicht mehr gedacht, überhaupt noch jemals die
Ursache, geschweige denn eine Lösung zu erfahren, das freut mich
natürlich sehr, daß es doch nicht dabei geblieben ist. Verstehe aber
auch nicht, wieso kein einziger in jenen Foren etwas wußte, obwohl das
doch verdammt große Foren sind, vor allem die englischsprachigen, in
denen es ja um derartige Probleme auch geht.

Weil die Daten ohne ECC dort komplett ungeschützt sind, während
sie auf dem Medium mit einer ECC gesichert werden, ebenso bei der
Übertragung zwischen dem Host Controller und dem Controller der Platte.
Also ganz einfach verständlich...und erstaunlich: es wird also offenbar
auf diesem gesamten Übertragungsweg geprüft, nur im RAM nicht. Das
erscheint mir merkwürdig, oder verstehe ich das falsch? Aber wieso wird
denn nicht beim Schreiben - Verzeihung, falls diese Frage zeigt, daß ich
nichts verstehe - nicht einfach etwa eine Prüfsumme gebildet (ohne
Zeitverlust ja bestimmt, da sie eben sowieso gelesen wird) und beim
Schreiben auf die Platte ebenso...weil die Prüfsumme wohl erst noch
einmal erstellt werden müßte nach dem die Datei komplett geschrieben
wäre auf der Zielplatte und somit noch einmal zeitaufwändig gelesen
werden müßte vielleicht.
Das Prinzip ist also ganz einfach, falls ich richtig verstehe: eine Übertragung wird korrekt
ausgeführt (da ja geprüft wird) bis zum RAM, im RAM kann ein Bit
verlorengehen oder vielleicht ja sogar an falscher Stelle
gesetzt werden, da findet keine Prüfung
statt, dann, bei der weiteren Übertragung wird weiterhin prüfend die
Datei dann auf die Platte geschrieben. Das heißt, auf dem Weg zum RAM
wird geprüft und vom RAM, aber die Prüfungen auf den beiden Teilstrecken
(zum RAM, vom RAM) werden nicht miteinander verglichen? Verzeihung
nochmals für mein Unverständnis.

Außerdem sind RAM Fehler eben viele denken, , google hat dazu mal
eine Analyse gemacht,
Verzeihung, RAM-Fehler kommen häufiger vor, als viele denken? Oder vielleicht
derartige Fehler sind gängig, nur für viele nicht zuordenbar?
Danke für die Google-Studie. Ach da steht's ja gleich am Anfang sogar:
"Errors in dynamic random access memory (DRAM) are a common
form of hardware failure in modern compute clusters"
Nie auch nur das Geringste davon gehört. Das heißt ganz einfach, diese
Art Fehler - wie ich sie habe - kommen also recht oft vo wohlr, offenbar
ohne, daß sie tatsächlich zugeordnet werden (von vielen oder den
meisten), Dateien sind also irgendwann einfach kaputt und das war's.
Finde nur komisch, daß ich so wenig darüber gefunden habe im Netz, na
ja, vielleicht sind meine Fähigkeiten beim Suchen ja nicht optimal.

Meine Notebooks, damit die RAM, sind ca. 4 Jahre alt, wenn nach 10 bis
18 Monaten die Fehleranfälligkeit beim RAM sich erhöht, wäre die Zeit
für diese Fehler ja schon lange bei mir gekommen. Sollte man denn nach
dieser Zeit, bzw. wohl eher vorher schon, von 10 bis 18 Monaten RAM,
wenn es nicht ECC-RAM ist, austauschen?

Fehler müssen also auch nicht von Anfang an vorhanden sein, die
können auch erst später auftreten.
Also auch erst dann, wenn der RAM schwächer wird,
fehleranfällig(er).

Es gibt zwei Arten von RAM Fehlern, hard-errors und soft-errors,
die hard-errors treten bei einem bestimmten Zugriffsmuster auf
bestimmte Adressen immer auf, zumindest bei gleichen Einstellungen und
können daher auch mit Testprogrammen wie Memtest86+ erkannt werden, die
soft-errors sind spontan kippende Bits, die treten meist durch Strahlung
auf, z.B. elektromagnetische, kosmische oder (natürliche) radioaktive
Strahlung und findet man mit den Testprogramm praktisch nicht, da diese
Programme alle die RAM Bereiche beschrieben und gleich darauf wieder
lesen, da bleibt nur wenig Zeit für ein Bit um spontan zu kippen. Daher
kann praktisch nur ECC RAM solche Fehler anzeigen.
Gut, also nachdem man mit einem Speichertest - und das geht eben nur mit
so einem Test - festgestellt hat, daß keine hard-errors vorkommen, der
RAM also intakt ist, kann man Fehler ausschließen, die durch defekten
RAM verursachte werden, jedenfalls, wenn man den Test richtig gemacht
hat, glaube, das machen ja auch nicht alle, die dann in Foren aufgrund
ihres falsch ausgeführten Tests und damit verbundenen Schlußfolgerungen
Informationen veröffentlichen, die gar nicht stimmen, könnte ich mir
denken. Und diese soft-errors kommen eben einfach in nicht ECC-RAM vor,
sind einfach im Computer-Alltag vorhanden. Falls ich das alles richtig
verstehe.

Welches Memtest? Das Memtest von HCI welches unter Windows läuft
ist komplett unsinnig, denn Windows hat eine eigene Speicherverwaltung
und damit weiß man nie, welcher Teil des physikalischen Speichers nun
gerade getestet wird und daher besagt das ausbleiben eines Fehler nicht,
dass das ganze RAM wirklich fehlerfrei ist. Man sollte für einen
sinnvollen RAM Test also immer die iso / img von Memtest86 oder
Memtest86+ von CD oder USB-Stick booten.
Ja, hatte Memtest86+ schon laufen lassen, 19 Stunden, mit dessen
Voreinstellungen, von USB-Stick gestartet, keine Fehler angezeigt:
jUi9SQC.jpg


Zuerst und nach der Fehlerbehebung auch zuletzt immer mit allen
Riegeln und den finalen BIOS Einstellungen testen, erst wenn Fehler
auftreten die Riegel einzeln auf Fehler testen, sollten alle fehlerfrei
sein die BIOS Einstellungen anpassen, also mehr Spannung, weniger
Frequenz und/oder weniger scharfe Timming wählen.
Das klingt ja verdammt kompliziert (und irgendwie gefährlich), das
könnte ich selber wohl nicht schaffen, oder? Glaube, da kann man vieles
zerschroten.

Die Platte kann den Speicher nicht selbst nutzen, den nutzt das OS für die Daten auf der Platte.
Die Platte nicht selbst, aber das OS nutzt diesen Speicher für die Platte, so daß Dateien transferiert werden können (und auch geprüft werden kann im Speicher, so daß benannten Unzuverlässigkeit entstehen kann)?

Auch wenn ich die Cache Strategien der einzelnen Betriebssysteme nicht kenne, so würde ich doch sagen, dass die Chancen umso höher stehen das die Daten dann beim Vergleich wirklich von der Platte gelesen werden, je mehr Daten vorher geschrieben wurden, wenn dies mehr ist als an freiem RAM verfügbar ist.
Z.B., wenn also im RAM 1,5 GB RAM frei wären und die zu kopierenden Datei 1,6 GB groß, dann könnte man davon ausgehen, daß die Kopie zur Prüfung von der Platte gelesen würde.

Wie kommst Du da jetzt drauf? Lies noch mal was ich zu den internen Datenpfaden der Platten im zweiten Absatz meines letzten Posts geschrieben habe.
Zitat Zitat von Pixell Beitrag anzeigen
Also, man sollte keinen ECC-RAM haben, verstehe ich das richtig?
Nein, genau andersrum, man sollte zuerst einmal ECC RAM haben und ein System welches dieses auch unterstützt, wenn man sich Sorgen um die Integrität der Daten macht. Wie man aus den beiden letzten Absätzen meines letzten Posts auf die Idee kommen kann besser kein ECC RAM zu haben, ist mit ehrlich ein Rätzel. Wir scheinen komplett aneinander vorbei zu reden.
Ja, natürlich, völlig Fehlleistung von mir, Verzeihung für meine Verwirrtheit und mein Unverständnis

Genau und ja, ganz billig ist der Spaß meist nicht, die Plattformen die ECC RAM unterstützen sind meist teurer als andere. Daher auch der Hinweis auf die Microserver im letzten Abschnitt, da diese teilweise eben für recht wenig Geld ECC RAM fähige Plattformen liefern. Den HP ProLiant MicroServer Gen8, Celeron G1610T, 2GB RAM (712317-421) listet Geizhals aktuell ab € 201,94 und ein 4 Bay NAS gibt es auch erst ab 159€, die haben dann aber wie weniger RAM, kein ECC und auch nur schwache ARM CPUs. So gesehen ist der HP G8 dann wieder günstig und als ich Ende 2013 meinen N54L mit 4GB für 210€ gekauft habe, hat das günstigste 4 Bay NAS auch mindestens 200€ gekostet.
.
Vielen Dank auch für die Links. Das klingt aber doch schon alles recht kompliziert und aufwändig, glaube, um sich so etwas zusammenzubasteln, sollte / müßte man schon ganz schön viel Ahnung haben.

Das ist schwer zu sagen, aber Meldungen findest Du vor allem in den ZFS Foren immer wieder mal von Leuten die ihren Pool verloren und eben kein ECC RAM verwendet haben.
Was ist ein Pool, den man verlieren kann? ZFS, das Dateisystem (wie in Wiki gefunden), das wohl im Vergleich zu dem von Win erhebliche Vorteile hat.
Man kann vielleicht davon ausgehen, daß es also beim gemeinen Alltags-Nutzer auch ganz schön oft zu derartigen Fehlern kommt, aber die Ursache zu finden - wie es bei mir ja auch ist / war, ganz schön schwer oder gar nicht zu finden ist.

Der einzige Vorteil von RAM ohne ECC sind die geringeren Kosten und leider werden die meisten Leute eben erst aus Schaden klug und daher gibt es immer noch viele die ECC RAM für unnötig halten, auch von denen die ZFS nutzen.
Aber der banale Nutzer, wie ich, der von überhaupt nichts eine Ahnung hat, weiß ja nicht einmal, daß es ECC-RAM gibt, bzw. um derartige Probleme.

Was war es also? Richtig RAM-Fehler!

Oder gerade die Tage hier bei HL:
was soll ich sagen 4 verschiedene Hashwerte der SELBEN Datei!!
Bei meinem "Datengrabrechner" kam sogleich eine Fehlermeldung. Überraschung: Mein bisheriger Hauptrechner ist auffällig. *edit* Pass:1 ergibt 188 Errors. - NUR warum läuft XP nach wie vor scheinbar ohne Probleme?
Danke für die Beiträge / Links, sehr interessant. Aber das war - falls ich es richtig verstehe - immerhin schlicht auf defekten RAM zurückzuführen, bzw. nicht harmonisierenden, also diese sogenannten hard-errors, die man ja eben finden kann mit MemTest86(+). Man muß eben nur auf die Idee kommen, daß das das Problem sein kann und richtig testen zudem auch noch.

Das habe ich noch gefunden: Die vernachlässigte Gefahr: Silent Data Corruption | it-administrator.de
Das kommt bei mir sogar hin (wenn die Dateien gewisse Dateigrößen haben, vielleicht bei Größen von 50 bis 200 MB pro Datei) oder ist nicht so weit entfern, bzw. bei mir scheint es noch mehr zu sein:
Eine weitaus bekanntere Studie des CERN zeigte bereits im Jahre 2007, dass korrupte Daten statistisch in einer von 1.500 Dateien vorkommen.
Eine kürzlich veröffentlichte Studie, die über einen Zeitraum von 41 Monaten erstellt wurde, analysierte korrupte Daten in Speichersystemen mit mehr als 1,53 Millionen Festplatten. Die Studie spürte drei Arten von Datenkorruption auf: Prüfsummen-Versatz, Identitäts-Diskrepanzen und Paritäts-Inkonsistenzen. Die Studie fand mehr als 400.000 Zwischenfälle von stiller Datenkorruption, wobei Prüfsummen-Versatz der häufigste Fehler war. Dabei wurden die meisten der Fehler erst nach der RAID-Restoration erkannt.

Erstmal das RAM testen, und zwar vernünftig mit Memtest86+ und 6 PASS abwarten, dann poste mal die Screenshots von CrystalDiskInfo für die betroffenen Platten, ziehe aber bitte die Fenster soweit auf, dass alle Attribute und auch die Hex-Werte bzw. Rohwerte vollständig sichtbar sind.
Ich hatte es ja bei der 5TB Seagate-Platte (mit "richtiger" Initialisierung), bei einigen Elements bemerkt und bei einer 2,5"-Platte von Medion, 640 GB.
Hier eine dieser 4 Elements-Platten:
rCxMprN.png

Code:
----------------------------------------------------------------------------
CrystalDiskInfo 6.2.1 (C) 2008-2014 hiyohiyo
                                Crystal Dew World : http://crystalmark.info/
----------------------------------------------------------------------------

    OS : Windows 7 Home Premium SP1 [6.1 Build 7601] (x64)
  Date : 2015/07/21 15:53:13

-- Controller Map ----------------------------------------------------------
 + Intel(R) 5 Series/3400 Series Chipset Family 6 Port SATA AHCI Controller - 3B2F [ATA]
   + ATA Channel 0 (0)
     - ST1000LM024 HN-M101MBB ATA Device
   + ATA Channel 1 (1)
     - TSSTcorp CDDVDW SN-S083C ATA Device
   - ATA Channel 2 (2)

-- Disk List ---------------------------------------------------------------
 (1) ST1000LM024 HN-M101MBB : 1000,2 GB [0/0/0, pd1] - st
 (2) WDC WD40EZRX-00SPEB0 : 4000,7 GB [2/X/X, sa1] (V=1058, P=107C) - wd

----------------------------------------------------------------------------
 (1) ST1000LM024 HN-M101MBB
----------------------------------------------------------------------------
           Model : ST1000LM024 HN-M101MBB
        Firmware : 2AR10001
   Serial Number : S2U5J9CC608613
       Disk Size : 1000,2 GB (8,4/137,4/1000,2/1000,2)
     Buffer Size : 8192 KB
     Queue Depth : 32
    # of Sectors : 1953525168
   Rotation Rate : 5400 RPM
       Interface : Serial ATA
   Major Version : ATA8-ACS
   Minor Version : ATA8-ACS version 6
   Transfer Mode : SATA/300 | SATA/300
  Power On Hours : 12326 Std.
  Power On Count : 970 mal
     Temperature : 41 C (105 F)
   Health Status : Gut
        Features : S.M.A.R.T., APM, 48bit LBA, NCQ
       APM Level : 0080h [ON]
       AAM Level : ----

-- S.M.A.R.T. --------------------------------------------------------------
ID Cur Wor Thr RawValues(6) Attribute Name
01 100 100 _51 000000000021 Lesefehlerrate
02 252 252 __0 000000000000 Leistungsfähigkeit
03 _89 _89 _25 000000000D81 Beschleunigungszeit
04 100 100 __0 0000000003CF Start/Stop des Spindels
05 252 252 _10 000000000000 Neu zugewiesene Sektoren
07 252 252 _51 000000000000 Suchfehlerrate
08 252 252 _15 000000000000 Suchzeitleistung
09 100 100 __0 000000003026 Eingeschaltete Stunden
0A 252 252 _51 000000000000 Drehwiederholungen
0B 100 100 __0 0000000002C5 Rekalibrierungswiederholungen
0C 100 100 __0 0000000003CA Ein-/Ausschaltungen
BF 100 100 __0 000000000024 G-Sense Fehlerrate
C0 252 252 __0 000000000000 Ausschaltungsabbrüche
C2 _59 _49 __0 0033000E0029 Temperatur
C3 100 100 __0 000000000000 Hardware ECC wiederhergestellt
C4 252 252 __0 000000000000 Neuzuweisungsereignisse
C5 252 252 __0 000000000000 Aktuell schwebende Sektoren
C6 252 252 __0 000000000000 Unkorrigierbare Sektoren
C7 200 200 __0 000000000000 UltraDMA CRC Fehler
C8 __1 __1 __0 0000000164FE Schreibfehlerrate
DF 100 100 __0 0000000002C5 Laden/Entladen Wiederholungen
E1 _97 _97 __0 0000000086E7 Laden/Entladen Zyklus

-- IDENTIFY_DEVICE ---------------------------------------------------------
        0    1    2    3    4    5    6    7    8    9
000: 0040 3FFF C837 0010 0000 0000 003F 0000 0000 0000
010: 5332 5535 4A39 4343 3630 3836 3133 2020 2020 2020
020: 0000 4000 0004 3241 5231 3030 3031 5354 3130 3030
030: 4C4D 3032 3420 484E 2D4D 3130 314D 4242 2020 2020
040: 2020 2020 2020 2020 2020 2020 2020 8010 4000 2F00
050: 4000 0200 0200 0006 3FFF 0010 003F FC10 00FB 0110
060: FFFF 0FFF 0000 0007 0003 0078 0078 0078 0078 0000
070: 0000 0000 0000 0000 0000 001F 0F06 0004 004C 0040
080: 01FF 0028 746B 7D09 6123 7469 BC09 6123 203F 0068
090: 0068 0080 FFFE 0000 0000 0000 0000 0000 0000 0000
100: 6DB0 7470 0000 0000 0000 0000 6003 0000 5000 4CF2
110: 07D9 0E92 0000 0000 0000 0000 0000 0000 0000 401C
120: 401C 0000 0000 0000 0000 0000 0000 0000 0029 0000
130: 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
140: 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
150: 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
160: 0000 0000 0000 0000 0000 0000 0000 0000 0003 0000
170: 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
180: 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
190: 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
200: 0000 0000 0000 0000 0000 0000 003F 0000 0000 4000
210: 0000 0000 0000 0000 0000 0000 0000 1518 0000 0000
220: 0000 0000 103F 0000 0000 0000 0000 0000 0000 0000
230: 0000 0000 0000 0000 0001 0400 0000 0000 0000 0000
240: 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
250: 0000 0000 0000 0000 0000 39A5

-- SMART_READ_DATA ---------------------------------------------------------
     +0 +1 +2 +3 +4 +5 +6 +7 +8 +9 +A +B +C +D +E +F
000: 10 00 01 2F 00 64 64 21 00 00 00 00 00 00 02 26
010: 00 FC FC 00 00 00 00 00 00 00 03 23 00 59 59 81
020: 0D 00 00 00 00 00 04 32 00 64 64 CF 03 00 00 00
030: 00 00 05 33 00 FC FC 00 00 00 00 00 00 00 07 2E
040: 00 FC FC 00 00 00 00 00 00 00 08 24 00 FC FC 00
050: 00 00 00 00 00 00 09 32 00 64 64 26 30 00 00 00
060: 00 00 0A 32 00 FC FC 00 00 00 00 00 00 00 0B 32
070: 00 64 64 C5 02 00 00 00 00 00 0C 32 00 64 64 CA
080: 03 00 00 00 00 00 BF 22 00 64 64 24 00 00 00 00
090: 00 00 C0 22 00 FC FC 00 00 00 00 00 00 00 C2 02
0A0: 00 3B 31 29 00 0E 00 33 00 00 C3 3A 00 64 64 00
0B0: 00 00 00 00 00 00 C4 32 00 FC FC 00 00 00 00 00
0C0: 00 00 C5 32 00 FC FC 00 00 00 00 00 00 00 C6 30
0D0: 00 FC FC 00 00 00 00 00 00 00 C7 36 00 C8 C8 00
0E0: 00 00 00 00 00 00 C8 2A 00 01 01 FE 64 01 00 00
0F0: 00 00 DF 32 00 64 64 C5 02 00 00 00 00 00 E1 32
100: 00 61 61 E7 86 00 00 00 00 00 00 00 00 00 00 00
110: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
120: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
130: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
140: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
150: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
160: 00 00 00 00 00 00 00 00 00 00 00 00 18 33 00 5B
170: 03 00 01 00 02 DA 00 00 00 00 00 00 00 00 00 00
180: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
190: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1A0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1B0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1C0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1D0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1E0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1F0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 B7

-- SMART_READ_THRESHOLD ----------------------------------------------------
     +0 +1 +2 +3 +4 +5 +6 +7 +8 +9 +A +B +C +D +E +F
000: 10 00 01 33 00 00 00 00 00 00 00 00 00 00 02 00
010: 00 00 00 00 00 00 00 00 00 00 03 19 00 00 00 00
020: 00 00 00 00 00 00 04 00 00 00 00 00 00 00 00 00
030: 00 00 05 0A 00 00 00 00 00 00 00 00 00 00 07 33
040: 00 00 00 00 00 00 00 00 00 00 08 0F 00 00 00 00
050: 00 00 00 00 00 00 09 00 00 00 00 00 00 00 00 00
060: 00 00 0A 33 00 00 00 00 00 00 00 00 00 00 0B 00
070: 00 00 00 00 00 00 00 00 00 00 0C 00 00 00 00 00
080: 00 00 00 00 00 00 BF 00 00 00 00 00 00 00 00 00
090: 00 00 C0 00 00 00 00 00 00 00 00 00 00 00 C2 00
0A0: 00 00 00 00 00 00 00 00 00 00 C3 00 00 00 00 00
0B0: 00 00 00 00 00 00 C4 00 00 00 00 00 00 00 00 00
0C0: 00 00 C5 00 00 00 00 00 00 00 00 00 00 00 C6 00
0D0: 00 00 00 00 00 00 00 00 00 00 C7 00 00 00 00 00
0E0: 00 00 00 00 00 00 C8 00 00 00 00 00 00 00 00 00
0F0: 00 00 DF 00 00 00 00 00 00 00 00 00 00 00 E1 00
100: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
110: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
120: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
130: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
140: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
150: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
160: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
170: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
180: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
190: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1A0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1B0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1C0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1D0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1E0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1F0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 3B

----------------------------------------------------------------------------
 (2) WDC WD40EZRX-00SPEB0
----------------------------------------------------------------------------
       Enclosure : WD Elements 107C USB Device (V=1058, P=107C, sa1) - wd
           Model : WDC WD40EZRX-00SPEB0
        Firmware : 80.00A80
   Serial Number : WD-WCC4E6UXUZ9U
       Disk Size : 4000,7 GB (8,4/137,4/4000,7/4000,7)
     Buffer Size : Unbekannt
     Queue Depth : 32
    # of Sectors : 7814037168
   Rotation Rate : 5400 RPM
       Interface : USB (Serial ATA)
   Major Version : ACS-2
   Minor Version : ----
   Transfer Mode : SATA/300 | SATA/600
  Power On Hours : 174 Std.
  Power On Count : 31 mal
     Temperature : 37 C (98 F)
   Health Status : Gut
        Features : S.M.A.R.T., 48bit LBA, NCQ
       APM Level : ----
       AAM Level : ----

-- S.M.A.R.T. --------------------------------------------------------------
ID Cur Wor Thr RawValues(6) Attribute Name
01 200 200 _51 000000000000 Lesefehlerrate
03 198 178 _21 000000001B92 Beschleunigungszeit
04 100 100 __0 00000000001F Start/Stop des Spindels
05 200 200 140 000000000000 Neu zugewiesene Sektoren
07 100 253 __0 000000000000 Suchfehlerrate
09 100 100 __0 0000000000AE Eingeschaltete Stunden
0A 100 253 __0 000000000000 Drehwiederholungen
0B 100 253 __0 000000000000 Rekalibrierungswiederholungen
0C 100 100 __0 00000000001F Ein-/Ausschaltungen
C0 200 200 __0 000000000017 Ausschaltungsabbrüche
C1 200 200 __0 0000000002D7 Laden/Entladen Zyklus
C2 115 101 __0 000000000025 Temperatur
C4 200 200 __0 000000000000 Neuzuweisungsereignisse
C5 200 200 __0 000000000000 Aktuell schwebende Sektoren
C6 100 253 __0 000000000000 Unkorrigierbare Sektoren
C7 200 200 __0 000000000000 UltraDMA CRC Fehler
C8 100 253 __0 000000000000 Schreibfehlerrate

-- IDENTIFY_DEVICE ---------------------------------------------------------
        0    1    2    3    4    5    6    7    8    9
000: 427A 3FFF C837 0010 0000 0000 003F 0000 0000 0000
010: 2020 2020 2057 442D 5743 4334 4536 5558 555A 3955
020: 0000 0000 0000 3830 2E30 3041 3830 5744 4320 5744
030: 3430 455A 5258 2D30 3053 5045 4230 2020 2020 2020
040: 2020 2020 2020 2020 2020 2020 2020 8010 4000 2F00
050: 4001 0000 0000 0007 3FFF 0010 003F FC10 00FB 0100
060: FFFF 0FFF 0000 0107 0003 0078 0078 0078 0078 0000
070: 0000 0000 0000 0000 0000 001F 970E 0004 004C 0000
080: 03FE 0000 706B 7C61 4123 7069 BC41 4123 007F 00FF
090: 00FF 0000 FFFE 0000 0000 0000 0000 0000 0000 0000
100: BEB0 D1C0 0001 0000 0000 0000 6003 0000 5001 4EE2
110: 0BB9 E33A 0000 0000 0000 0000 0000 0000 0000 401C
120: 401C 0000 0000 0000 0000 0000 0000 0000 0021 0400
130: 0001 0000 0000 0000 0000 0000 0000 0000 0000 0000
140: 0000 0000 0004 0000 0000 0000 0000 0000 0000 0000
150: 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
160: 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
170: 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
180: 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
190: 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
200: 0000 0000 0000 0000 0000 0000 7035 0000 0000 0000
210: 0000 0000 0000 0000 0000 0000 0000 1518 0000 0000
220: 0000 0000 103E 0000 0000 0000 0000 0000 0000 0000
230: 0000 0000 0000 0000 0001 1000 0000 0000 0000 0000
240: 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
250: 0000 0000 0000 0000 0000 59A5

-- SMART_READ_DATA ---------------------------------------------------------
     +0 +1 +2 +3 +4 +5 +6 +7 +8 +9 +A +B +C +D +E +F
000: 10 00 01 2F 00 C8 C8 00 00 00 00 00 00 00 03 27
010: 00 C6 B2 92 1B 00 00 00 00 00 04 32 00 64 64 1F
020: 00 00 00 00 00 00 05 33 00 C8 C8 00 00 00 00 00
030: 00 00 07 2E 00 64 FD 00 00 00 00 00 00 00 09 32
040: 00 64 64 AE 00 00 00 00 00 00 0A 32 00 64 FD 00
050: 00 00 00 00 00 00 0B 32 00 64 FD 00 00 00 00 00
060: 00 00 0C 32 00 64 64 1F 00 00 00 00 00 00 C0 32
070: 00 C8 C8 17 00 00 00 00 00 00 C1 32 00 C8 C8 D7
080: 02 00 00 00 00 00 C2 22 00 73 65 25 00 00 00 00
090: 00 00 C4 32 00 C8 C8 00 00 00 00 00 00 00 C5 32
0A0: 00 C8 C8 00 00 00 00 00 00 00 C6 30 00 64 FD 00
0B0: 00 00 00 00 00 00 C7 32 00 C8 C8 00 00 00 00 00
0C0: 00 00 C8 08 00 64 FD 00 00 00 00 00 00 00 00 00
0D0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
0E0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
0F0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
100: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
110: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
120: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
130: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
140: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
150: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
160: 00 00 00 00 00 00 00 00 00 00 80 00 C8 CD 01 7B
170: 03 00 01 00 02 FF 05 0F 02 00 00 00 00 00 00 00
180: 00 00 01 08 00 00 00 00 00 00 00 00 00 00 00 00
190: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1A0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1B0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1C0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1D0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1E0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1F0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 AC

-- SMART_READ_THRESHOLD ----------------------------------------------------
     +0 +1 +2 +3 +4 +5 +6 +7 +8 +9 +A +B +C +D +E +F
000: 10 00 01 33 C8 C8 C8 C8 C8 C8 C8 C8 00 00 03 15
010: 00 00 00 00 00 00 00 00 00 00 04 00 00 00 00 00
020: 00 00 00 00 00 00 05 8C 00 00 00 00 00 00 00 00
030: 00 00 07 00 64 64 64 64 64 64 64 64 00 00 09 00
040: 00 00 00 00 00 00 00 00 00 00 0A 00 00 00 00 00
050: 00 00 00 00 00 00 0B 00 00 00 00 00 00 00 00 00
060: 00 00 0C 00 00 00 00 00 00 00 00 00 00 00 C0 00
070: 00 00 00 00 00 00 00 00 00 00 C1 00 00 00 00 00
080: 00 00 00 00 00 00 C2 00 00 00 00 00 00 00 00 00
090: 00 00 C4 00 00 00 00 00 00 00 00 00 00 00 C5 00
0A0: 00 00 00 00 00 00 00 00 00 00 C6 00 00 00 00 00
0B0: 00 00 00 00 00 00 C7 00 00 00 00 00 00 00 00 00
0C0: 00 00 C8 00 00 00 00 00 00 00 00 00 00 00 00 00
0D0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
0E0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
0F0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
100: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
110: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
120: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
130: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
140: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
150: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
160: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
170: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
180: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
190: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1A0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1B0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1C0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1D0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1E0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
1F0: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 5D

Hier auch noch von Western Digital Data LifeGuard Diagnostics ein Test:
bEUhFNd.png

McNCN5G.png


Das klingt sehr nach RAM Fehlern. Und woher soll die Fehlermeldung beim Kopieren kommen? Die werden richtig gelesen und im RAM gepuffert, dort kippt ein Bit und ohne ECC RAM, Notebooks haben praktisch nie ECC RAM (die ersten mobilen Xeons mit ECC für Notebooks wurden gerade erst angekündigt, warum wohl und Lenovov hat mit dem ThinkPad P50 und P70 die ersten Mobil Workstations damit schon angekündigt), fällt das überhaupt nicht auf. Dann werden die durch das gekippt Bit unbemerkt veränderten Daten auf die andere Platte geschrieben, auch dabei passiert kein Fehler, aber dort steht nun etwas anderes. Das klingt wie die ganz typische Silent-Data-Corruption und die liegt eben fast immer an RAM Fehlern.
Ja, verstehe ich jetzt, daß keine Fehlermeldung angezeigt wird / werden kann. Ich dachte, unter den Begriff Silent-Data-Corruption gehören nur dahinsiechende Bits durch nicht fehlerhafte, also völlig intakte Bauteile; aber offenbar auch die durch schadhafte Bauteile verursachte.

Woher soll denn eine Fehlermeldung kommen? Nur bei ECC RAM werden RAM Fehler überhaupt erkannt und bei den HDDs/SSDs hängt es wie gesagt davon ab, ob diese eine Erkennung von Fehlern auf den internen Datenpfaden haben. Bei Consumer Platte ist das eher nicht der Fall, aber bei Seagate HDDs stehen die Chancen so schlecht nicht, also posten die S.M.A.R.T: Werte (CrystalDiskInfo) und wir sehen, ob es da Probleme gibt. Mache den RAM Test vernünftig und wir sehen ob da Fehler auftreten. Wenn beides nichts bringt und es z.B. eine WD ohne so eine "Ende-zu-Ende-Fehler" Attribut ist, kann man nur noch mit h2testw ein paar GB auf die HDD schreiben und diese immer wieder prüfen. Vorher muss man aber sicher sein RAM Fehler, wenigstens die hard-errors, ausschließen zu können, sonst weiß man je wieder nicht ob der Fehler von der Platte gekommen oder im RAM passiert ist.
Ja, völlig verständlich, habe ich alles gemacht. Mit dem Programm, h2testw, - vielen Dank für den Link - hatte ich auch schon ein paar GB, vielleicht 500 GB oder so getestet, kein Fehler angezeigt, deshalb dachte ich, diese Fehler kommen vielleicht eben nur beim "normalen" Transfer vor, nicht bei diesem Test.

Ich habe Korruption ja bislang nur festgestellt nach dem Kopieren / Verschieben von Dateien / Entpacken von Archiven von einer internen Platte zu einer externen USB 2.0- oder 3.0-Platte (wohl allen meinen USB-Platten, testete ich aber nicht bei allen) verschiedener Größen, Hersteller (Seagate, Medion, WD) / einer 640 GB-Platte, 2,5" oder nach dem Kopieren von Dateien / entpacken von Archiven auf einer externen oder nach dem Kopieren / Verschieben von Dateien / entpacken von Archiven von einer externen zu einer anderen externen Platte.
Also bisher noch niemals festgestellt eine Korruption nach dem Transfer auf einer internen Platte.

Kann / muß man aus alledem schließen - zumindest ohne ECC-RAM -, daß man bei allen Transfers unabdingbar nach Prüfsummen oder Dateiinhalt vergleichen sollte?

Für den Käufer des Arbeitsspeichers stellt sich das so dar. Auf der Seite der Hersteller gibt es faktisch keinen Unterschied, gäbe es schon gar nicht, wenn ECC-RAM der Standard wäre. Im Grunde genommen ist es vor langer langer Zeit zur Eselei der Computerindustrie geraten, ECC-RAM werbetechnisch zu etwas besonderem mit Feenstaub dran zu machen, um es dann mit spürbaren Aufpreis an den Business-Sektor verkaufen zu können. Was sich dann fortsetzt bei ECC-fähigen Mainboards usw., dabei ist das doch alles nur eine Sache von Wollen und ein paar Bytes Code.
Bei Grafikkarten ist auch der Wurm drin. So kosten 'einfache' Workstation' Grafkkarten gerne das Vielfache einer mit mit deutlich mehr Speicher versehenen Gamerkarte. Der Aufpreis wird insbesondere argumentativ gerechtfertigt mit dem ECC-Speicher auf der Workstation-Variante.
Für mich ist eben unbegreiflich, daß darüber - außer in derartigen Foren, wie Holt mir gezeigt hat, wie ich jetzt weiß - kaum etwas zu finden, zu hören ist, in keinem der Foren, in denen ich zuvor geschrieben hatte, kam auch nur ansatzweise etwas - falls ich mich richtig erinnere - in diese Richtung.

Wenn man letztendlich dieses Problem der kaputten Dateien bei mir unter dem Begriff Silent-Data-Corruption (bei voll intakten Systemen / Bauteilen) würde unterordnen müssen, wäre das schon ein...unglaublicher Gedanke.

Eine Backupkiste mit ECC-RAM muss nichtmal 100 EUR kosten. Ganze Rechenzentren werden regelmäßig mit junger Serverhardware versehen und die 'alten' Server werden von spezialisierten Firmen auch auf eBay für teilweise wirklich kleines Geld rausgehauen. Die Stromverbräuche dieser 19"-Hardware sind nicht mehr zeitgemäß, aber für kurze manuelle oder automatisierte Backups fallen diese aber kaum ins Gewicht.
Eine Backupkiste? Ist das eine externe Platte, NAS, oder so was? Oder ein Computer? Nur zum Sichern? Die Daten auf meinen Platten sind größtenteils Musik und Videos, Archive, auf die ich normalerweise immer zugreifen würde bei Bedarf, also keine Sicherungen. Dateien, die ich also ganz normal nutzen würde.
Aber man muß eben auch fähig sein, das alles einzurichten, und bei meinen sinnlosen Fähigkeiten könnte ich leider gerade nur mal eben so ein System einschalten...also, glaube ich jedenfalls.
 
Auf der Seite der Hersteller gibt es faktisch keinen Unterschied, gäbe es schon gar nicht, wenn ECC-RAM der Standard wäre.
Doch, da man statt 8 immer 9 Chips auf die Riegel löten muss, so 12% mehr Kosten verursacht das also schon.

Was sich dann fortsetzt bei ECC-fähigen Mainboards usw., dabei ist das doch alles nur eine Sache von Wollen und ein paar Bytes Code.
Da sind die Kosten meist höher, gerade bei Intel, bei AMD sollen ja die AM Sockel und CPUs ECC unterstützen, angeblich sogar der AM1, nur haben da eben viele Mainboard Hersteller die Unterstützung nicht umgesetzt, von ASUS und Gigabyte gibt es aber auch normale Consumer Boards mit ECC Unterstützung.

Wenn ich von einem System mit ECC RAM rede, meine ich immer bei dem das System das auch unterstützt, einfach einen Xeon in ein Consumerboard mit B, H oder Z Chipsatz zu stecken und dann ECC RAM einzubauen, bringt gar nichts weil der Chipsatz da die Unterstützung verhindert, noch weniger bringt es einen i5 oder i7 zu nehmen, da hat Intel das auch rausgenommen und selbst in einem Chipsatz der ECC unterstützt (also ein C2xx oder C6xx oder auch der X99) wird ECC RAM dann nicht mit der ECC Funktion laufen.
Bei Grafikkarten ist auch der Wurm drin. So kosten 'einfache' Workstation' Grafkkarten gerne das Vielfache einer mit mit deutlich mehr Speicher versehenen Gamerkarte. Der Aufpreis wird insbesondere argumentativ gerechtfertigt mit dem ECC-Speicher auf der Workstation-Variante. Das sind dann keine System mit ECC RAM, auch wenn ECC RAM in den Slots steckt, jedenfalls nicht im Sinne meiner Posts.
Für wissenschaftliche Berechnungen braucht man aber eben die Sicherheit die ECC bietet und außerdem werden die GPUs dann bei den teuren Profikarten auch nicht in der Performance bei Double beschnitten, das lassen sich die Hersteller eben gut bezahlen. Ist leider so, wer damit Geld verdient, muss auch tiefer in die Tasche greifen.

Ich war schon immer der Auffassung, das Rechner ohne ECC-RAM unbegreiflich sind. Warum tut man so etwas vermeidbar Dummes (auf der Seite der Hersteller und des Handels). Die Frage ist beantwortet: Es ist die böse Fratze des Kapitalismus! :)
Im Sozialismus hätte man das Problem nicht, da gab es keine Computer bzw. nur mit von bösen Kapitalisten geklauter Technik :banana:

Außerdem soll Consumer HW vor allem billig sein, Zuverlässigkeit steht da hinten an und dann hat es auch historische Gründe, die RAMs wurden ja auch immer größer und deren Fertigungsstrukturen immer kleiner, wir sind da schon bei 20nm und weniger. Damit steigt die Fehleranfälligkeit, zumindest im Bezug auf die soft-errors natürlich an. Irgendwann wird dann auch ECC RAM mehr Verbreitung finden, das Intel nun einen Xeon für Notebooks bringt, ist ja auch ein Schritt in diese Richtung.

Selbst einfaches ECC RAM ist keine 100%ig Versicherung gegen RAM Fehler, weshalb auch Advanced ECC Technologien entwickelt wurden, bis zur Spiegelung des RAMs, da kann man den Aufwand immer weiter treiben um die Fehlerrate noch weiter zu reduzieren, dann landet man am Ende bei den Mainframes wo wirklich alles doppelt und dreifach überwacht wird, damit ja nicht irgendwo ein Bitfehler unkorrigiert oder wenigstens unerkannt bleiben kann, weshalb die Dinger auch bei Banken und Versicherungen noch immer unersetzlich sind, dann da könnte ein unbemerkt gekipptes Bit enormen Schaden anrichten.
Eine Backupkiste mit ECC-RAM muss nichtmal 100 EUR kosten. ... Die Stromverbräuche dieser 19"-Hardware sind nicht mehr zeitgemäß, für kurze manuelle oder automatisierte Backups fallen diese aber kaum ins Gewicht.
Oder man nimmt halt einen Microserver wie ich sie schon genannt habe, da hat man für 200€ einen HP Gen8 mit 4 Bays, kann dann ein Linux wie OMV oder FreeNAS oder NAS4Free FreeBSD Derivat drauf machen mit einem SW-RAID 5 und hat dann auch eine Sicherheit, denn wenn eine HDD defekte Sektoren hat, fällt es beim Scrubbing auch.

Ich hatte zu diesem Problem ja schon in einigen Foren geschrieben, wie ich
jetzt erkenne offenbar in den völlig falschen Foren
Foren sind nur so gut wie die Leute die dort aktiv sind.

Selbst User, die offenbar
bei / für WD arbeiten, WD repräsentieren, jedenfalls wohl irgendwie in
Zusammenhang mit WD stehen und sich nach meiner Einschätzung auch
auskannten, waren der Meinung, es liege an der falschen Initialisierung
(für Platten ab 2,2 TB) der Platten, die bei mir bei jeder Platte in MBR
ist, nur eine Platte, die Seagate Expansion 5TB ist in GPT
initialisiert.
Wie gesagt haben die einfachen HDDs von WD eben keine Erkennung von Fehlern auf den internen Datenpfaden, daher können WD Vertreter dort wenig positives beitragen.

Platten über 2TB können übrigens sehr wohl mit MBR partitioniert werden und sind es auch oft wenn sie in USB Gehäuse als fertige USB Platten verkauft werden, denn die Grenze bei 2TiB für MBR ergibt sich aus der Breite von 32Bit für die Information in LBAs wo eine Partition anfängt und wie lange sie ist. 2TiB ergeben sich dabei aber nur bei 512 Byte pro LBA, wie es die HDDs bisher fast alle adressieren, egal ob nativ mit 512Byte pro physikalischem Sektor (512n) oder emuliert bei 4096 pro physikalischem Sektor (512e), aber bei 4096 Byte (4k) pro Sektor ist die Grenze bei 16TiB und da Windows XP normalerweise kein GPT unterstützt (nur die exotische 64Bit Version kann das wohl, aber wer nutzte die schon), haben die Hersteller von USB Gehäusen den USB-SATA Bridgechips dadrin eine 4k Sektoremulation spendiert, damit eben auch Platten über 2TB normal mit MBR als eine Partition auch unter XP genutzt können.

Das kann man auch leicht prüfen, man schließt die USB Platte an, startet eine cmd.exe und führt folgenden Befehl genau so aus:

wmic diskdrive get BytesPerSector,Model

Bei mir kommt raus:
BytesPerSector Model
512 M4-CT512M4SSD2
512 ST1000LM024 HN-M101MBB
4096 ST3000DM 001-1CH166 USB Device
Meine 3TB Seagate ist auch in einem USB Gehäuse das 4k Sektoren emuliert (CnMemory Fertiglösung). Baut man solche Platten auf intern SATA Anschluss oder Anschluss über eSATA um, kommt man nicht mehr an Daten und musst sie neu Partitionieren und formatieren um sie wieder nutzen zu können, aber recovern lässt sich auch dann von den alten Daten nichts!

Ich hätte also auch gar nicht mehr gedacht, überhaupt noch jemals die
Ursache, geschweige denn eine Lösung zu erfahren
Wir können auch nur die möglichen Ursachen abzuklopfen und hoffentlich finden wir dann welche es war, aber ob wir sie 100%ig sicher finden, weiß man vorher auch nie. Deshalb gehe ich von der wahrscheinlichsten Ursache zu den weniger wahrscheinlichen vor.
Also ganz einfach verständlich...und erstaunlich: es wird also offenbar
auf diesem gesamten Übertragungsweg geprüft, nur im RAM nicht. Das
erscheint mir merkwürdig, oder verstehe ich das falsch?
Ja, so ungefähr ist es, wobei auf dem Übertragungsweg vom Medium, also den rostigen Scheiben die sich drehen zur nächsten rostigen Scheibe die sich in einem anderen Gehäuse dreht, natürlich viele Stationen liegen. Schutz vor gekippten Bit haben sie auf den rostigen Scheiben, da es dort eben öfter vorkommt und man ohne eine ECC hinter jedem Sektor mit einer HDD nichts anfangen könnten, dann haben sie diesen Schutz auf dem Weg über das SATA Kabel und auch über das USB Kabel, zumindest beim Bulk Protokoll, bei UASP ist der Schutz geringer, damit der Overhead weniger und die Performance besser werden, aber ganz ohne dürfte es auch nicht sein, Allerdings kenne ich das UASP Protokoll dafür nicht genau genug um das bewerten zu können.

Dann gibt es aber eben noch die internen Datenpfade auf der Platte, wozu deren Cache gehört, ebenso das SRAM auf den Controllern, das sind normale CPUs die entweder auf ARM Basis sind oder noch die alten 8051er CPUs enthalten und die haben alle auch intern ein SRAM in dem sie die Daten zwischen dem Eingang auf der einen Seite zum Ausgang auf der anderen Seite zwischenlagern müssen. Da könnten ggf. auch mal ein Bit kippen, da hängt es von Controller ab ob er das merkt, bei billiger Consumer HW stehen die Chancen eben schlecht, siehe WD HDDs. Aber es gibt auch den USB SATA Bridgechip und den USB3 Host Controller sowie den SATA Host Controller für die interne Platten, also mehr als genug Risiken. Enterprise Platten und richtige Enterprise SAS Controller schützen diese internen Datenpfade natürlich auch vor Bitfehlern, gute Enterprise HW kostet eben nicht nur mehr, sie kann auch mehr, nur sieht man solche Feature eben nicht auf den ersten Blick.
Aber wieso wird
denn nicht beim Schreiben - Verzeihung, falls diese Frage zeigt, daß ich
nichts verstehe - nicht einfach etwa eine Prüfsumme gebildet (ohne
Zeitverlust ja bestimmt, da sie eben sowieso gelesen wird) und beim
Schreiben auf die Platte ebenso...weil die Prüfsumme wohl erst noch
einmal erstellt werden müßte nach dem die Datei komplett geschrieben
wäre auf der Zielplatte
Die Platten bilden die Prüfsumme pro Sektor für die Daten die sie bekommen, welcher Sektoren zu einer Datei gehören, wissen HDDs oder SSDs überhaupt gar nicht, das ist eine Sache des Betriebs- bzw. Filesystems (zu dem Filesystem gehören mehr als die Datenstrukturen auf einer Platte, dazu gehört auch eine Menge Software!), denn das verwaltet den Adressraum den eine Platte bietet. Es gibt auch Filesysteme die eine Prüfsumme über die ganze Datei erstellen um deren Integrität sicherzustellen, wie z.B. ZFS. Wurde die Daten aber z.B. im RAM durch ein gekipptes Bit schon verändert, nutzt das aber auch nichts, da dann nur sichergestellt wird, dass die durch den Fehler schon veränderten Daten so blieben wie sie durch den Fehler schon falsch sind.

Das Prinzip ist also ganz einfach, falls ich richtig verstehe: eine Übertragung wird korrekt
ausgeführt (da ja geprüft wird)
Jein, bei Consumer HW, also Consumer HDDs/SSDs und Consumer Controllern gibt es da auf dem Weg Lücken, da wird bei den HDDs auf der Platte mit ECC gesichert, aber auf den internen Datenpfade und im Cache der Platte nicht, dann aber wieder bei der Übertragung zum SATA Host Controller, der sichert das intern in seinem SRAM wohl auch nicht unbedingt und dann aber wieder bei der Übertragung über PCIe. Es werden eben bei den Übertagungen die Daten in kleine Pakete aufgeteilt, bei SATA zu maximal 8192Byte und dann wird für jedes Paket eine CRC Prüfsumme ermittelt und mit übertragen, das ist also auch nicht mehr die originale ECC Prüfsumme die auf der Platte steht und pro physikalischem Sektor von 512Byte oder 4096Byte vom Controller der Platte beim Schreiben errechnet und beim Lesen geprüft wird.

Der SATA Host Controller empfängt dieses Paket und die CRC dahinter und prüft ob diese für die Daten stimmt, wenn nicht wird erneut übertragen und wenn ja, wirft er sie weg, speichert die Daten in seinem internen Puffer (SRAM auf dem Chip, bei Enterprise SAS Controllern auch externer DRAM Cache mit ECC) und überträgt sie dann über PCIe, wobei er dann neue Pakete schnürt, dafür wieder eine CRC oder ECC oder was PCIe da eben verlangt für jedes Paket berechnet und hinten anhängt, die prüft dann der Empfänger und wenn sie stimmen, packt der die Daten in das RAM wo sie hin sollen.

Wie Du sieht, sieht es für Consumer HW folgendermaßen aus:
1.) Daten auf dem Medium -> per ECC geschützt
2.) Daten im Cache des Controllers der HDD -> meist nicht geschützt
3.) Daten über SATA -> per CRC geschützt
4.) Daten im Puffer des SATA/SAS Host Controller -> meist nicht geschützt
5.) Daten über PCIe zum Host -> geschützt
6.) Da SATA Host Controller dann auch noch am Chipsatz hängen, gibt es noch einen Schritt über DMI zur CPU, was auch PCIe ist.
7.) Daten in der CPU zum RAM Controller (früher wäre das in der Northbridge, die sitzt ja heute in der CPU), keine Ahnung, aber ich hoffen doch das die die Daten schützt, die Xeons sollten es tun und warum sollte Intel das beschneiden?
8.) Daten auf den Weg ins RAM -> Bis DDR 3 ohne ECC RAM ungeschützt, seid DDR4 geschützt selbst ohne ECC RAM
9.) Daten im RAM -> nur bei ECC entsprechend dem ECC geschützt

Wie Du siehst, sind da viele Etappen auf denen die Daten unterwegs sind und erst im RAM wird dann daraus die volle Datei, vorher sind das alles irgendwelche Daten und vor allem in den Puffern lauert immer ein Risiko. Aber die sind meist klein, außer dem Cache der HDD und wenn es dort Bitfehler gibt, würde dieses massive Probleme machen und wohl kaum eine Datei könnte korrekt übertragen werden, wenn der Controller überhaupt noch arbeiten würde und daher ist es extrem unwahrscheinlich das dort etwas wirklich unbemerkt passiert.
bis zum RAM, im RAM kann ein Bit
verlorengehen oder vielleicht ja sogar an falscher Stelle
gesetzt werden, da findet keine Prüfung
statt, dann, bei der weiteren Übertragung wird weiterhin prüfend die
Datei dann auf die Platte geschrieben.
Genau im RAM sind die eben ungeschützt, wenn man kein ECC RAM hat, dann geht es den Weg wieder mehr oder weniger so auf in umgedrehter Reihenfolge und dann über den USB Host Controller und den USB-SATA Bridgechip zur Zielplatte. Wie Du siehst haben die Daten eine lange Reise zu machen, wenn man sie einfach nur von einer internen HDD auf eine USB Platte kopiert.

Das heißt, auf dem Weg zum RAM
wird geprüft und vom RAM, aber die Prüfungen auf den beiden Teilstrecken
(zum RAM, vom RAM) werden nicht miteinander verglichen?
Es sind Pürfsummen, da wird nicht zweimal übertragen und miteinander vergleichen, aber im Prinzip reicht das, da diese Prüfsummen schon eine hohe Sicherheit bieten, die Wahrscheinlichkeit das die Daten mit falschen Bits auch wieder zur Prüfsumme passen, ist ganz minimal.
Verzeihung, RAM-Fehler kommen häufiger vor, als viele denken? Oder vielleicht
derartige Fehler sind gängig, nur für viele nicht zuordenbar?
Richtig, es steht ja nie RAM Fehler dabei, da diese als solche eben nur mit ECC RAM erkannt werden können und mit einem Betriebssystem welches das auch unterstützt, hat man dann meist auch die Überwachungstools um auszulesen, wie oft dann RAM Fehler vorgekommen sind, aber das muss die Plattform eben unterstützen und bei Consumer Plattformen ist dies eben nicht der Fall, da merkt man RAM Fehler nur an den Folgen, wie korrupte Dateien, abgestürzte Programme oder Bluescreens. Ob aber ein Bug die Ursache war oder ein RAM Fehler, wird man da nie erfahren, da steht eben nie RAM Fehler daneben, dann eben das Programm verbuggt und Windows sowieso.

Auch von Microsoft gibt es eine Analyse zu Hardwarefehlern:
Auch die CPU hat wie man sieht da Einfluss auf Stabilität, Übertakten fördert diese auch nicht gerade, was aber auch bekannt sein sollte und bei Notebooks sowieso i.d.R. nicht möglich ist.
Danke für die Google-Studie. Ach da steht's ja gleich am Anfang sogar:
"Errors in dynamic random access memory (DRAM) are a common
form of hardware failure in modern compute clusters"
Nie auch nur das Geringste davon gehört. Das heißt ganz einfach, diese
Art Fehler - wie ich sie habe - kommen also recht oft vo wohlr, offenbar
ohne, daß sie tatsächlich zugeordnet werden (von vielen oder den
meisten), Dateien sind also irgendwann einfach kaputt und das war's.
Ja, bei Heimanwendern schon, Profis nutzen bei allen Servern und Workstations eben passende Enterprise HW mit ECC RAM, Platten / RAID und Controllern die davor Schutz bieten. Je näher der Schutz an 100% kommen soll, umso teurer wird es und am Ende landet man wie gesagt beim Mainframe.

Heimanwender wollen vor allem Billig, bekommen auch billig und ohne so viel Schutz, da wird nur abgesichert wo die Risiken am höchsten sind, also auf dem Medium, weil eben gekippte Bits bei Magnetscheiben und auch im NAND häufig sind und bei den Übertragungen über Leitungen wie bei SATA und USB, weil auch dort Probleme besonders häufig sind. Das muss reichen um meistens zu funktionieren und mehr gibt es für wenig Geld eben nicht und in den allermeisten Fälle reicht es ja auch, sonst wären die Foren voll mit Leuten mit Problemen wie Deinem, aber die gibt es eben nur ab und an mal.
Meine Notebooks, damit die RAM, sind ca. 4 Jahre alt, wenn nach 10 bis
18 Monaten die Fehleranfälligkeit beim RAM sich erhöht, wäre die Zeit
für diese Fehler ja schon lange bei mir gekommen.
Nicht unbedingt, oder lauft das Notebook 24/7 durch, wie es bei Servern üblich ist? Bei 8 Stunden täglich kommen in 4 Jahren weniger Betriebsstunden zusammen als bei 18 Monaten Dauerbetrieb.
Sollte man denn nach
dieser Zeit, bzw. wohl eher vorher schon, von 10 bis 18 Monaten RAM,
wenn es nicht ECC-RAM ist, austauschen?
Nein, man sollte es nur ab und an mal gründlich testen, wenn es dann die Zeit hinter sich hat und noch immer keine Fehler (hard-errors) aufweist, warum sollte man es dann tauschen und das Risiko eingehen beim neuen RAM Fehler zu bekommen, ggf. erst nach entsprechender Zeit der Nutzung?

Wenn wie die Studie es nahelegt nach einiger Zeit die Wahrscheinlichkeit fällt das RAM doch noch anfängt Fehler zu haben, dann ist entsprechend altes RAM welches keine Fehler hat ja doch besser als neues RAM bei dem man das noch nicht weiß. Da die Studie sich auf Enterprise HW bezieht die gewöhnlich alle 5 Jahren ersetzt wird, sollte man daraus jetzt aber keine Rückschlüsse auch sehr alten RAMs ziehen, dass gibt sie wohl nicht her!
Gut, also nachdem man mit einem Speichertest - und das geht eben nur mit
so einem Test - festgestellt hat, daß keine hard-errors vorkommen, der
RAM also intakt ist, kann man Fehler ausschließen, die durch defekten
RAM verursachte werden, jedenfalls, wenn man den Test richtig gemacht
hat, glaube, das machen ja auch nicht alle, die dann in Foren aufgrund
ihres falsch ausgeführten Tests und damit verbundenen Schlußfolgerungen
Informationen veröffentlichen, die gar nicht stimmen, könnte ich mir
denken.
Auch nicht 100%ig, was aber kein Argument ist den Test mit Memtest86+ nicht zu machen. Die Restrisiken sind halt einmal die Belastung, auch die thermische, die bei Memtest86+ eher gering ist und damit können Fehler die bei höheren Lasten entstehen, sei es wegen der Temperatur oder der Spannungsversorgung, die mit Memtest86+ eben u.U. nicht gefunden werden oder auch das Problem bei unterschiedlichen SPD Informationen in den Riegel, das ist ein ganz fieses Thema, wie ich ja schon erwähnt habe.
Und diese soft-errors kommen eben einfach in nicht ECC-RAM vor,
Die kommen in jedem RAM vor, übrigens auch in SRAM, die werden auch eben nur mit ECC RAM überhaupt erkannt, da hat man mit Tools wie Memtext86+ praktisch keine Chance diese zu finden.

Da spielt aber die Zeit eine wichtige Rolle, je länger Daten in einem RAM stehen, umso wahrscheinlich wird so ein durch soft-errors gekipptes Bit und ebenso je größer das RAM ist.
hatte Memtest86+ schon laufen lassen, 19 Stunden, mit dessen
Voreinstellungen, von USB-Stick gestartet, keine Fehler
Das ist einerseits gut schon mal nicht defekt zu sein scheint, aber andererseits hat damit der Hauptverdächtige schon mal ein gutes Alibi, aber prüfe z.B. mit CPU-Z oder HWInfo ob die RAMs identisch sind und möglichst das gleiche Produktionsdatum aufweisen. Dann sollte auch mal mindestens eine halbe Stunden mit Prime95 (Blend Test) getestet werden ob der Rechner stabil läuft und dabei die Temperaturen überwacht werden, z.B. mit Sensors bei HWInfo. Da Prime95 unter Windows läuft ist kein so zuverlässiger Test des ganzen RAM damit machbar, aber dafür macht es gewaltig Last und man kann daher testen ob das RAM und die CPU unter Last noch stabil und fehlerfrei laufen, es ist also eine gute Ergänzung zu Memtest86+, aber eben kein Ersatz dafür.
Das klingt ja verdammt kompliziert (und irgendwie gefährlich)
Da Du keine RAM Fehler hast, fällt das für Dich weg, bei Notebooks kann man im BIOS/UEFI sowieso meist nur sehr wenig einstellen.

Z.B., wenn also im RAM 1,5 GB RAM frei wären und die zu kopierenden Datei 1,6 GB groß, dann könnte man davon ausgehen, daß die Kopie zur Prüfung von der Platte gelesen würde.
Das hängt von der Cachestrategie des OS ab, aber mindestens 100MB müssen dann von der Platte kommen.

Vielen Dank auch für die Links. Das klingt aber doch schon alles recht kompliziert und aufwändig, glaube, um sich so etwas zusammenzubasteln, sollte / müßte man schon ganz schön viel Ahnung haben.
Nein, so einen HP Gen8 kann man für 200€ kaufen, dann baut man noch ordentliche Platten ein und vielleicht einen USB Stick für das Betriebssystem und nimmt eine fertige Distribution wie OMV (Debian Linux basiert), NAS4Free oder FreeNAS und schon hat man einen Heimserver der bzgl. der Datensicherheit und Performance jedes normaler NAS Gehäuse in ähnlichen Preisregionen locker schlägt.

Das ist nicht kompliziert, man muss sich nur die Distribution suchen die einem am Besten gefällt und diese dann eben selbst aufspielen, der Rest geht dann über ein Web-Interface wie bei den NAS Gehäusen auch. Man ist aber eben viel flexibler und hat eine weitaus potentere HW zu Verfügung.
Was ist ein Pool, den man verlieren kann? ZFS, das Dateisystem (wie in Wiki gefunden), das wohl im Vergleich zu dem von Win erhebliche Vorteile hat.
Das ist ein ZFW RAID mit Filesystem drauf, ZFS vereint ja beides, SW-RAID und Filesystem.
aber die Ursache zu finden - wie es bei mir ja auch ist / war, ganz schön schwer oder gar nicht zu finden ist.
So ist es, wie Du siehst hat sich auch hier der erste Verdacht noch nicht bestätigt, mal sehen was mit Prime95 passiert.

Aber der banale Nutzer, wie ich, der von überhaupt nichts eine Ahnung hat, weiß ja nicht einmal, daß es ECC-RAM gibt, bzw. um derartige Probleme.
Dem ist leider so, das Problem dürfte viele nicht bekannt sein, die meisten testen das RAM der Rechner die sie bekommen oder zusammenbauen nicht einmal, bis sie dann Probleme bekommen und selbst dann wird meist blind irgendwas getauscht, statt eine systematische Fehleranalyse zu machen.

Ja, die vernachlässigte Gefahr, vielen ist das Thema nicht bewusst. Wobei ich den Artikel nicht besonders gut finde, auf die RAM Fehler wird nicht eingegangen und es wird übersehen, dass die Platten je selbst immer eine ECC für jeden Sektor haben und kleine Fehler korrigieren können, bei großen Fehlern dann Fehlermeldungen ausgeben, aber andererseits eben die billigen Consumer Platten selbst keinen Schutz auf ihre internen Datenpfaden bieten. Außerdem werden da Äpfel mit Birnen vergleiche, ein ZFS RAID gegen ein einfach Volumen ohne RAID, bei dem dann ein defekte Sektor zu einem Lesefehlern führt, so dass man die Datei nicht mehr lesen kann, die Daten dann verloren hat wenn sie nicht im Backup stehen, aber wenn man ein RAID 1, 10, 5 oder 6 hat, dann passiert das auch ohne ZFS nicht, dafür hat das RAID ja Redundanz um diese Daten rekonstruieren zu können und damit er behoben werden kann bevor der Fehler an der gleichen Stelle bei mehreren Platten auftrifft, macht man regemäßig ein Scrupping des RAIDs um eben solche nicht lesbaren Sektoren rechtzeitig finden und wiederherstellen zu können. Auch ohne ZFS gibt es genug Wege die Silent-Data-Corruption zu vermeiden, nur muss man zuerst einmal ordentlich HW haben, das ist die Basis dafür.
Hier eine dieser 4 Elements-Platten:
Die Werte sehen gut aus, aber die hat kein Attribut für Ende-zu-Ende Fehler, wenn da auf den internen Datenpfade oder im Cache RAM etwas kaputt ist, wird das in den S.M.A.R.T. Werten daher auch nie auffallen.

Die hat allesdings Fehler:
Code:
 (1) ST1000LM024 HN-M101MBB
   Serial Number : xxxxxxxxxxxx613
....
ID Cur Wor Thr RawValues(6) Attribute Name
01 100 100 _51 000000000021 Lesefehlerrate
...
0B 100 100 __0 0000000002C5 Rekalibrierungswiederholungen
...
BF 100 100 __0 000000000024 G-Sense Fehlerrate
...
C8 __1 __1 __0 0000000164FE Schreibfehlerrate
Die hat einige G-Sensor Auslösungen und wurde also zu harten Schocks ausgesetzt, daher wohl auch einige Lesefehler, aber wenigstens keine schwebenden Sektoren, aber viele Schreibfehler. Da müsste es eigentlich auch schon mal Fehlermeldungen geben. Wenn das Notebook viel mobil genutzt wird, mechanische Belastungen also nicht zu vermeiden sind, würde ich eine SSD empfehlen, die vertragen diese Stöße weitaus besser als HDDs. Ein Ende-zu-Ende Fehler Attribut hat sie auch nicht, das ist bei den 2.5" Consumer Platten noch seltener zu finden als bei den 3.5".

Hier auch noch von Western Digital Data LifeGuard Diagnostics ein Test:
WD LifeGuard geht nur für WD Platten, bei denen anderer Hersteller (außer vielleicht HGST die ja nun WD gehören) ist es wenig hilfreich.
Ich dachte, unter den Begriff Silent-Data-Corruption gehören nur dahinsiechende Bits durch nicht fehlerhafte, also völlig intakte Bauteile; aber offenbar auch die durch schadhafte Bauteile verursachte.
Nein, dazu gehört im Grunde alles was dafür verantwortlich ist, dass die Kopie der Daten auf einer Platte nicht mit der auf einer anderen Platte übereinstimmt, oder mit dem was man mal geschrieben hat oder im weiteren Sinne auch dafür sorgt, dass eine Datei nicht mehr gelesen werden kann, dann ist es weniger Slient als nur Data-Corruption.

Wie schon gesagt ist die Wahrscheinlichkeit extrem gering das die Bit auf der Oberfläche einer HDD oder im NAND einer SSD sich genauso so ändern, dass diese noch nur ECC passen und daher falsch geliefert werden ohne einen Lesefehler auszulösen. Sehr viel wahrscheinlicher ist dagegen, dass diese nicht zur ECC passen und mit der ECC auch nicht korrigiert werden können, was dann einen Lesefehler und einen schwebenden Sektor bedeutet.
Mit dem Programm, h2testw, - vielen Dank für den Link - hatte ich auch schon ein paar GB, vielleicht 500 GB oder so getestet, kein Fehler angezeigt, deshalb dachte ich, diese Fehler kommen vielleicht eben nur beim "normalen" Transfer vor, nicht bei diesem Test.
Man müsste hier beide Platten testen, denn beide haben keine Erkennung von Fehlern auf den internen Datenpfaden. Man sollte auch ruhig so 5 oder 10GB Testdaten von h2testw auf der Platte stehen lassen um diese regelmäßig mal zu prüfen, also ob auch nach längerer Zeit die noch fehlerfrei lesbar sind. So halte ich es auch auf den meisten meiner Platten, die paar GB tun mir nicht weh, aber wenn es mal Probleme geben wollte, habe ich Daten auf der Platte um eine Datenkorruption erkennen zu können.

Ich habe Korruption ja bislang nur festgestellt nach dem Kopieren / Verschieben von Dateien / Entpacken von Archiven von einer internen Platte zu einer externen USB 2.0- oder 3.0-Platte (wohl allen meinen USB-Platten, testete ich aber nicht bei allen) verschiedener Größen, Hersteller (Seagate, Medion, WD) / einer 640 GB-Platte, 2,5" oder nach dem Kopieren von Dateien / entpacken von Archiven auf einer externen oder nach dem Kopieren / Verschieben von Dateien / entpacken von Archiven von einer externen zu einer anderen externen Platte.
Wenn es nicht das RAM ist, also wenn auch Prime95 keine Fehler zeigt und damit RAM und CPU auch unter Last problemlos arbeiten, dann könnte es am USB Host Controller, den USB-SATA Bridgechips, den Platten in den Gehäuse oder auch dem USB Treiber liegen. Teste die USB Platten mit h2testw, damit kannst Du die ganze Kette prüfen die die Daten zurücklegen.
Also bisher noch niemals festgestellt eine Korruption nach dem Transfer auf einer internen Platte.
Bei deren Schreib- und Lesefehlern schon fast ein Wunder, aber die Platte scheint es immer noch zu schaffen die Daten dann doch zu lesen oder zu schreiben. Tausche die trotzdem, ihr Zustand ist schon grenzwertig.

Kann / muß man aus alledem schließen - zumindest ohne ECC-RAM -, daß man bei allen Transfers unabdingbar nach Prüfsummen oder Dateiinhalt vergleichen sollte?
Da Du Datenkorruption hast, solltest Du alle Transfers vermeiden, bis die Ursache gefunden und behoben ist und bei den unvermeidbaren eben Dateiinhalte vergleichen. Ich habe mit z.B. ein kleines Tool geschrieben welches das macht, es vergleiche Dateien oder ganze Ordner und löscht sie dann eine davon, wenn alles zu 100% übereinstimmt, da wird wirklich Bit für Bit vergleichen.

Eine Backupkiste? Ist das eine externe Platte, NAS, oder so was? Oder ein Computer?
Ein NAS ist erstmal nur ein Speicher auf den man über ein Netzwerk zugreift, auch wenn vielen vor allem diese keinen Gehäuse die es extra dafür zu kaufen gibt darunter verstehen. Man kann aber jeden Computer der Dateien über ein Netzwerk freigibt als NAS ansehen, das muss keine extra dafür gedachte und gemachte Kiste sein.
Die Anwendungen dafür sind vielfällig, aber auch Daten die nur auf einem NAS stehen, muss und sollte man extra sichern, wenn man sie nicht verlieren will, das sind keine Tresore für Daten für die viele Anwender sie offenbar halten.
Die Daten auf meinen Platten sind größtenteils Musik und Videos, Archive, auf die ich normalerweise immer zugreifen würde bei Bedarf, also keine Sicherungen. Dateien, die ich also ganz normal nutzen würde.
Hast Du denn Sicherungen davon? Oder wäre etwas Wichtiges verloren, wenn jetzt z.B. eine der USB Platten oder die interne komplett ausfallen würde, etwas weil sie runterfällt?

Vielleicht wäre ein solcher HP Gen8 als Heimserver / NAS und die alten USB Platten als Backups dafür bei Dir nicht die schlechteste Lösung, dann hast Du die ganze Daten zentral an einer Stelle. Ende 2013 hatte ich auch die Schnautze voll mit immer mehr USB Platten hantieren zu müssen und mir den HP N54L geholt, 5 WD Red 3TB unter OMV als SW-RAID 5 verbaut und nutzen die alten USB Platten nur noch als Backups.
Aber man muß eben auch fähig sein, das alles einzurichten, und bei meinen sinnlosen Fähigkeiten könnte ich leider gerade nur mal eben so ein System einschalten...also, glaube ich jedenfalls.
Da muss man sich einarbeiten, so schwer ist das aber nun auch nicht, es gibt ja fertigte SW Distributionen die man installieren kann und dann hat man eine graphische Oberfläche per Brower und damit praktisch das gleiche wie bei einem fertigen NAS.

- - - Updated - - -

Na das war ja mal ein Forumsbeitrag! :)
Und mein letzter erst, 3 Stunden, aber was tut man nicht alles um Forenkollegen zu helfen.

Wenn Geld keine Rolle spielt und Du möchtest etwas verlässlich Gutes, dann hole Dir ein NAS-System von Synology oder Thecus MIT ECC-RAM. Die teureren Modelle beider Hersteller haben das. Selber bauen wäre günstiger, aber soweit bist Du nach Deiner Selbsteinschätzung noch nicht.
Aber die ganz teuren, die anderen haben zwar teils Xeon CPUs, aber kein ECC RAM!

Schau Dir z.B. das ASUSTOR AS7004T an, das hat einen Core i3-4330 der unterstützt ECC RAM, aber es hat kein ECC RAM und damit bekommt man dort für 1000€ im Grunde nichts, was der kleine HP ProLiant MicroServer Gen8, Celeron G1610T, 2GB RAM (712317-421) ab € 204,85 (Upps, dessen Preis steigt ja täglich, scheint auch schon nicht mehr produziert und damit knapp zu werden) mit einer freien SW nicht auch bietet (ich meine man kann sogar das Synology DSM NAS OS dort installieren), ok eine etwas bessere CPU gibt es für die 1000€, aber eben kein ECC RAM und die bessere i3 CPU oder einen Xeon kann man beim HP nachrüsten. Wer da für den ASUSTOR 1000€ hinlegt, hat selbst Schuld. Ich finde diese NAS Kisten total überteuert und dann haben die eben meist kein ECC RAM, was echt Blödsinn ist.

PS: Gerade wegen dem Risiko von Soft-Errors würde ich bei Heimservers / NAS unbedingt auf ECC RAM Wert legen, denn vor allem wenn die mehr RAM haben und man speichert dort etwas, dann wird es auch im RAM gecacht, liest man es am nächsten Tag wieder ein, ist es wegen der meist geringen Nutzung wahrscheinlich noch im RAM und wird ganz schnell geliefert, was ja angenehm ist, lag aber viele Stunden im RAM und was damit entsprechend eine erhöhten Risiko von soft-errors ausgesetzt. Nun kann man sich, gut dann fahre ich den Rechner Nachts immer runter, aber dann dauert es danach auch entsprechend lange bis die Daten eben von der Platte gelesen wurden.
 
Zuletzt bearbeitet:
Danke für die Blumen, schön das es noch Leute gibt für die zu schreiben sich die Mühe auch lohnt.
 
Danke Holt dass du dir zu diesem Thema so viel Arbeit machst.

Ich habe bei mir vor längerer Zeit ein ähnliches Problem bemerkt(Sowohl am Desktop als auch am Laptop, beide mit Win7, bereits mit Memtest86+ und Prime getestet).

Beim Kopieren von MKV Dateien auf USB3 HDDs habe ich festgestellt dass manchmal die CRC32 Checksumme der Kopie nicht der Checksumme des Originals bzw. dem im Dateinamen hinterlegten Wert entspricht.

Folgende Beobachtungen konnte ich machen:

  • Je größer der Kopierauftrag desto wahrscheinlicher ist es eine fehlerhafte Kopie zu erstellen.
  • Größere Dateien sind wahrscheinlicher betroffen (eine 4GB Datei in einem 100GB Ordner zusammen mit 300-500MB Dateien war bei Tests öfter betroffen).
  • Mehrere Parallele Kopieraufträge erhöhen das Risiko(so lässt sich der Fehler recht gut provozieren)
  • Der Fehler ist geschwindigkeitsabhängig, an USB2 ist die Wahrscheinlichkeit mit den gleichen HDDs vielleicht 1/100 im Vergleich zu USB3.
  • Am Desktop habe ich auch mit einer Ubuntu live CD getestet hier ist der Fehler sehr schwer zu provozieren da Ubuntu anscheinend Kopiervorgänge nacheinander abarbeitet.

Da ich keine sinnvolle Lösung gefunden habe, habe ich zwischendurch einfach USB3 verflucht(bzw. die genutzten Controller).

Nun habe ich letztens für einen 2.PC eine 250GB Crucial BX100 gekauft und im Desktop getestet ob sie funktioniert bevor sie ins Zielsystem kommt.
Also erstmal h2testw 2mal drüber laufen gelassen. Anschließend ein paar MKVs von der internen 4TB Platte auf die SSD kopiert so dass diese voll wird und erstaunt festgestellt dass ich auch hier wenn ich parallel mehrere Kopieraufträge starte, so dass die Quell-HDD gefühlt mehr mit suchen beschäftigt ist als mit dem liefern von Daten, wieder Dateien mit falscher Checksumme entstehen.

Nach lesen des Threads denke ich dass mein Problem auf einem System mit ECC nicht vorkommen würde.
Da man sagen könnte dass Daten die länger im Ram liegen öfter betroffen sind, so könnte man die Abhängigkeit von der Größe des Auftrags, der Dateigröße, und der Anzahl der parallelen Aufträge erklären.

Oder hat jemand noch eine andere Idee woran es liegen könnte?
 
Mit Backupkiste habe ich flapsig einen Server gemeint.
Ah, ach so, so einen Server könnte man also offenbar nicht nur fürs Internet benutzen, sondern auch für "meine" Zwecke. Aber da sind ja völlig andere Kenntnisse / Fähigkeiten (also sozusagen gar keine) erforderlich als die, die ein einfacher Kachelschieber wie ich hat. Das würde ich nie hinkriegen.

Wenn Du von sinnlosen Fähigkeiten Deinerseits sprichst, so glaube ich Dir nicht ganz.
Dein gesamter Stil darauf hindeutet, dass Du in der hier behandelten Materie richtig tief einsteigen könntest.
Ah, vielen Dank, freut mich zu hören, aber das ist leider tatsächlich so, mein Gehirn bringt so eine Leistung ganz schlicht einfach nicht annähernd.

Aber vorab: Wenn Geld keine Rolle spielt und Du möchtest etwas verlässlich Gutes, dann hole Dir ein NAS-System von Synology oder Thecus MIT ECC-RAM. Die teureren Modelle beider Hersteller haben das. Selber bauen wäre günstiger, aber soweit bist Du nach Deiner Selbsteinschätzung noch nicht.
Ich könnte die Teile maximal aus der Verpackung - in der sie vielleicht geliefert werden - auspacken, dann wäre es zu Ende. Ups, leider spielt Geld doch eine ganz schöne Rolle, wenn das nicht so wäre, dann würde ich...ich fange lieber gar nicht erst an.

Foren sind nur so gut wie die Leute die dort aktiv sind.
Ja, genau, gerade deshalb ja hätte ich eben gedacht - es ist ja auch nicht so leicht, wenn man wie ich keine Ahnung hat, herauszufinden, wer Ahnung hat, welches Forum für die jeweilige Frage das beste ist (versuche ich anhand der Menge der Beiträge und vielleicht der Rubriken, was dort also ausdrücklich angeboten wird, in dem Forum herauszufindden, offenbar mehr als unzureichend) -, daß in riesigen Foren wie Beeping Computer, Geeks To Go, Major Geeks, Tech Support Guy und derweiteren viel mehr, Leute aktiv sind, die sich auskennen.

Platten über 2TB können übrigens sehr wohl mit MBR partitioniert werden und sind es auch oft, wenn sie in USB Gehäuse als fertige USB Platten verkauft werden, denn die Grenze bei 2TiB für MBR ergibt sich aus der Breite von 32Bit für die Information in LBAs wo eine Partition anfängt und wie lange sie ist. 2TiB ergeben sich dabei aber nur bei 512 Byte pro LBA, wie es die HDDs bisher fast alle adressieren, egal ob nativ mit 512Byte pro physikalischem Sektor oder emuliert bei 4096 pro phys. Sektor, aber bei 4096 Byte (4k) pro Sektor ist die Grenze bei 16TiB und da Windows XP normalerweise kein GPT unterstützt (nur die exotische 64Bit Version kann das wohl, aber wer nutzte die schon), haben die Hersteller von USB Gehäuse den USB-SATA Bridgechips dadrin eine 4k Sektoremulation spendiert, damit eben auch Platten über 2TB normal mit MBR als eine Partition auch unter XP genutzt können.
Klingt alles ganz schön kompliziert, aber zu wissen, daß also doch auf jeden Fall größere Platten als 2,2 TB, also etwa auch 4TB, 5TB in MBR vollständig lauffähig sind (was immerhin auch das Verhalten von Win erklärt, nicht etwa GPT vorzuschlagen bei der Initialisierung, bzw. beim ersten Benutzen), ist natürlich beruhigend zu wissen. So brauche ich vor allem alle Daten auf auf den MBR-Platten, also allen Platten bis auf die 5TB-Seagate, nicht umzukopieren um diese Platten mit GPT zu initialisieren, wie ich es dachte, tun zu müssen. Habe ja leider nur einen einzigen USB 3.0-Anschluß, der sich verhält wie ein USB 2.0-Anschluß, so daß wahnsinniger Weise das Kopieren von einer 4TB-Platte zu einer anderen 2,5 Tage dauert ohne Unterbrechung, als 7/24. Das Überprüfen dauert dann noch einmal 2,5 Tage. Dazu noch das erneute Kopieren der als kaputt angezeigten Dateien. Wenn ich davon ausgehe, nach einem Transfer fortan (was ich jetzt natürlich schon einige Zeit tue) immer die Kopien überprüfen zu müssen, komme ich ja um ein USB 3.0-Notebook nicht mehr herum.
Aber da ich ja Win XP nicht nutze, auch nicht vorhabe ein älteres OS als Win 7 zu nutzen, könnte ich ja alle noch kommenden Platten in GPT initialisieren, das ja gewisse Vorteile im Vergleich zu MBR haben soll. Aber die bereits mit MBR laufenden Platten kann ich getrost so belassen, oder gibt es da einen Grund, aus dem ich sie doch lieber in GPT haben sollte?

Und ich schätze, die Annahme, daß die Korruption an der Initialisierung liegt, kan man wohl ohnehin (vor allem in Anbetracht aller Besprochenen Informationen) als mindestens fast definitiv unwahrscheinlich ansehen, da ja auch Platten, die kleiner als 2,2 TB sind betroffen sind.

Das kann man auch leicht prüfen, man schließt die USB Platte an, startet eine cmd.exe und führt folgenden Befehl genau so aus:

wmic diskdrive get BytesPerSector,Model

Edit: Entschuldigung, hatte ganz vergessen, diese, die folgende Frage schon in einem anderen Beitrag gefragt zu haben, dessen Antwort ich gerade von Dir gesehen habe, vielen Dank.
In diesem Zusammenhang drängt sich mir wieder einmal eine Frage auf (sonst würde ich sofort einige Platten einschalten um diese Eingabe zu machen für die Platten), die ich schon oft gestellt habe, zu der ich aber entweder keine Antwort oder nur eher unbrauchbare gekriegt habe: ich habe schon öfter gelesen und gehört, daß das Einschalten (vielleicht auch das Ausschalten) von Festplatten eine große Belastung für sie sein soll und beachtlich ihre Haltbarkeit, Zuverlässigkeit, Fehleranfällig beeinflussen soll. Stimmt das?

Und diese Unkenntnis darüber läßt mich tatsächlich so verhalten, daß ich Platten möglichst wenig - einfach nur mal so - einschalten will, sondern warte, bis sich etwa eine gewisse Anzahl von Aufgaben gesammelt haben, die ein Einschalten effektiv machen, es rechfertigen. Klingt natürlich schon recht sinnlos dieses Verhalten, aber...vor allem in Anbetracht meiner Korruptionsprobleme hat sich da eben eine gewisse Furchtsamkeit entwickelt.

Ebenso darüber, wie lange ohne Unterbrechung eine Platte (unterschiedlicher Modelle / Arten) laufen sollte / darf / kann, sind ja einfach alle (sich widersprechenden / einschränkenden) Angaben zu finden.

Wir können auch nur die möglichen Ursachen zu finde und abzuklopfen welches es denn sein kann, aber ob wir sie 100%ig sicher finden, weiß man vorher auch nie. Deshalb gehe ich von der wahrscheinlichsten Ursache zu den weniger wahrscheinlichen vor.
Ja, das ist natürlich verständlich. Aber hier ist ja ein sehr plausibler Ansatz vorhanden, eine ebensolche Vorgehensweise, in den meisten (wohl ""renomierten") Foren war ja, nach zwar wohl guten Ideen (Kabel defekt, Oberfläche der Platte, RAM defekt und einiges mehr), wenn es die überhaupt gab, Ende.
Ein Gedanke, der mir noch aufkam, ist, daß, wenn ich mir einfach ein neues Notebook kaufte (was ich sowieso tun muß, wird schwer sein, das richtige zu finden), es vielleicht gar nicht so wichtig wäre, die Ursache für die Korruption herauszufinden aber - davon abgesehen, daß es mich jetzt, da ich mich ja zwangsläufig schon recht lange quälender Weise damit "befasse", auch enorm interessiert und ich den bereits hinsichtlich des Problems gigantischen Umfang an Zeit, ebensolchen Aufwand seit Wochen nicht als völlig verloren ansehen will - es wäre ja auch nicht auszuschließen, daß der gleiche Fehler / das gleiche Problem auch beim nächsten Notebook auftaucht, was sich vielleicht vermeiden ließe, wenn man jetzt das Problem lösen würde oder weiter verfolgen würde zumindest.

Ja, so ungefähr ist es, wobei auf dem Übertragungsweg vom Medium, also den rostigen Scheiben die sich drehen zur nächsten rostigen Scheibe die sich in einem anderen Gehäuse dreht, natürlich viele Stationen liegen. Schutz vor gekippten Bit haben sie auf den rostigen Scheiben, da es dort eben öfter vorkommt und man ohne eine ECC hinter jedem Sektor mit einer HDD nichts anfangen könnten, dann haben sie diesen Schutz auf dem Weg über das SATA Kabel und auch über das USB Kabel, zumindest beim Bulk Protokoll, bei UASP ist der Schutz geringer, damit der Overhead weniger und die Performance besser, aber ganz ohne dürfte es auch nicht sein, aber ich keine UASP dafür nicht genau genug um das bewerten zu können.
Es ist mir etwas unangenehm, daß Du hier kostbare Erklärungen - für die ich natürlich sehr danbar bin - für mich verschwendest, der leider mangels Kenntnis, Auffassungsgabe nur einen Teil davon versteht, aber einfach ausgedrückt für mich, daß ich mir das ungefähr vorstellen kann, ist es wohl so, daß einfach so ein Bit auf dem Weg von einer rostfreien (ich muß das Bild der rostenden Scheiben loswerden, sonst sehe ich - schon schwer paranoisiert [und mit zitternden Händen schreibend] ob der schwindenden Bits auf meinen Platten - hier überall nur noch rottende, rostende Bits von der Zentrifugalkraft der Scheibe fligen und für immer dahinschwinden) Scheibe zur anderen auf gewissen Teilbereichen des Weges in Gefahr unbemerkt zu kippen (verschwinden ist wohl das selbe / gleiche) mangels Kontrolle / Korrektur gegeben ist, ein gewisses Risiko besteht zumindest, auf anderen Teilstrecken hingegen ist es sehr sicher. Beim Kopieren auf derselben Platte, fallen ja - falls ich recht sehe - Teilstrecken weg im Vergleich zum Kopieren / Verschieben auf eine externe Platte. Vielleicht lassen sich so ja auch Fehlerquellen ausschließen, da ja auch beim Kopieren auf einer Platte das Problem identisch scheinend vorhanden ist.
Dann gibt es aber eben noch die internen Datenpfade auf der Platte, wozu deren Cache gehört, ebenso das SRAM auf den Controllern, das sind normale CPUs die entweder auf ARM Basis sind oder noch die alten 8051er CPUs enthalten und die haben alle auch intern ein SRAM in dem sie die Daten zwischen dem Eingang auf der einen Seite zum Ausgang auf der anderen Seite zwischenlagern müssen. Da könnten ggf. auch Bit kippen, da hängt es von Controller ab ob er das merkt, bei billiger Consumer HW stehen die Chancen eben schlecht, siehe WD HDDs. Aber es gibt auch den USB SATA Bridgechip und den USB3 Host Controller sowie den SATA Host Controller für die interne Platten, also mehr als genug Risiken. Enterprise Platten und richtige Enterprise SAS Controller schützen diese internen Datenpfande natürlich auch vor Bitfehlern, gute Enterprise HW kostet eben nicht nur mehr, sie kann auch mehr.
Ich wußte nicht einmal, daß es da - über die vergleichsweise lächerlichen Merkmale, auf die ich so geachtet habe beim Kauf einer Festplatte - noch so unfaßbar viel zu beachten gibt, wollte man nicht, wie ich bislang, einfach nur die billigste mit der größter Speicherkapazität haben. Damit wäre ich ja beim Kauf schon hoffnungslos unfähig. Offenbar gibt es da noch unendlich viele Arten / Modelle an Platten, die mir völlig unbekannt sind mit verschiedenen Eigenschaften von irgendwelchen Systemen wie NAS, RAID und was es da wohl noch so alles geben mag gar nicht erst zu reden.

Ach ja, gibt es eigentlich Versionen von Win, die ECC-RAM unterstützen oder müßte man da ein völlig anderes OS nehmen?

Wie Du sieht, sieht es für Consumer HW folgendermaßen aus:
1.) Daten auf dem Medium -> per ECC geschützt
2.) Daten im Cache des Controllers der HDD -> meist nicht geschützt
3.) Daten über SATA -> per CRC geschützt
4.) Daten im Puffer des SATA/SAS Host Controller -> meist nicht geschützt
5.) Daten über PCIe zum Host -> geschützt
6.) Da SATA Host Controller dann auch noch am Chipsatz hängen, gibt es noch einen Schritt über DMI zur CPU, was auch PCIe ist.
7.) Daten in der CPU zum RAM Controller (früher wäre das in der Northbridge, die sitzt ja heute in der CPU), keine Ahnung, aber ich hoffen doch das die die Daten schützt, die Xeons sollten es tun und warum sollte Intel das beschneiden?
8.) Daten auf den Weg ist RAM -> Bis DDR 3 ohne ECC RAM ungeschützt, seid DDR4 geschützt selbst ohne ECC RAM
9.) Daten im RAM -> nur bei ECC entsprechend dem ECC geschützt
Ist ja unfaßbar komplex / kompliziert für mich. Also noch einmal resümierend und sehr laienhaft ausgedrückt könnte man - falls ich das wenigstens in so weit richtig verstanden habe - sagen, ein Bit ist auf diesem langen, komplizierten Weg unterschiedlich hohen Risiken (selbst bei voll intakten Systemen ohne ECC) ausgesetzt unbemerkt oder bemerkt (je nach Prüfung und danach, ob das Bit überhaupt gerpüft wird) zu kippen. Und je geringer man das Risiko (unbemerkt) gekippter Bits haben will, desto mehr Aufwand muß man wohl betreiben und desto mehr muß man zahlen.

Auch von Microsoft gibt es eine Analyse zu Hardwarefehlern:

Even without overclocking, faster CPUs become faulty more rapidly than slower CPUs.
Ist hier mit "faulty" tatsächlich gemeint, die CPU wird einfach defekt im Sinne davon, daß einfach das Bauteil kaputt geht oder daß etwa zwar die CPU intakt (was man auch immer als "intakt" in diesem Zusammenhang ansehen mag) bleibt, aber einfach anfälliger (vielleicht durch Hitze, Belastung, Verschleiß) für diese Art Fehler wird, schwächer wird? Auf jeden Fall unfaßbar erstaunlich.

Vom Übertakten von CPUs habe ich schon öfter mal etwas gelesen, bzw. am Rande wahrgenommen. Dann könnte man ja davon ausgehen nach dem Lesen dieser Analyse, daß, wer eine CPU übertaktet entweder verdammt genau weiß, welche Konsequenzen das haben kann und was er da tut (oder lieber läßt), bzw. hat oder sich damit unfaßbare Probleme schafft. Oder sollte man von dieser Analyse lieber ableiten, daß man übertakten lieber sein lassen sollte oder darüberhinaus gar lieber sogar leicht untertakten sollte?

Brand name desktop machines are more reliable than white box desktops,
Falls ich den Begriff "white box desktops" richtig nachgeschlagen habe, bedeutet das, daß Menschen, die sich eigenes einen Computer aufwändig selber zusammenbasteln, anders als vermutlich erwartet einen unzuverlässigeren Computer haben als einen sogenannten Marken-Compuer. Erstaunlich.

but brand name laptops are more reliable than brand name desktops.
Ich hätte vermutet, es wäre genau umgekehrt, wie kann das denn sein?

Machines with more DRAM will suffer more one-bit and CPU errors, but fewer disk failures.
Daraus ließe sich ja wohl folgern, daß man, wenn man einen in dieser Hinsicht so zuverlässigen Rechner wie möglich haben wollte, auch noch das Verhältnis der durch die Größe des DRAM mehr verursachten Fehler zu den von dabei von Festplatten weniger verursachten Fehlern setzen müßte. Das ist ja...und dann gibt es bestimmt noch Verhältnismäßigkeiten zu anderen (Größen / Verhalten von) weiteren Bauteilen.

Our analysis demonstrates that almost 80% of machines that crashed more than once from a 1-bit DRAM failure had a recurrence at the same physical address as a prior failure.
Das heißt pauschal ausgedrückt - klingt so abwegig, daß ich meine, es nur falsch verstehen zu können -, daß in Folge von mehr als einem Crash gecrashte Systeme aufgrund eines 1-bit-Fehlers einfach schwächer sind / werden? Oder anders ausgedrückt, je öfter ein System schrotet infolge von 1-bit-Fehlern, desto fehleranfälliger wird es?

Ja, bei Heimanwendern schon, Profis nutzen bei allen Servern und Workstations eben passende Enterprise HW mit ECC RAM, Platten / RAID und Controllern die davor Schutz bieten. Je näher der Schutz an 100% kommen soll, umso teurer wird es und am Ende landet man wie gesagt beim Mainframe.
Ah ja, gut, die Bestätigung zu dem, was ich oben meinte, je sicherer desto teuerer (und wohl komplizierter).

Heimanwender wollen vor allem Billig, bekommen auch billig und ohne so viel Schutz, da wird nur abgesichert wo die Risiken am höchsten sind, also auf dem Medium, weil eben gekippte Bits bei Magnetscheiben und auch im NAND häufig sind und bei den Übertragungen über Leitungen wie bei SATA und USB, weil auch dort Probleme besonders häufig sind. Das muss reichen um meistens zu funktionieren und mehr gibt es für wenig Geld eben nicht und in den allermeisten Fälle reicht es ja auch, sonst wären die Foren voll mit Leuten mit Problemen wie Deinem, aber die gibt es eben nur ab und an mal.
Ja, und das verstehe ich irgendwie nach wie vor nicht, es gibt ja offenbar viele Heimanwender (mit eben dieser sogenannten Consumer Hardware, aber wohl auch vielen mit besseren Systemen), die gigantische Datenmengen auf Platten haben. Da müßte es doch viel öfter Beiträge in Foren geben; aber ich könnte mir vorstellen das die "Dunkelziffer" eben recht hoch ist, weil so ein Problem wohl schwer / aufwändig lokalisierbar ist, einfach überhaupt unerkannt bleibt (also jedenfalls bis auf hier und da vielleicht mal eine kaputte Datei, deren Ursache unerkannt / unerforscht bleibt).

Meine Notebooks, damit die RAM, sind ca. 4 Jahre alt, wenn nach 10 bis
18 Monaten die Fehleranfälligkeit beim RAM sich erhöht, wäre die Zeit
für diese Fehler ja schon lange bei mir gekommen.
Nicht unbedingt, oder lauft das Notebook 24/7 durch, wie es bei Servern üblich ist? Bei 8 Stunden täglich kommen in 4 Jahren weniger Betriebsstunden zusammen als bei 18 Monaten Dauerbetrieb.
Ach so, die Angaben bezogen sich auf Dauerbetrieb, hatte ich übersehen / nicht beachtet. Wenn ich zu Hause bin läuft ein Notebook ca. 16 bis 18 Stunden täglich, schätze ich.

Nein, man sollte es nur ab und an mal gründlich testen, wenn es dann die Zeit hinter sich hat und noch immer keine Fehler (hard-errors) aufweist, warum sollte man es dann tauschen und das Risiko eingehen beim neuen RAM Fehler zu bekommen, ggf. erst nach entsprechender Zeit der Nutzung?
Ja, das ist verständlich, warum solle man ein funktionierendes System aus besagtem Grund auch wechseln / ändern, wenn es gar keinen (konkreten) Anlaß gibt.

Wenn wie die Studie es nahelegt nach einiger Zeit die Wahrscheinlichkeit fällt das RAM doch noch anfängt Fehler zu haben, dann ist entsprechend altes RAM welches keine Fehler hat ja doch besser als neues RAM bei dem man das noch nicht weiß.
Ja, natürlich, das ist einleuchtend.

Auch nicht 100%ig, was aber kein Argument ist den Test mit Memtest86+ nicht zu machen. Die Restrisiken sind halt einmal die Belastung, auch die thermische, die bei Memtest86+ eher gering ist und damit können Fehler die bei höheren Lasten entstehen, sei es wegen der Temperatur oder der Spannungsversorgung, damit eben u.U. nicht gefunden werden oder auch das Problem bei unterschiedlichen SPD Informationen in den Riegel, das ist ein ganz fieses, wie ich ja schon erwähnt habe.
Ja, stimmt, hatte ich außer Acht gelassen.
Dann wäre es ja bestimmt gut, wenn MemTeest86+ auch Last / höhere Leistung erzeugen könnte bei der Überprüfung, um die nur dann eventuell auftretenden Fehler auch zu erzeugen.

Die kommen in jedem RAM vor, die werden auch eben nur mit ECC RAM überhaupt erkannt, da hat man mit Tools wie Memtext86+ praktisch keine Chance diese zu finden.
Ja, Verzeihung, so hatte ich es jetzt eigentlich auch verstanden, falsch ausgedrückt nur.

Das ist einerseits gut, aber andererseits hat damit der Hauptverdächtige schon mal ein gutes Alibi, aber prüfe z.B. mit CPU-Z oder HWInfo ob die RAMs identisch sind und möglichst das gleiche Produktionsdatum aufweisen.
Ich hätte gedacht, da der RAM ja im Werk eingebaut wurde, die Computer so ausgeliefert wurden, daß RAM-Riegel wenigstens derart (eingebaut) sein müßten, daß sie hinsichtlich dieses Anspruches auch einwandfrei funktionieren, aber das muß also auch nicht so sein.

Es sind ja zwei Aldi-Notebooks, bei denen beide die Dateien auf augenscheinlich gleiche / selbe Ursache korrupt werden.

Ich hoffe, daß sind die richtigen Informationen:

Medion akoya P6630:
lbb3aBM.png

0D9t2bP.png

nca9b3B.png

Slot 2 und 4 werden mit leeren Feldern angezeigt, weil es ja nur 4 GB RAM sind wohl. Speccy zeigt Slot 1 und 2 als mit RAM besetzt an, wenn ich recht sehe, aber das hat wohl keine besondere Bedeutung, ist wohl einfach nur eine andere Zuordnung im Programm.

Week/ Year wird identisch angezeigt für beide Slots, bedeutet wohl selbe Herstellungszeit.

Da Du keine RAM Fehler hast, fällt das für Dich weg, bei Notebooks kann man im BIOS/UEFI sowieso meist nur sehr wenig einstellen.
Puh, gottseidank.

Z.B., wenn also im RAM 1,5 GB RAM frei wären und die zu kopierenden Datei 1,6 GB groß, dann könnte man davon ausgehen, daß die Kopie zur Prüfung von der Platte gelesen würde.
Das hängt von der Cachestrategie des OS ab, aber mindestens 100MB müssen dann von der Platte kommen.
Ach so, die Überprüfung kann also auch in Kombination, also anhand eines teilweise (noch) im RAM befindlichen Teils der Datei und eines bereits auf Platte geschriebenen Teils geschehen.

Nein, so einen HP Gen8 kann man für 200€ kaufen, dann baut man noch ordentliche Platten ein und vielleicht einen USB Stick für das Betriebssystem und nimmt eine fertige Distribution wie OMV (Debian Linux basiert), NAS4Free oder FreeNAS und schon hat man einen Heimserver der bzgl. der Datensicherheit und Performance jedes normaler NAS Gehäuse in ähnlichen Preisregionen locker schlägt.
Ah, hätte ich gar nicht gedacht, die Kosten sehen auf den ersten Blick gar nicht so hoch aus, aber bei ca. 12 vollen Platten, davon ca. 7, 8 mit durchschnittlich 4TB wird das wohl auch nicht ganz billig werden.

Das ist nicht kompliziert, man muss sich nur die Distribution suchen die einem am Besten gefällt und diese dann eben selbst aufspielen, der Rest geht dann über ein Web-Interface wie bei den NAS Gehäusen auch. Man ist aber eben viel flexibler und hat eine weitaus potentere HW zu Verfügung.
Dazu braucht man dann Win gar nicht mehr wohl, bzw. könnte es gar nicht erst nutzen, ist ja ein anderes Dateisystem, das diese Sicherheit überhaupt erst bietet.

So ist es, wie Du siehst hat sich auch hier der erste Verdacht noch nicht bestätigt, mal sehen was mit Prime95 passiert.
Ja, das Ergebnis werde ich nachher gleich nachreichen.

Ja, die vernachlässigte Gefahr, vielen ist das Thema nicht bewusst. Wobei ich den Artikel nicht besonders gut finde, auf die RAM Fehler wird nicht eingegangen und es wird übersehen, dass die Platten je selbst immer eine ECC für jeden Sektor haben und kleine Fehler korrigieren können, bei großen Fehlern dann Fehlermeldungen ausgeben, aber andererseits eben die billigen Consumer Platten selbst keinen Schutz auf ihre internen Datenpfaden bieten. Außerdem werden da Äpfel mit Birnen vergleiche, ein ZFS RAID gegen ein einfach Volumen ohne RAID, bei dem dann ein defekte Sektor zu Lesefehlern führt, so dass man die Datei nicht mehr lesen kann, die Daten dann verloren hat wenn sie nicht im Backup stehen, aber wenn man ein RAID 1, 10, 5 oder 6 hat, dann passiert das auch ohne ZFS nicht, dafür macht man ein Scrupping des RAIDs um eben solche nicht lesbaren Sektoren zu finden und wiederherstellen zu können. Auch ohne ZFS gibt es genug Wege die Silent-Data-Corruption zu vermeiden, nur muss man zuerst einmal ordentlich HW haben, das ist die Basis dafür.
Also ein gutes Beispiel immerhin dafür, wie schwer es ist - für Menschen wie mich eben einfach schlicht unmöglich - erkennen zu können, was / wem man glauben kann, wessen Information diejenigen sind, die brauchbar sind, nicht irreführend etc.

Hier eine dieser 4 Elements-Platten:
Die Werte sehen gut aus, aber die hat kein Attribut für Ende-zu-Ende Fehler, wenn da auf den internen Datenpfade oder im Cache RAM etwas kaputt ist, wird das nie auffallen.
Ja, das war es ja, was Du schon vorher als ziemlich wahrscheinlich genannt hattest.

Die hat allesdings Fehler:
Zitat Zitat von Pixell Beitrag anzeigen
Code:

(1) ST1000LM024 HN-M101MBB
Serial Number : xxxxxxxxxxxx613
....
ID Cur Wor Thr RawValues(6) Attribute Name
01 100 100 _51 000000000021 Lesefehlerrate
...
0B 100 100 __0 0000000002C5 Rekalibrierungswiederholungen
...
BF 100 100 __0 000000000024 G-Sense Fehlerrate
...
C8 __1 __1 __0 0000000164FE Schreibfehlerrate

Die hat einige G-Sensor Auslösungen und wurde also zu harten Schocks ausgesetzt, daher wohl auch einige Lesefehler, aber wenigstens keine schwebenden Sektoren, aber viele Schreibfehler. Da müsste es eigentlich auch schon mal Fehlermeldungen geben. Wenn das Notebook viel mobil genutzt wird, mechanische Belastungen als nicht zu vermeiden sind, würde ich eine SSD empfehlen, die vertragen diese Stöße weitaus besser als HDDs. Eine Ende-zu-Ende Fehler Attribut hat sie auch nicht, das ist bei den 2.5" Consumer Platten noch seltener zu finden als bei den 3.5".

Au Backe, mir wird...die interne 1000 GB-Platte also.
Dieser Wert - BF 100 100 __0 000000000024 G-Sense Fehlerrate - gibt also wohl die Intensität eines Schocks, etwa eine Falles, Stoßes einer Platte an und vielleicht noch die Anzahl der Stöße. Muß es denn ein Stoß (den ich eigentlich ausschließen würde bei diesem Notebook) gewesen sein oder kann es auch jegliche andere mechanische Einwirkung sein, die da erfaßt wird? Etwa das übermäßige Drücken, biegen eines Notebooks. Ach ja, schlagen auf die Tastatur würde wohl auch als Schock erfaßt werden, oder? Die Notebooks benutze ich sozusagen einzig zu Hause, nie im Freien, schon lange nicht mehr woanders ansonsten.

Nein, bisher noch keine Fehlermeldung (ist ja erstaunlich, verstehe ich gar nicht), die ich darauf zurückgeführt hätte (weiß aber nicht, wie ich das aus meiner gegenwärtigen Sicht, im nachhinein werten würde), die mir hätte so einen Verdacht nahelegen können. Das Notebook läuft aber katastrophal, langsam, träge, instabil, würde ich sagen, nahezu unbrauchbar. Dann wäre das offenbar einen Erklärung dafür. Ständig "Keine Rückmeldung" einhergehend mit milchig dargestellten Fenstern.

Ach ja, bei den internen Platten, bei den 2,5"-Platten also ohnehin, verhält es sich hinsichtlich der Fehlerkorrektur also gleich oder ähnlich wie bei den externen (Consumer-)Platten auch (abzüglich einiger Wege, USB-Kabel etwa).

Aber können diese Defekte der internen Platte die Dateikorruptionen auch auf den externen Platten auslösen?

Ich glaube´(und vor allem hoffe), die Software der Platte oder des OS sorgt dafür, daß nur fehlerfreie Sektoren benutzt werden. Aber benachbarte Sektoren etwa können wohl auch schnell kaputt gehen. Die Schreib- und Lesefehlerraten geben also wohl an wie oft ein Fehler beim Lesen / Schreiben auftritt, es wird aber vermutlich solange gelesen / geschrieben, bis die Daten richtig gelesen / geschrieben sind, aber das kann bestimmt auch Zeit in Anspruch nehmen, die sich in der Langsamkeit des Rechners wohl deutlich zeigen kann.

Schwebende Sektoren...ist das richtig, was ich hier gelesen haben (http://forum.chip.de/festplatten-laufwerke-ssd/ursache-fuer-schwebende-sektoren-1457749.html):
schwebende Sektoren sind als defekt markierte Bereiche auf der Festplatte und warten auf ihre entgültige Sperrung/ Neuzuweisung (wiederzugewiesene Sektoren)
Schwebende Sektoren können durch eine vollständige (intensive) Datenträgerüberprüfung oder vollständigen Formatierung repariert werden.

Hilft das nicht wird der Sektor als Unkorrigierbarer Sektor eingestuft und später als wiederzugewiesener Sektor.

Diese Sektoren werden aus einem Reservepool ersetzt, dieser ist begrenzt, d.h. es kann nur eine gewisse Anzahl von Sektoren neuzugewiesen werden.
Das sind hier Oberflächendefekte die nicht mehr behoben werden können.

Durch diese Sektoren besteht die Gefahr, dass das System einfriert und Daten verloren gehen. Auch Fehlermeldungen beim Kopieren, installieren, usw. können auftreten.



Ärgerlich, den Fehler hätte ich ja selber auch leicht entdecken können, hätte ich mir nur einmal laienhaft die Zahlen angesehen, das wäre woh auch für mich verständlich gewesen zu einem geringen Teil.

Die Platte kann - und wohl vor allem, sollte - ich also recht bald, wohl eher schnellstens, einfach wegschmeißen, schätze ich.

Hier auch noch von Western Digital Data LifeGuard Diagnostics ein Test:
WD LifeGuard geht nur für WD Platten, bei denen anderer Hersteller (außer vielleicht HGST die ja nun WD gehören) ist es wenig hilfreich.
Ich meinte mich zu erinnern, sogar auf der WD-Website - oder sonstwo, vielleicht in einem Forum - gelesen zu haben, daß das Programm für alle Hersteller geeignet wäre; aber das könnte ich auch mit SeaTools verwechseln. Also gut, nur herstellerbezogen verwenden.

Nein, dazu gehört im Grunde alles was dafür verantwortlich ist, dass die Kopie der Daten auf einer Platte nicht mit der auf einer anderen Platte übereinstimmt, oder mit dem was man mal geschrieben hat oder auch dafür sorgt, dass eine Datei nicht mehr gelesen werden kann.
Gut, also dann gehört dazu einfach, hoffentlich kann man das so allgemein ausdrücken, bzw. verstehe ich es richtig, jedes Bit, das einfach unbemerkt kippt.

Mit dem Programm, h2testw, - vielen Dank für den Link - hatte ich auch schon ein paar GB, vielleicht 500 GB oder so getestet, kein Fehler angezeigt, deshalb dachte ich, diese Fehler kommen vielleicht eben nur beim "normalen" Transfer vor, nicht bei diesem Test.

Man müsste hier beide Platten testen, denn beide haben keine Erkennung von Fehlern auf den internen Datenpfaden. Man sollte auch ruhig so 5 oder 10GB Testdaten von h2testw auf der Platte stehen lassen um diese regelmäßig mal zu prüfen, also ob auch nach längerer Zeit die noch fehlerfrei lesbar sind.
Also alle betroffenen Platten testen, es waren ja mehr als zwei, nicht nur die 4 TB Elements-Platten, auch die 5TB Seagate, die externe 640 GB-2,5"-Platte und vielleicht noch mehr.

Gut, also ca. 5 bis 10GB Daten von h2testw auf den Platten belassen und öfter mal überprüfen. Und hoffen - oder auch nicht -, daß es gerade auch der Bereich ist, auf dem diese Daten gespeichert sind, der Fehler hervorrufen könnte.

Wenn es nicht das RAM ist, also wenn auch Prime95 keine Fehler zeigt und damit RAM und CPU auch unter Last problemlos arbeiten, dann könnte es am USB Host Controller, den USB-SATA Bridgechips, den Platten in den Gehäuse oder auch dem USB Treiber liegen. Teste die USB Platten mit h2testw, damit kannst Du die ganze Kette prüfen die die Daten zurücklegen.
Ach, so viele Möglichkeiten bleiben immer noch offen.
Kann ich denn den RAM mit dem Notebook mit der defekten Platte überhaupt noch testen, so daß Fehler erkennbar auf den RAM zurückzuführen sind und nicht von der defekten Platte verursacht werden?
Und wenn h2testw einen Fehler meldet, weiß man erst einmal, daß der Fehler hier - "USB Host Controller, den USB-SATA Bridgechips, den Platten in den Gehäuse oder auch dem USB Treiber liegen" - zu finden ist, nicht mehr woanders, sehe ich das richtig? Dann muß man in dieser Gruppe den Fehler (nur noch) lokalisieren.

Bei deren Schreib- und Lesefehlern schon fast ein Wunder, aber die Platte scheint es immer noch zu schaffen die Daten dann doch zu lesen oder zu schreiben. Tausche die trotzdem, ihr Zustand ist schon grenzwertig.
Ah, ja, da ist schon die Antwort auf meine Frage oben, also wegschmeißen. Das heißt, ich muß Win (die frage ist, welches ich nehmen sollte) neu installieren (welch unfaßbarer Aufwand), somit ist jetzt definitiv der richtige Zeitpunkt ein neues Notebook zu beschaffen.
Ja, aber daß ich keine Fehlermeldungen erhalten habe, ist ja tatsächlich äußerst verwunderlich wohl. Aber das erklärt immerhin wohl die katastrophale Leistung des Notebooks.

Da Du Datenkorruption hat, solltest Du alle Transfers vermeiden, bis die Ursache gefunden und behoben ist und bei den unvermeidbaren eben Dateiinhalte vergleichen. Ich habe mit z.B. ein kleines Tool geschrieben welches da macht, es vergleiche Dateien oder Ordner und löscht sie dann eine davon, wenn alles zu 100% übereinstimmt, da wird wirklich Bit für Bit vergleichen.
Ja, das ist einleuchtend, jeglichen Transfer möglichst zu meiden.
Also, ich sollte den Vergleich von Dateiinhalten dem Prüfen nach Prüfsumme vorziehen?
Ja, so ein Tool klingt natürlich verdammt gut. Ich kopiere eigentlich (große Datenmengen) nur mit einem Synch-Programm, das kann nach der Übertragung jeder Datei einzelnen Datei automatisch den Inhalt prüfen (mit der schon besprochenen Unzuverlässigkeit) und kopiert die unkorrekt übertragenen sofort automatisch noch einmal. Mit dem Programm kann ich auch manuell einen Vergleich nach Inhalt nach der kompletten Übertragung aller Dateien ausführen. Es dauert eben alles verdammt lange (mit USB 2.0).

Ein NAS ist erstmal nur ein Speicher auf den man über ein Netzwerk zugreift, auch wenn vielen vor allem diese keinen Gehäuse die es extra dafür zu kaufen gibt darunter verstehen. Man kann aber jeden Computer der Dateien über ein Netzwerk freigibt als NAS ansehen, das muss keine extra dafür gedachte und gemachte Kiste sein.
So kann ich so einen NAS also einfach als (große) Festplatte über Netzwerk (und wohl nur über Netzwerk) zugreifbar ansehen, der noch einen eigenen Computer hat, mit dem man den NAS wohl verwalten kann.

Die Anwendungen dafür sind vielfällig, aber auch Daten die nur auf einem NAS stehen, muss und sollte man extra sichern, wenn man sie nicht verlieren will, das sind keine Tresore für Daten für die viele Anwender sie offenbar halten.
Ja, es müssen / sollten also verständlicherweise auch bei so einem System eben die Dateien zur Sicherheit (mindestens) doppelt vorhanden sein. Ich meine gelesen zu haben, daß so ein NAS automatisch irgendwie korrupte Dateien erkennen und auch ebenso austauschen kann mit intakten, das ist wohl der Grund, warum der als Tresor angesehen wird. Aber das würde ja wohl auch erfordern, daß Dateien eben mindestens doppelt vorhanden wären.

Hast Du denn Sicherungen davon? Oder wäre etwas wichtige verloren, wenn jetzt z.B. eine der USB Platten oder die interne komplett ausfallen würde, etwas weil sie runterfällt?
Also...tja, es ist mir peinlich das zuzugeben...es gibt nur eine Sicherung - von der ich nicht weiß, wieviel sie taugt infolge inkorrekter Datenübertragung und der - soeben bekannt gewordenen defekten Platte - für die wirklich allerwichtigsten Dateien, also in der Tat von dieser defekten internen Platte. Wenn ich mit einer externen Platte hier von Zimmer zu Zimmer gehend in meiner Wohnung straucheln würde und sie auf den Boden knallen würde, dann...aaaargh...!...wäre ich wohl nicht mehr ansprechbar...aber etwa 12 Platten zu sichern (dazu noch mit USB 2.0) ist ja allein mit einem intakten Laien(Consumer)System schon unfaßbar (zeit-)aufwändig, von den Kosten ganz zu schweigen. Aber es ist natürlich...eigentlich nahezu sinnlos keine Sicherungen zu haben.

Vielleicht wär ein solche HP Gen8 als Heimserver / NAS und die alten USB Platten als Backups dafür bei Dir nicht die schlechteste Lösung, dann hast Du die ganze Daten zentral an einer Stelle. Ende 2013 hatte ich auch die Schnautze voll mit immer mehr USB Platten hantieren zu müssen und mit den HP N54L geholt, 5 WD Red 3TB unter OMV als SW-RAID 5 verbaut und nutzen die alten USB Platte nur noch als Backups.
Ja, das stimmt, die Hantiererei mit den Platten allein schon ist einfach Wahnsinn genug. Zu wissen, welche Dateien auf welcher Platte sind, einstöpseln, (Datenträger bei Win "sicher") ausstöpseln (obwohl ja dieser Cashe - weiß gar nicht, ob es wirklich einer ist - nach Voreinstellung deaktiviert ist, also jedenfalls diese Funktion, die die Datenverarbeitung schneller machen soll bei Win) und immer Warterei.

Da muss man sich einarbeiten, so schwer ist das aber nun auch nicht, es gibt ja fertigte SW Distributionen die man installieren kann und dann hat man eine graphische Oberfläche per Brower und damit praktisch das gleiche wie bei einem fertigen NAS.
Ja, das stimmt, und man kann wohl auch (leider) extrem deutlich sagen, wenn ich statt mich um dieses Korruptions-Problem zu kümmern mit so einer Distribution, einem NAS oder womit auch immer in dieser Richtung befaßt hätte, dann...

Na das war ja mal ein Forumsbeitrag!

Und mein letzter erst, 3 Stunden, aber was tut man nicht alles um Forenkollegen zu helfen.
Ups, Wahnsinn (glaube, ich habe für meinen auch ganz schön lange gebraucht), Deine Beiträge sind aber auch die mit Abstand besten, die ich selber jemals gekriegt habe, gibt es ja eigentlich normalerweise nicht (in Foren schon gar nicht), Beiträge derartiger Qualität im Netz, bzw. eigentlich kenne ich derartige gar nicht; und Verzeihung, habe es bisher unterlassen mich zu bedanken, also allerherzlichsten Dank für die grandiose Hilfe. Freut mich wirklich extrem. Ja, und allein deswegen - ich hatte es ja in diesem Beitrag oben schon einmal erwähnt - ist es wert, sehr Interessant diese Korruption / das Problem nicht einfach auf sich beruhen zu lassen (mit dem Kauf eines neuen Notebooks).

Die Prime95-Ation versuche ich nachher mit dem anderen Notebook zu machen und mit dem, das ich gerade benutze, liefere ich so schnell wie möglich nach das Ergebnis. Auch die CrystalDiskInfo-Werte von der Platte des anderen Notebooks und die Daten über den RAM des anderen.

Wenn Geld keine Rolle spielt und Du möchtest etwas verlässlich Gutes, dann hole Dir ein NAS-System von Synology oder Thecus MIT ECC-RAM. Die teureren Modelle beider Hersteller haben das. Selber bauen wäre günstiger, aber soweit bist Du nach Deiner Selbsteinschätzung noch nicht.
Aber die ganz teuren, die anderen haben zwar teils Xeon CPU, aber kein ECC RAM!

Nimm z.B. denASUSTOR AS7004T, der hat einen Core i3-4330 der ECC RAM unterstützt, aber es hat ein ECC RAM und damit bekommt man dort für 1000€ im Grunde nichts, was der kleine HP ProLiant MicroServer Gen8, Celeron G1610T, 2GB RAM (712317-421) ab € 204,85 (Upps, dessen Preis steigt je täglich, scheint auch schon nicht mehr produziert und damit knapp zu werden) mit einer freien FW nicht auch bietet, ok eine etwas bessere CPU gibt es für 1000€, aber kein ECC RAM und die bessere i3 CPU oder einen Xeon kann man beim HP nachrüsten. Wer da für den ASUSTOR 1000€ hinlegt, hat selbst Schuld. Ich finde diese NAS Kisten total überteuert und dann haben die eben meist kein ECC RAM, was echt Blödsinn ist.
Also könnte man NAS ja schon einmal ausschließen allgemein. Aber das sind doch schon ganz schöne Summen, die da Zustande kämen, so richtig billig wird das bei den anderen Produkten - vielen Dank für die Links - auch nicht so recht...also man könnte vielleicht eher sagen, es würde irgendwie verdammt teuer. Nach allem, was ich da sehe, scheint mir nichts anderes als ein profanes (aber für mich passendes) Notebook und weiterhin übles Hantieren mit den Platten übrig zu bleiben.

Wenn ich ausnahmslos immer (weiß gar nicht, ob das überhaupt im Alltag durchführbar wäre) bei allen Transfers nach Inhalt oder Prüfsumme - also natürlich bei einem intakten (Laien-)System mit neuem Notebook und USB 3.0 (aber so viel schneller ist das wohl auch nicht unbedingt als 2.0) -, prüfen würde, könnte ich damit zumindest größtenteils Datankorruption vermeiden? Ach nein, natürlich auch nicht unbedingt, fällt mir gerade ein, da ich die Frage schreibe, beim Transferieren vielleicht sogar schon (könnte ich mir denken), aber bei anderen Aktion, etwa beim Entpacken von Archiven ginge das ja wohl nur mit extremem Aufwand. Hatte ja schon viele Archive entpackt mit korrupten Dateien ohne Fehlermeldung (also aufgrund des gegenwärtig bestehenden Problems). Die Dateien sind also tatsächlich auf dem Weg nach dem korrekten Entpacken wohl defekt geworden, bzw. defekt auf der Platte gelandet. Und es gibt ja noch viele weiter Schreibvorgänge (etwa das bloße Speichern einer Datei wohl) bei denen unbemerkt Dateien kaputt gehen können. Au Backe, momentan schwinden mir etwas die Sinne...

Allerherzlichsten Dank noch einmal.

Nachtrag:

Verzeihung, ich hatte nicht daran gedacht, zu erwähnen, daß die defekte Platte zu dem Notebook gehört, bei dem ich noch keinen aktuellen Speichertest gemacht habe. Der Speichertest gehört zu dem Medion P8614, für das ich heute morgen das Prime95-Test-Ergbnis liefern will und die CDI-Werte für dessen interner Platte.

Ich glaube, einen Stresstest macht der Computer automatisch ständig selbst schon, läuft ständig bei 100 %:
idpYmIj.png


Ich hoffe, ich habe die richtigen Informationen und auch die richtige Darstellung gewählt.

Habe Prime95 so, also mit den Voreinstellungen, ausgeführt auf dem Notebook mit der defekten Platte:
OXke6c5.png


HWiNFO Sensors vor dem Start von Prime:
Qev5hTL.png

xsb8O3o.png


Hier der das Prime95-Ergebnis von dme Notebook mit der defekten Platte, hoffe ich habe den richtigen Test richtig machen lassen:

[Main thread Aug 19 00:29] Stopping all worker threads.
[Main thread Aug 19 00:29] Execution halted.
---------------------------------------------------------------------------
[Aug 18 22:15] Worker starting
[Aug 18 22:15] Setting affinity to run worker on logical CPU #1
[Aug 18 22:15] Beginning a continuous self-test to check your computer.
[Aug 18 22:15] Please read stress.txt. Choose Test/Stop to end this test.
[Aug 18 22:15] Test 1, 6500 Lucas-Lehmer iterations of M12451841 using Pentium4 type-2 FFT length 640K, Pass1=640, Pass2=1K.
[Aug 18 22:27] Self-test 640K passed!
[Aug 18 22:27] Test 1, 800000 Lucas-Lehmer iterations of M172031 using FFT length 8K.
[Aug 18 22:37] Self-test 8K passed!
[Aug 18 22:37] Test 1, 5300 Lucas-Lehmer iterations of M14155777 using type-2 FFT length 720K, Pass1=320, Pass2=2304.
[Aug 18 22:48] Self-test 720K passed!
[Aug 18 22:48] Test 1, 460000 Lucas-Lehmer iterations of M250519 using type-0 FFT length 12K, Pass1=48, Pass2=256.
[Aug 18 22:58] Self-test 12K passed!
[Aug 18 22:58] Test 1, 4500 Lucas-Lehmer iterations of M15597569 using Pentium4 type-2 FFT length 800K, Pass1=640, Pass2=1280.
[Aug 18 23:07] Self-test 800K passed!
[Aug 18 23:07] Test 1, 340000 Lucas-Lehmer iterations of M339487 using type-1 FFT length 16K, Pass1=64, Pass2=256.
[Aug 18 23:20] Self-test 16K passed!
[Aug 18 23:20] Test 1, 4000 Lucas-Lehmer iterations of M18474367 using type-2 FFT length 960K, Pass1=256, Pass2=3840.
[Aug 18 23:32] Self-test 960K passed!
[Aug 18 23:32] Test 1, 210000 Lucas-Lehmer iterations of M501041 using type-1 FFT length 24K, Pass1=96, Pass2=256.
[Aug 18 23:43] Self-test 24K passed!
[Aug 18 23:43] Test 1, 3100 Lucas-Lehmer iterations of M21871519 using type-2 FFT length 1120K, Pass1=448, Pass2=2560.
[Aug 18 23:52] Self-test 1120K passed!
[Aug 18 23:52] Test 1, 160000 Lucas-Lehmer iterations of M662593 using Pentium4 type-1 FFT length 32K, Pass1=128, Pass2=256.
[Aug 19 00:01] Self-test 32K passed!
[Aug 19 00:01] Test 1, 3100 Lucas-Lehmer iterations of M22971521 using type-2 FFT length 1200K, Pass1=320, Pass2=3840.
[Aug 19 00:11] Self-test 1200K passed!
[Aug 19 00:11] Test 1, 100000 Lucas-Lehmer iterations of M983041 using type-1 FFT length 48K, Pass1=64, Pass2=768.
[Aug 19 00:21] Self-test 48K passed!
[Aug 19 00:21] Test 1, 2500 Lucas-Lehmer iterations of M26138689 using type-2 FFT length 1344K, Pass1=448, Pass2=3K.
[Worker #4 Aug 19 00:24] Self-test 1200K passed!
[Worker #4 Aug 19 00:24] Test 1, 100000 Lucas-Lehmer iterations of M983041 using type-1 FFT length 48K, Pass1=64, Pass2=768.
[Worker #3 Aug 19 00:24] Self-test 1536K passed!
[Worker #3 Aug 19 00:24] Test 1, 56000 Lucas-Lehmer iterations of M1633941 using Pentium4 type-1 FFT length 80K, Pass1=80, Pass2=1K.
[Worker #2 Aug 19 00:26] Self-test 128K passed!
[Worker #2 Aug 19 00:26] Test 1, 1900 Lucas-Lehmer iterations of M39151585 using type-2 FFT length 2M, Pass1=1K, Pass2=2K.
[Worker #3 Aug 19 00:29] Torture Test completed 15 tests in 2 hours, 13 minutes - 0 errors, 0 warnings.
[Worker #2 Aug 19 00:29] Torture Test completed 20 tests in 2 hours, 13 minutes - 0 errors, 0 warnings.
[Worker #3 Aug 19 00:29] Worker stopped.
[Worker #2 Aug 19 00:29] Worker stopped.
[Worker #4 Aug 19 00:29] Torture Test completed 11 tests in 2 hours, 13 minutes - 0 errors, 0 warnings.
[Worker #1 Aug 19 00:29] Torture Test completed 12 tests in 2 hours, 13 minutes - 0 errors, 0 warnings.
[Worker #4 Aug 19 00:29] Worker stopped.
[Worker #1 Aug 19 00:29] Worker stopped.

HWiNFO Sensors nach Ende des Prime-Tests:

bVkDIol.png

tib6OGM.png


Ich benutze ja CrystalDiskInfo schon einige Zeit, hatte aber nie die Rohwerte mir angesehen, nicht nur mangels Kenntnis, sondern auch, weil ich gar keinen Anlass gesehen hätte. Hatte immer nur die unverkennbare blaue Anzeige mit der Bewertung "Good" in Bezug auf "Health" und die blau dargestellten Werte beachtet, bzw. einfach nur die durch die blaue Farbe in Verbindung zu stehen scheinenden Werte mit der (vermeintlichen) Beurteilung "Good" als Hinweis darauf verstanden, daß alle Werte, der Zustand der Platte eben gut ist, was sich ja aber tatsächlich ganz anders darstellt. Wieseo zeigt CDI eine Platte wie die defekte als "Good" an? Alle meine anderen Platten werden ebenfalls als "Good" dargestellt. Oder wie krank muß denn eine Platte sein, damit CDI sie entsprechend anzeigt?

Läßt sich eigentlich irgendwo erkennen, 'rausfinden, wann ein Fehler aufgetreten ist, die Platte einen Fehler gekriegt hat, etwa einen defekten Sektor? Ein Datum oder einen Hineweis darauf kann ich nirgends finden.
 
Zuletzt bearbeitet:
Kleine Überlegung zum Thema ECC bzw. warum sich non-ECC weitestgehend durchgesetzt / etabliert hat!

so vor rund 25 Jahren hatte man PCs mit 1-4 MByte Arbeitsspeicher, die HDDs waren mit 40-500 MByte auch nicht soo riesig, die zu speichernden Datenmengen hielten sich in Grenzen.
Die Wahrscheinlichkeit für das Auftreten eines Soft-Errors war damals nicht höher als heute - wahrscheinlich sogar geringer, da die Toleranzen noch nicht so eng gefasst waren wie heute und die Halbleiterstrukturen noch wesentlich grösser waren, heute bewegen wir uns da weitaus näher an den Grenzen des physikalisch machbaren.
Speicherchips waren Teuer.
Also ist man aus wirtschaftlichen Gründen beigegangen und hat die ECC bei den Speichermodulen für einfache PCs eingespart, die Wahrsheinlichkeit das irgenwelche Daten durch Softerrors beschädigt werden konnte man vermutlich als vernachlässigbar gering einstufen.
Heute haben wir 1000 bis 32.000 mal mehr Arbeitsspeicher in den Systemen, die Wahrscheilichkeit das Softerror auftreten können istb alleine schon Aufgrund dieser Tatsche mind. 1000 mal Höher, wenn ich die verkleinerten Strukturen und Toleranzen dazunehme, dürfte die Wahrscheinlichkeit sicher eher 1Mio mal Höher sein, das ganze dann Hochgerechnet auf die extrem ansgestiegenen Datenmengen, die heutzutage gespeichert werden, ist es eigentlich unverantwortlich, daß hier nicht längst ein Umdenken auf breiter Front erfolgt ist - aber vieleicht besagen ja irgendwelche offiziellen Statisken ja noch "alles noch im Grünen Bereich"!

P.S. ich bin kein Mathematiker, der die Zahlen anhand irgendwelcher Statistiken u.ä. belegen kann, es handelt sich um "gefühlte" Abschätzungen (die kleineren Strukturen bedingen ja auch im Umkehrschluss wiederum höhere Fertigungspräzision)

Zur Zeit st halt das ärgerliche, daß zwar eine ganze Menge CPUs ECC unterstützen (bzw. die Speichercontroller in den CPUs) aber bei den Chipsätzen (Intel) oder Mainboards (AMD) diese Fähigkeit nicht weitergegeben / genutzt wird.
Bei Intel muss man Mainboards mit Serverchipsätze nutzen, die kein OC beherrschen, und zu Teil ggü. den OC-Gamerboards nur spartanisch ausgerüstet sind und daher für die Gamer uninteressant sind (welches Serverboard kann z.B. SLI / Crossfire).
Selbst bei AMD muss man die Boards mit ECC Support mit der Lupe suchen, obwohl AMD-CPUs/Chipsätze schon fast aus Tradition ECC unterstützen - mir sind derzeit nur 2 etwas ältere ASUS Boards bekannt. (Gigabyte, MSI, Asrock etc. = Fehlanzeige)
 
Digi-Quick, auch ich denke das die Notwenigkeit von ECC RAM mit der Entwicklung über die Jahre eher gestiegen als gefallen ist. Das bei DDR4 nun immerhin bei der Übertragung der Daten eine Sicherung eingebaut wurde, spricht auch dafür und ebenso, dass Intel erstmal einen Xeon für Notebooks angekündigt hat. Es ist aber immer noch Thema welches allenfalls eine kleinen Minderheit der Heimanwender bekannt ist und auch viele Enterprisekunden kaufen es weil es eben dazu gehört, machen sich aber dann keine weiteren Gedanken darum, überwachen also auch die Fehler gar nicht. Das ist wohl wie bei der Datensicherung, also dem Anlegen von Backups, da werden viele auch erst durch Schaden klug, manche aber selbst dann nicht.

Zum Thema OC: Das passt nicht wirklich dazu, denn wer sich Gedanken um Silent Data Corruption macht, der wird seinen Rechner kaum übertakten, das dadurch die Gefahr weiter steigt. Gamer dürfte das Thema sowieso weniger berühren, dann stimmt mal ein Pixel nicht oder der Ton, schlimmstenfalls stürzt das Spiel ab oder der Rechner, dann wird neu gestartet und weiter geht es, Hauptsache mit vielen fps.

@Pixell, Dich habe ich nicht vergessen, aber da es wieder länger dauern dürfte, mit dieser Antwort bis zum Schluss gewartet.
Ah, ach so, so einen Server könnte man also offenbar nicht nur fürs Internet benutzen, sondern auch für "meine" Zwecke.
Bei der Nutzung ist man recht frei, manche bauen eine Graka ein und nutzen die kleinen Kisten als normale PCs.

Klingt alles ganz schön kompliziert, aber zu wissen, daß also doch auf jeden Fall größere Platten als 2,2 TB, also etwa auch 4TB, 5TB in MBR vollständig lauffähig sind (was immerhin auch das Verhalten von Win erklärt, nicht etwa GPT vorzuschlagen bei der Initialisierung, bzw. beim ersten Benutzen), ist natürlich beruhigend zu wissen.
Da Du ja vor allem USB in der Größe über 2TB nutzt, merke Dir einfach: Platte und USB Gehäuse gehören zusammen, wenn Du anfängst etwas umzubauen, steht Gefahr für die Daten auf der Platte! Baut man Platten selbst in Gehäuse, besteht auch ein Risiko, gerade bei großen HDDs in alten Gehäusen, da am Besten den Test mit h2testw machen. Fertig als USB Platten gekaufte HDDs sollten in der Hinsicht aber sich sein, so viel testen die Hersteller schon noch.

Das Verhalten von Windows finde ich nicht in Ordnung, da auch bei internen Platten eben keine 4k pro LBA aber mehr als 2TB haben, nach meiner Erfahrung immer MBR vorgeschlagen wird. Das hätte man besser machen können und müssen!
So brauche ich vor allem alle Daten auf auf den MBR-Platten, also allen Platten bis auf die 5TB-Seagate, nicht umzukopieren um diese Platten mit GPT zu initialisieren, wie ich es dachte, tun zu müssen.
Wenn es so funktioniert, besteht überhaupt keine Notwendigkeit etwa an der Partitionierungsart zu ändern, das bedeutet im Gegenteil ein Risiko für die Daten, wenn dabei etwa schirf geht.
Habe ja leider nur einen einzigen USB 3.0-Anschluß, der sich verhält wie ein USB 2.0-Anschluß, so daß wahnsinniger Weise das Kopieren von einer 4TB-Platte zu einer anderen 2,5 Tage dauert ohne Unterbrechung
Wenn Du nur einen USB3 Anschluss hast und von USB2 auf USB3 oder umgekehrt kopierst, dann ist das auch normal, die langsamere Platte bestimmt die Geschwindigkeit. Kaufe Dir doch einen USB3 Hub und hänge dann beide HDDs über den Hub an die einen USB3 Port, ist zwar nicht optimal, dürfte aber immer noch schneller als USB2 sein.

Wenn es von der einen internen 1TB Platte auch so langsam ist, dann dürfte es den viele Fehlern auf der Platte geschuldet sein, oder es stimmt was mit dem Port nicht, ggf. fehlt der UBS3 Treiber, Win 7 hat ja z.B. keinen eigenen USB3 Treiber.
könnte ich ja alle noch kommenden Platten in GPT initialisieren, das ja gewisse Vorteile im Vergleich zu MBR haben soll. Aber die bereits mit MBR laufenden Platten kann ich getrost so belassen, oder gibt es da einen Grund, aus dem ich sie doch lieber in GPT haben sollte?
Lass die bestehenden Platte wie sie sind, auch in den Gehäusen in denen sie sind. GPT hat gegenüber MBR Vorteile, wie ein Backup der Partitionstabelle am Ende der Platte, die Möglichkeit mehr Partitionen anzulegen und auch größere (bei 512 Byte pro Sektor eben auch über 2TiB), es ist auch Voraussetzung für eine Platte von der bei aktiven UEFI Secure Boot gebootet werden soll, aber das ist für Deine Anwendung alles total irrelevant. Wenn Du fertige USB Platten kaufst, nutze sie einfach so wie sie sind und mache Dir keine Gedanken ob die MBR oder GPT partitioniert sind, das ist echt egal.

Und ich schätze, die Annahme, daß die Korruption an der Initialisierung liegt, kan man wohl ohnehin (vor allem in Anbetracht aller Besprochenen Informationen) als mindestens fast definitiv unwahrscheinlich ansehen, da ja auch Platten, die kleiner als 2,2 TB sind betroffen sind.
Das kannst Du absolut vergessen, die Wahrscheinlichkeit ist 0,0.
habe schon öfter gelesen und gehört, daß das Einschalten (vielleicht auch das Ausschalten) von Festplatten eine große Belastung für sie sein soll und beachtlich ihre Haltbarkeit, Zuverlässigkeit, Fehleranfällig beeinflussen soll. Stimmt das?
Siehe den andere Beitrag, für andere Leser nochmal: Alle Platten die ich kenne sind für wenigstens 50.000 Einschaltungen ausgelegt, das sollte reichen, wenn man es nicht mit dem Ein- Ausschalten übertreiben, ob man die also ein oder zweimal am Tag ein- und ausschaltet ist egal, aber Extremstromsparer die sie alle 5 Minuten ein- und ausschalten sollte doch das besser lassen.

hier ist ja ein sehr plausibler Ansatz vorhanden, eine ebensolche Vorgehensweise, in den meisten (wohl ""renomierten") Foren war ja, nach zwar wohl guten Ideen (Kabel defekt, Oberfläche der Platte, RAM defekt und einiges mehr), wenn es die überhaupt gab, Ende.
Das findet man leider in viele Foren und Beiträgen, wenn man dann schreibt, mache doch mal einen RAM Test, dann kommt danach oft doch nur, "habe die RAMs getauscht aber das Problem ist immer noch da". Schreibt man dann sie sollte das neue RAM doch wenigstens auch mal testen, kommt flapsige Antwort es wäre doch neu, am Ende wird Board, CPU und sonstwas getauscht, bis es geht oder auch nicht. Das hätte man sich oft sparen können, vielleicht war das alte RAM nicht kaputt oder das neue ist es auch, aber bitte, jeder wie es will. Blindes Tauschen scheint in Mode zu sein :wall
davon abgesehen, daß es mich jetzt, da ich mich ja zwangsläufig schon recht lange quälender Weise damit "befasse", auch enorm interessiert und ich den bereits hinsichtlich des Problems gigantischen Umfang an Zeit, ebensolchen Aufwand seit Wochen nicht als völlig verloren ansehen will - es wäre ja auch nicht auszuschließen, daß der gleiche Fehler / das gleiche Problem auch beim nächsten Notebook auftaucht, was sich vielleicht vermeiden ließe, wenn man jetzt das Problem lösen würde oder weiter verfolgen würde zumindest.
Man lernt bei so einer Fehlersuche eine Menge, wenn man eben nicht nur blind tauscht, das hilft dann bei künftigen Fällen und es wird am Ende ein richtiges Jagdfiber, der Bug kann ja ein scheues Tier sein, welches sich auch vor dem erfahrenen Jäger geschickt tarnt und listig versteckt. :rolleyes:

muß das Bild der rostenden Scheiben loswerden
Es ist aber nun einmal im wesentlichen Eisenoxis worauf Du die Daten speicherst und wenn Dein Auto davon zu viel an tragendenden Teil hat, fällt es beim TÜV wegen Durchrostung durch. Jetzt weißt Du wenigstens, das das Zeug auch für etwas gut sein kann und kannst dem Herrn antworten, er soll sich doch mal überlegen worauf er zuhause seine speichert und das es so schlimm doch nicht sein könne, dann kannst natürlich nur hoffen das er nicht schon voll auf SSDs umgestiegen ist :bigok:
Beim Kopieren auf derselben Platte, fallen ja - falls ich recht sehe - Teilstrecken weg im Vergleich zum Kopieren / Verschieben auf eine externe Platte.
Nicht wirklich, die Virenfinder haben ja auch ein Auge auf die Dateien oder könnten es zumindest, was aber nur geht, wenn es auch im RAM gelandet ist. Möglicherweise gangbare Abkürzungen nutzt zumindest Windows da also offenbar nicht.
Ich wußte nicht einmal, daß es da - über die vergleichsweise lächerlichen Merkmale, auf die ich so geachtet habe beim Kauf einer Festplatte - noch so unfaßbar viel zu beachten gibt, wollte man nicht, wie ich bislang, einfach nur die billigste mit der größter Speicherkapazität haben.
Das geht viele so, die sehen nur den Preis und die Geschwindigkeit, denken dann bei den teuren Platten werfen sie den Herstellern nur mehr Geld in den Rachen, von außen sehen die ja auch alle fast gleich aus. Und natürlich könnten die Hersteller alle Platten mit allen Features bzw. Datensicherheit, Haltbarkeit, Vibrationsschutz, etc. ausstatten, aber dann würde wohl die Eigenschaft leiden, auf die am meisten geschaut wird: Der Preis. Also sind die einfachen HDDs eben gerade gut genug gemacht um für einfache Anwendungen auszureichen, aber eben möglichst billig hergestellt und verkauft werden zu können. Bei einem Logan erwartet ja auch keine die Haltbarkeit, Sicherheit und Ausstattung wie bei einem Mercedes und auch dort erwartet man von einer A-Klasse nicht den Komfort eine S-Klasse, aber bei HDDs denken die meisten irgendwie anders.

Die HDD Hersteller geben ja auch in den Datenblättern extra an wofür die Modell gedacht sind und zunehmend auch wofür nun nicht, aber das wird auch gerne einfach ignoriert, nach dem Motto "die wollen einem ja nur mehr Geld aus der Tasche leiern".
Ach ja, gibt es eigentlich Versionen von Win, die ECC-RAM unterstützen oder müßte man da ein völlig anderes OS nehmen?
Windows Server tut es auf jeden Fall, aber die Unterstützung ist für die eigentliche Funktion gar nicht nötig, das geht in HW im Memorycontroller vonstatten. Unterstützung durch das OS braucht man nur um einmal die Fehler auslesen zu können und dann auf eben bei erkannte aber nicht korrigierbare Fehler reagieren zu können. Die sind aber eben noch einmal deutlich seltener als die korrigierbaren Fehler. Es wäre also Unsinn auf ECC RAM (und das passende System, also CPU und Mainboard, das gehört wie gesagt immer dazu) zu verzichten, weil das OS es nicht unterstützt, denn ohne ECC RAM habe ich 0% Sicherheit vor RAM Fehler, mit vielleicht 99,5% und wen das OS es unterstützt 99,9%, so in der Art. Die Sicherheit steigt dann eben auch, weil wenn ich sehen kann ob ein Modul immer wieder mal Single-Bit Fehler hat, dann kann ich es austauschen und mindere das Risiko von Doppelbitfehlern, die einfaches ECC RAM eben nicht mehr korrigieren kann.

ein Bit ist auf diesem langen, komplizierten Weg unterschiedlich hohen Risiken (selbst bei voll intakten Systemen ohne ECC) ausgesetzt unbemerkt oder bemerkt (je nach Prüfung und danach, ob das Bit überhaupt gerpüft wird) zu kippen.
Genau, wobei wenn es bemerkt wird, kann es meist auch korrigiert werden, zumindest solange es nicht zu viele Fehler sind oder es gibt eine Fehlermeldung und es sei in ein einem Attribut der S.MA.R.T. Werte, so wie hier es zu sehen ist.
Und je geringer man das Risiko (unbemerkt) gekippter Bits haben will, desto mehr Aufwand muß man wohl betreiben und desto mehr muß man zahlen.
Genau und u.a. deswegen ist Enterprise HW so teuer, der Aufwand muss ja auch bezahlt werden.

Ist hier mit "faulty" tatsächlich gemeint, die CPU wird einfach defekt im Sinne davon, daß einfach das Bauteil kaputt geht oder daß etwa zwar die CPU intakt (was man auch immer als "intakt" in diesem Zusammenhang ansehen mag) bleibt, aber einfach anfälliger (vielleicht durch Hitze, Belastung, Verschleiß) für diese Art Fehler wird, schwächer wird? Auf jeden Fall unfaßbar erstaunlich.
Letzteres, die rechnet einfach mal falsch und führt damit eine Absturz herbei.

Vom Übertakten von CPUs habe ich schon öfter mal etwas gelesen, bzw. am Rande wahrgenommen. Dann könnte man ja davon ausgehen nach dem Lesen dieser Analyse, daß, wer eine CPU übertaktet entweder verdammt genau weiß, welche Konsequenzen das haben kann und was er da tut (oder lieber läßt), bzw. hat oder sich damit unfaßbare Probleme schafft.
Gewissenhafte Übertakter machen Belastungstests im das Risiko in Grenzen zu halten und das Übertakten die Systemstabilität und Datensicherheit nicht gerade erhöht, sollte sich rumgesprochen haben.

Falls ich den Begriff "white box desktops" richtig nachgeschlagen habe, bedeutet das, daß Menschen, die sich eigenes einen Computer aufwändig selber zusammenbasteln, anders als vermutlich erwartet einen unzuverlässigeren Computer haben als einen sogenannten Marken-Compuer. Erstaunlich.
OEM testen die Komponenten sehr genau die sie verbauen und verlangen von ihren Zulieferern die genau Einhaltung der Spezifikationen bei jeder Charge. Bei den Selbstbauern entsteht dagegen jedesmal ein Prototyp und jeder ist anders.

Daraus ließe sich ja wohl folgern, daß man, wenn man einen in dieser Hinsicht so zuverlässigen Rechner wie möglich haben wollte, auch noch das Verhältnis der durch die Größe des DRAM mehr verursachten Fehler zu den von dabei von Festplatten weniger verursachten Fehlern setzen müßte. Das ist ja...und dann gibt es bestimmt noch Verhältnismäßigkeiten zu anderen (Größen / Verhalten von) weiteren Bauteilen.
Das sehe ich als statistisches Problem, mehr RAM führt zu mehr RAM Fehlern, aber nicht zu mehr HDD Fehlern, prozentual auf alle Fehler gesehen spielen die HDD Fehler dann weniger eine Rolle.

es gibt ja offenbar viele Heimanwender (mit eben dieser sogenannten Consumer Hardware, aber wohl auch vielen mit besseren Systemen), die gigantische Datenmengen auf Platten haben. Da müßte es doch viel öfter Beiträge in Foren geben; aber ich könnte mir vorstellen das die "Dunkelziffer" eben recht hoch ist, weil so ein Problem wohl schwer / aufwändig lokalisierbar ist, einfach überhaupt unerkannt bleibt (also jedenfalls bis auf hier und da vielleicht mal eine kaputte Datei, deren Ursache unerkannt / unerforscht bleibt).
Bei bessere HW dürfte man weniger Probleme haben, der Rest wohl auch oft falsche Diagnose (oder besser Vermutungen) wie Du ja auch an einigen recht unsinnigen Antworten in anderen Foren gesehen hast.

Ich hätte gedacht, da der RAM ja im Werk eingebaut wurde, die Computer so ausgeliefert wurden, daß RAM-Riegel wenigstens derart (eingebaut) sein müßten, daß sie hinsichtlich dieses Anspruches auch einwandfrei funktionieren, aber das muß also auch nicht so sein.
Viele rüsten aber gerade beim RAM auf oder nach, wenn es aber Werk so verbaut ist, sollte es kein Problem sein.

Es sind ja zwei Aldi-Notebooks, bei denen beide die Dateien auf augenscheinlich gleiche / selbe Ursache korrupt werden.
Zwei Notebooks? Tritt es bei beiden auf?

Week/ Year wird identisch angezeigt für beide Slots, bedeutet wohl selbe Herstellungszeit.
Sogar fortlaufenden Seriennummern, das ist es also nicht.

Ah, hätte ich gar nicht gedacht, die Kosten sehen auf den ersten Blick gar nicht so hoch aus, aber bei ca. 12 vollen Platten, davon ca. 7, 8 mit durchschnittlich 4TB wird das wohl auch nicht ganz billig werden.
Es war noch nie günstig große Datenmengen sicher zu speichern, der Server, die Platten, Abzügen wegen RAID, die Backupplatten, da kommt man schnell auf mindestens das dreifach pro TB was günstige Consumer HDDs kosten, leicht auch mehr.

Dieser Wert - BF 100 100 __0 000000000024 G-Sense Fehlerrate - gibt also wohl die Intensität eines Schocks, etwa eine Falles, Stoßes einer Platte an und vielleicht noch die Anzahl der Stöße.
Wenn der Sensor einen bestimmten Beschleigungswert erkennt, zählt der Zähler hoch bisher war es 0x24 = 36 mal. Schau halt ob er weiter steigt und überlege was es gewesen sein könnte. Faust auf den Tisch gehauen? LkW vorm ist durchs Schlagloch gefahren? Was auch immer.
Nein, bisher noch keine Fehlermeldung (ist ja erstaunlich, verstehe ich gar nicht), die ich darauf zurückgeführt hätte (weiß aber nicht, wie ich das aus meiner gegenwärtigen Sicht, im nachhinein werten würde), die mir hätte so einen Verdacht nahelegen können. Das Notebook läuft aber katastrophal, langsam, träge, instabil, würde ich sagen, nahezu unbrauchbar. Dann wäre das offenbar einen Erklärung dafür. Ständig "Keine Rückmeldung" einhergehend mit milchig dargestellten Fenstern.
Das war zu erwarten.

Aber können diese Defekte der internen Platte die Dateikorruptionen auch auf den externen Platten auslösen?
Das sollte es eigentlich nicht, aber man kann nie sicher sein, die musst sowieso neu und ich beheben immer alle Fehler die ich bei einer Fehlersuche finde, auch wenn sie scheinbar nichts mit dem eigentlichen Problem zu tun haben, hat es das doch schon einige male auch gelöst. Vielleicht gibt es wegen der Probleme irgendwo einen Timeout, ein dummer Programmiere hat den zwar abgefangen, behandelt den Fehler aber nicht und damit gibt es keine Fehlermeldung, aber doch korrupte Daten irgendwo in einem Puffer und schon hat man da ein Problem.

Tauch die Platte und schon ob es weg ist.
Stimmt so nicht ganz, denn Schwebende Sektoren sind erstmal nur Sektoren deren Daten nicht mehr zur ECC passen, da gibt es also eine Lesefehler wenn man versucht diese zu lesen. Das kann auch anderen Gründe als defekte Oberflächen haben, z.B. einen Stromausfall während eines Schreibvorgang der dazu führt, dass eben nicht die ganze Daten plus der neuen ECC geschrieben wurden oder wegen eines Stoßes oder Vibrationen ist der Kopf beim Schreiben aus der Spur gekommen und hat Daten auf der Nachbarspur überschrieben. Die Controller merken sich die schwebenden Sektoren und prüfen die Daten nach dem erneuten Schreiben auf diese Sektoren, dann verschwinden diese einfach oder werden eben durch Reservesektoren ersetzt. Unkorrigierbare Sektoren sind schwebende Sektoren die bei einem Selbsttest statt im laufenden Betrieb aufgefallen sind.

Die Platte kann - und wohl vor allem, sollte - ich also recht bald, wohl eher schnellstens, einfach wegschmeißen, schätze ich.
Ja, ersetze sie, die wir nicht besser, sondern nur schlechter.

Ich meinte mich zu erinnern, sogar auf der WD-Website - oder sonstwo, vielleicht in einem Forum - gelesen zu haben, daß das Programm für alle Hersteller geeignet wäre;
Nur mit Einschränkungen, dann kann man besser Tools wie CrystalDiskInfo nehmen.

Und hoffen - oder auch nicht -, daß es gerade auch der Bereich ist, auf dem diese Daten gespeichert sind, der Fehler hervorrufen könnte.
Zwar fehlen die Screenshot von CrystalDiskInfo aller betroffenen HDD (sind das alle USB Platten?), aber ich glauben an Oberflächenprobleme. Der Test soll dazu dienen den Weg der Daten vom RAM zu Platte und zurück zu testen.

Ach, so viele Möglichkeiten bleiben immer noch offen.
Kann ich denn den RAM mit dem Notebook mit der defekten Platte überhaupt noch testen, so daß Fehler erkennbar auf den RAM zurückzuführen sind und nicht von der defekten Platte verursacht werden?
Mit Memtest86+ auf jeden Fall, das hat ja mit der Platte nichts zu tun und bei Prime sollte es auch von Windows eine Fehlermeldung oder einen BSOD geben.
Und wenn h2testw einen Fehler meldet, weiß man erst einmal, daß der Fehler hier - "USB Host Controller, den USB-SATA Bridgechips, den Platten in den Gehäuse oder auch dem USB Treiber liegen" - zu finden ist, nicht mehr woanders, sehe ich das richtig? Dann muß man in dieser Gruppe den Fehler (nur noch) lokalisieren.
Das RAM muss fehlerfrei sein, sonst gibt es womöglich Fehlalarm oder korrupte Testdaten auf der Platte. Deshalb ist RAM immer das erste was man testet, denn wenn man sich darauf nicht verlassen kann, ist alles andere sinnlos.

Ja, aber daß ich keine Fehlermeldungen erhalten habe, ist ja tatsächlich äußerst verwunderlich wohl. Aber das erklärt immerhin wohl die katastrophale Leistung des Notebooks.
Noch schafft es die Platte wohl so gerade, aber wie lange noch? Das kann man nicht vorhersagen. Alleine die katastrophale Leistung des Notebooks ist ein Grund zum Austausch.

Ich kopiere eigentlich (große Datenmengen) nur mit einem Synch-Programm, das kann nach der Übertragung jeder Datei einzelnen Datei automatisch den Inhalt prüfen (mit der schon besprochenen Unzuverlässigkeit) und kopiert die unkorrekt übertragenen sofort automatisch noch einmal. Mit dem Programm kann ich auch manuell einen Vergleich nach Inhalt nach der kompletten Übertragung aller Dateien ausführen. Es dauert eben alles verdammt lange (mit USB 2.0).
Das Sync-Programm unterdrückt hoffentlich keine Fehlermeldungen. Was ist wenn Du mit dem Windows Explorer kopierst? Gibt es dann auch Datenkorruption oder gar Fehlermeldungen?

So kann ich so einen NAS also einfach als (große) Festplatte über Netzwerk (und wohl nur über Netzwerk) zugreifbar ansehen, der noch einen eigenen Computer hat, mit dem man den NAS wohl verwalten kann.
Genau.

Ja, es müssen / sollten also verständlicherweise auch bei so einem System eben die Dateien zur Sicherheit (mindestens) doppelt vorhanden sein. Ich meine gelesen zu haben, daß so ein NAS automatisch irgendwie korrupte Dateien erkennen und auch ebenso austauschen kann mit intakten, das ist wohl der Grund, warum der als Tresor angesehen wird. Aber das würde ja wohl auch erfordern, daß Dateien eben mindestens doppelt vorhanden wären.
??? Ob da einer ein RAID 1 überschätzt hat? Das kann zwar sowas, aber es ersetzt auch keine Backups. Es gab auch schon Verschlüsselungsviren für NAS und wenn die Kiste runterfällt sind auch alle Platten auf einmal kaputt. Löscht man versehentlich eine Dateien, ist wie wirklich weg, ein Datentresor ist das nun wirklich nicht.

Also...tja, es ist mir peinlich das zuzugeben...es gibt nur eine Sicherung - von der ich nicht weiß, wieviel sie taugt infolge inkorrekter Datenübertragung und der - soeben bekannt gewordenen defekten Platte - für die wirklich allerwichtigsten Dateien, also in der Tat von dieser defekten internen Platte. Wenn ich mit einer externen Platte hier von Zimmer zu Zimmer gehend in meiner Wohnung straucheln würde und sie auf den Boden knallen würde, dann...aaaargh...!...wäre ich wohl nicht mehr ansprechbar...aber etwa 12 Platten zu sichern (dazu noch mit USB 2.0) ist ja allein mit einem intakten Laien(Consumer)System schon unfaßbar (zeit-)aufwändig, von den Kosten ganz zu schweigen. Aber es ist natürlich...eigentlich nahezu sinnlos keine Sicherungen zu haben.
Datensicherung ist immer mit einem Aufwand an Zeit und Geld verbunden, aber ob das lohnt oder man das Risiko von Datenverlusten hinnehmen kann, muss jeder selbst entscheiden. Man sollte sich nur eben des Risikos bewusst sein.

Beiträge derartiger Qualität im Netz, bzw. eigentlich kenne ich derartige gar nicht; und Verzeihung, habe es bisher unterlassen mich zu bedanken, also allerherzlichsten Dank für die grandiose Hilfe.
Gerne geschehen, den mein Motto ist: Wenn wir es machen, machen wir es ordentlich oder gar nicht! Und "Qualität ist, wenn man es gleich richtig macht!"
Die Prime95-Ation versuche ich nachher mit dem anderen Notebook zu machen und mit dem, das ich gerade benutze
Moment, wenn Du zwei Notebooks hast und beide das Problem haben, dann sollten die gleichen Tests auch auf beiden ausgeführt werden, sonst geht alles durcheinander.

Ich hoffe, ich habe die richtigen Informationen und auch die richtige Darstellung gewählt.
Bei Prime95 interessiert eigentlich nur ob die Worker mit Fehlern abbrechen, das war hier ja wohl nicht der Fall oder nicht. Die Ergebnisse sind egal.

HWiNFO Sensors vor dem Start von Prime:
85°C sind recht hoch, für eine mobile CPU aber noch im Rahmen, zumindest für die von Intel, die dürfen meist bis 100°C haben.
Wieseo zeigt CDI eine Platte wie die defekte als "Good" an? Alle meine anderen Platten werden ebenfalls als "Good" dargestellt. Oder wie krank muß denn eine Platte sein, damit CDI sie entsprechend anzeigt?
CDI wertet nur einige wenige Attribute für seine Bewertung aus, übersieht daher eher Probleme als andere Programme, die dagegen eher Fehler / Probleme melden, wo gar keine sind. Poste die Screenshot der HDDs, der Blick des Fachmanns ist eben noch durch keines der Tools zu ersetzen.

Läßt sich eigentlich irgendwo erkennen, 'rausfinden, wann ein Fehler aufgetreten ist, die Platte einen Fehler gekriegt hat, etwa einen defekten Sektor? Ein Datum oder einen Hineweis darauf kann ich nirgends finden.
Ja. mit smartctl -a sieht man wie viele Betriebsstunden die HDD bei den letzten 5 Fehlern jeweils hatte. Sonst schau mal in die Ereignisanzeige von Windows, da dürfte auch was stehen.
 
Ich weiß gar nicht, ob es auch bei bereits vorhandenen Beiträgen, die nachträclich noch einmal bearbeitet werden, eine Benachrichtigungs-eMail gibt, hatte meinem vor diesem Beitrag geschriebenen nachträglich noch etwas hinzugefügt.

Hier also die Daten / der Prime-Test für das Notebook (P8814), für das der aktuelle MemTest86+ vorliegt:

Die Arbeitsspeicher von CPU-Z:

BZT2c3X.png

DJPKU3f.png

1Epla62.png


Sind also wohl identischer Ursprungszeit, wenn ich richtig sehe und ansonsten auch die gleichen / zueinander passenden RAM-Sätze, wenn ich richtig sehe.

Slots 3 und 4 werden mit leeren Feldern angezeigt:
x8kYrIS.png


Das sieht ja auch nicht so richtig gut aus, das gibt's doch nicht:
MKdDVJy.png


Die Platte kann ich dann wohl auch wegschmeißen.
Ist das Zufall, daß da offenbar der gleiche G-Sense-Wert (wenn der Punkt G-Sense in CDI gar nicht angezeigt wird entspricht das wohl dem Wert "0", also kein Stoß ab einer gewissen Stärke vorhanden gewesen) angezeigt wird, wie bei der anderen defekten Platte? Oder sind das gewisse Standardwerte mit bestimmten Zählabständen etwa?
Schreib- und Lesefehlerrate scheinen hier ja noch höher zu sein. Wenn das also die Ursache für die korrupten Dateien wären / sein könnten, wäre die Ursache ja möglicherweise gefunden; aber ich schätze eher, daß wird wohl glücklicherweise oder leider nicht so sein. Und allerdings erklärte das vielleicht nicht, warum ich bisher keine kaputte Datei auf diesen internen, kaputten Platten gefunden / erkannt hätte.

Vorm Test:
K92D0Qq.png

U3RwTUH.png


Mit Voreinstellungen gestartet:
BAdvaI8.png


Ergebnis:

[Main thread Aug 19 09:50] Mersenne number primality test program version 28.5
[Main thread Aug 19 09:50] Optimizing for CPU architecture: Core i3/i5/i7, L2 cache size: 256 KB, L3 cache size: 3 MB
[Main thread Aug 19 09:50] Unable to detect which logical CPUs are hyperthreaded.
[Main thread Aug 19 09:50] Assuming logical CPUs 1 and 2, 3 and 4, etc. are each from one physical CPU core.
[Main thread Aug 19 09:50] To the best of my knowledge this assumption is only valid for Microsoft Windows.
[Main thread Aug 19 09:50] To override this assumption, see AffinityScramble2 in undoc.txt.
[Main thread Aug 19 10:44] Starting workers.
[Main thread Aug 19 12:06] Stopping all worker threads.
[Main thread Aug 19 12:06] Execution halted.

[Worker #2 Aug 19 10:44] Worker starting
[Worker #4 Aug 19 10:44] Worker starting
[Worker #1 Aug 19 10:44] Worker starting
[Worker #3 Aug 19 10:44] Worker starting
[Worker #4 Aug 19 10:44] Setting affinity to run worker on logical CPU #4
[Worker #2 Aug 19 10:44] Setting affinity to run worker on logical CPU #2
[Worker #1 Aug 19 10:44] Setting affinity to run worker on logical CPU #1
[Worker #3 Aug 19 10:44] Setting affinity to run worker on logical CPU #3
[Worker #4 Aug 19 10:44] Beginning a continuous self-test to check your computer.
[Worker #4 Aug 19 10:44] Please read stress.txt. Choose Test/Stop to end this test.
[Worker #2 Aug 19 10:44] Beginning a continuous self-test to check your computer.
[Worker #2 Aug 19 10:44] Please read stress.txt. Choose Test/Stop to end this test.
[Worker #1 Aug 19 10:44] Beginning a continuous self-test to check your computer.
[Worker #1 Aug 19 10:44] Please read stress.txt. Choose Test/Stop to end this test.
[Worker #3 Aug 19 10:44] Beginning a continuous self-test to check your computer.
[Worker #3 Aug 19 10:44] Please read stress.txt. Choose Test/Stop to end this test.
[Worker #2 Aug 19 10:44] Test 1, 6500 Lucas-Lehmer iterations of M12451841 using Pentium4 type-2 FFT length 640K, Pass1=640, Pass2=1K.
[Worker #1 Aug 19 10:44] Test 1, 6500 Lucas-Lehmer iterations of M12451841 using Pentium4 type-2 FFT length 640K, Pass1=640, Pass2=1K.
[Worker #4 Aug 19 10:44] Test 1, 6500 Lucas-Lehmer iterations of M12451841 using Pentium4 type-2 FFT length 640K, Pass1=640, Pass2=1K.
[Worker #3 Aug 19 10:44] Test 1, 6500 Lucas-Lehmer iterations of M12451841 using Pentium4 type-2 FFT length 640K, Pass1=640, Pass2=1K.
[Worker #2 Aug 19 10:48] Self-test 640K passed!
[Worker #2 Aug 19 10:48] Test 1, 800000 Lucas-Lehmer iterations of M172031 using FFT length 8K.
[Worker #4 Aug 19 10:48] Self-test 640K passed!
[Worker #4 Aug 19 10:48] Test 1, 800000 Lucas-Lehmer iterations of M172031 using FFT length 8K.
[Worker #1 Aug 19 10:48] Self-test 640K passed!
[Worker #1 Aug 19 10:48] Test 1, 800000 Lucas-Lehmer iterations of M172031 using FFT length 8K.
[Worker #3 Aug 19 10:48] Self-test 640K passed!
[Worker #3 Aug 19 10:48] Test 1, 800000 Lucas-Lehmer iterations of M172031 using FFT length 8K.
[Worker #2 Aug 19 10:51] Self-test 8K passed!
[Worker #2 Aug 19 10:51] Test 1, 5300 Lucas-Lehmer iterations of M14155777 using type-2 FFT length 720K, Pass1=320, Pass2=2304.
[Worker #1 Aug 19 10:51] Self-test 8K passed!
[Worker #1 Aug 19 10:51] Test 1, 5300 Lucas-Lehmer iterations of M14155777 using type-2 FFT length 720K, Pass1=320, Pass2=2304.
[Worker #4 Aug 19 10:52] Self-test 8K passed!
[Worker #4 Aug 19 10:52] Test 1, 5300 Lucas-Lehmer iterations of M14155777 using type-2 FFT length 720K, Pass1=320, Pass2=2304.
[Worker #3 Aug 19 10:52] Self-test 8K passed!
[Worker #3 Aug 19 10:52] Test 1, 5300 Lucas-Lehmer iterations of M14155777 using type-2 FFT length 720K, Pass1=320, Pass2=2304.
[Worker #2 Aug 19 10:54] Self-test 720K passed!
[Worker #2 Aug 19 10:54] Test 1, 460000 Lucas-Lehmer iterations of M250519 using type-0 FFT length 12K, Pass1=48, Pass2=256.
[Worker #1 Aug 19 10:55] Self-test 720K passed!
[Worker #1 Aug 19 10:55] Test 1, 460000 Lucas-Lehmer iterations of M250519 using type-0 FFT length 12K, Pass1=48, Pass2=256.
[Worker #4 Aug 19 10:55] Self-test 720K passed!
[Worker #4 Aug 19 10:55] Test 1, 460000 Lucas-Lehmer iterations of M250519 using type-0 FFT length 12K, Pass1=48, Pass2=256.
[Worker #3 Aug 19 10:56] Self-test 720K passed!
[Worker #3 Aug 19 10:56] Test 1, 460000 Lucas-Lehmer iterations of M250519 using type-0 FFT length 12K, Pass1=48, Pass2=256.
[Worker #2 Aug 19 10:57] Test 2, 460000 Lucas-Lehmer iterations of M245759 using type-0 FFT length 12K, Pass1=48, Pass2=256.
[Worker #1 Aug 19 10:58] Test 2, 460000 Lucas-Lehmer iterations of M245759 using type-0 FFT length 12K, Pass1=48, Pass2=256.
[Worker #4 Aug 19 10:58] Self-test 12K passed!
[Worker #4 Aug 19 10:58] Test 1, 4500 Lucas-Lehmer iterations of M15597569 using Pentium4 type-2 FFT length 800K, Pass1=640, Pass2=1280.
[Worker #3 Aug 19 10:59] Self-test 12K passed!
[Worker #3 Aug 19 10:59] Test 1, 4500 Lucas-Lehmer iterations of M15597569 using Pentium4 type-2 FFT length 800K, Pass1=640, Pass2=1280.
[Worker #2 Aug 19 11:00] Self-test 12K passed!
[Worker #2 Aug 19 11:00] Test 1, 4500 Lucas-Lehmer iterations of M15597569 using Pentium4 type-2 FFT length 800K, Pass1=640, Pass2=1280.
[Worker #1 Aug 19 11:00] Self-test 12K passed!
[Worker #1 Aug 19 11:00] Test 1, 4500 Lucas-Lehmer iterations of M15597569 using Pentium4 type-2 FFT length 800K, Pass1=640, Pass2=1280.
[Worker #4 Aug 19 11:01] Self-test 800K passed!
[Worker #4 Aug 19 11:01] Test 1, 340000 Lucas-Lehmer iterations of M339487 using type-1 FFT length 16K, Pass1=64, Pass2=256.
[Worker #3 Aug 19 11:02] Self-test 800K passed!
[Worker #3 Aug 19 11:02] Test 1, 340000 Lucas-Lehmer iterations of M339487 using type-1 FFT length 16K, Pass1=64, Pass2=256.
[Worker #2 Aug 19 11:03] Test 2, 4500 Lucas-Lehmer iterations of M15597567 using Pentium4 FFT length 800K, Pass1=640, Pass2=1280.
[Worker #1 Aug 19 11:03] Test 2, 4500 Lucas-Lehmer iterations of M15597567 using Pentium4 FFT length 800K, Pass1=640, Pass2=1280.
[Worker #4 Aug 19 11:05] Self-test 16K passed!
[Worker #4 Aug 19 11:05] Test 1, 4000 Lucas-Lehmer iterations of M18474367 using type-2 FFT length 960K, Pass1=256, Pass2=3840.
[Worker #2 Aug 19 11:05] Self-test 800K passed!
[Worker #2 Aug 19 11:05] Test 1, 340000 Lucas-Lehmer iterations of M339487 using type-1 FFT length 16K, Pass1=64, Pass2=256.
[Worker #3 Aug 19 11:05] Self-test 16K passed!
[Worker #3 Aug 19 11:05] Test 1, 4000 Lucas-Lehmer iterations of M18474367 using type-2 FFT length 960K, Pass1=256, Pass2=3840.
[Worker #1 Aug 19 11:06] Self-test 800K passed!
[Worker #1 Aug 19 11:06] Test 1, 340000 Lucas-Lehmer iterations of M339487 using type-1 FFT length 16K, Pass1=64, Pass2=256.
[Worker #4 Aug 19 11:08] Self-test 960K passed!
[Worker #4 Aug 19 11:08] Test 1, 210000 Lucas-Lehmer iterations of M501041 using type-1 FFT length 24K, Pass1=96, Pass2=256.
[Worker #2 Aug 19 11:08] Self-test 16K passed!
[Worker #2 Aug 19 11:08] Test 1, 4000 Lucas-Lehmer iterations of M18474367 using type-2 FFT length 960K, Pass1=256, Pass2=3840.
[Worker #3 Aug 19 11:09] Self-test 960K passed!
[Worker #3 Aug 19 11:09] Test 1, 210000 Lucas-Lehmer iterations of M501041 using type-1 FFT length 24K, Pass1=96, Pass2=256.
[Worker #1 Aug 19 11:09] Self-test 16K passed!
[Worker #1 Aug 19 11:09] Test 1, 4000 Lucas-Lehmer iterations of M18474367 using type-2 FFT length 960K, Pass1=256, Pass2=3840.
[Worker #4 Aug 19 11:11] Self-test 24K passed!
[Worker #4 Aug 19 11:11] Test 1, 3100 Lucas-Lehmer iterations of M21871519 using type-2 FFT length 1120K, Pass1=448, Pass2=2560.
[Worker #2 Aug 19 11:11] Self-test 960K passed!
[Worker #2 Aug 19 11:11] Test 1, 210000 Lucas-Lehmer iterations of M501041 using type-1 FFT length 24K, Pass1=96, Pass2=256.
[Worker #1 Aug 19 11:12] Self-test 960K passed!
[Worker #1 Aug 19 11:12] Test 1, 210000 Lucas-Lehmer iterations of M501041 using type-1 FFT length 24K, Pass1=96, Pass2=256.
[Worker #3 Aug 19 11:12] Self-test 24K passed!
[Worker #3 Aug 19 11:12] Test 1, 3100 Lucas-Lehmer iterations of M21871519 using type-2 FFT length 1120K, Pass1=448, Pass2=2560.
[Worker #4 Aug 19 11:14] Self-test 1120K passed!
[Worker #4 Aug 19 11:14] Test 1, 160000 Lucas-Lehmer iterations of M662593 using Pentium4 type-1 FFT length 32K, Pass1=128, Pass2=256.
[Worker #2 Aug 19 11:14] Test 2, 210000 Lucas-Lehmer iterations of M496943 using type-1 FFT length 24K, Pass1=96, Pass2=256.
[Worker #1 Aug 19 11:15] Test 2, 210000 Lucas-Lehmer iterations of M496943 using type-1 FFT length 24K, Pass1=96, Pass2=256.
[Worker #3 Aug 19 11:15] Self-test 1120K passed!
[Worker #3 Aug 19 11:15] Test 1, 160000 Lucas-Lehmer iterations of M662593 using Pentium4 type-1 FFT length 32K, Pass1=128, Pass2=256.
[Worker #2 Aug 19 11:17] Self-test 24K passed!
[Worker #2 Aug 19 11:17] Test 1, 3100 Lucas-Lehmer iterations of M21871519 using type-2 FFT length 1120K, Pass1=448, Pass2=2560.
[Worker #4 Aug 19 11:17] Self-test 32K passed!
[Worker #4 Aug 19 11:17] Test 1, 3100 Lucas-Lehmer iterations of M22971521 using type-2 FFT length 1200K, Pass1=320, Pass2=3840.
[Worker #1 Aug 19 11:18] Self-test 24K passed!
[Worker #1 Aug 19 11:18] Test 1, 3100 Lucas-Lehmer iterations of M21871519 using type-2 FFT length 1120K, Pass1=448, Pass2=2560.
[Worker #3 Aug 19 11:19] Self-test 32K passed!
[Worker #3 Aug 19 11:19] Test 1, 3100 Lucas-Lehmer iterations of M22971521 using type-2 FFT length 1200K, Pass1=320, Pass2=3840.
[Worker #2 Aug 19 11:20] Test 2, 3100 Lucas-Lehmer iterations of M20971521 using FFT length 1120K, Pass1=448, Pass2=2560.
[Worker #4 Aug 19 11:21] Self-test 1200K passed!
[Worker #4 Aug 19 11:21] Test 1, 100000 Lucas-Lehmer iterations of M983041 using type-1 FFT length 48K, Pass1=64, Pass2=768.
[Worker #1 Aug 19 11:21] Test 2, 3100 Lucas-Lehmer iterations of M20971521 using FFT length 1120K, Pass1=448, Pass2=2560.
[Worker #3 Aug 19 11:22] Self-test 1200K passed!
[Worker #3 Aug 19 11:22] Test 1, 100000 Lucas-Lehmer iterations of M983041 using type-1 FFT length 48K, Pass1=64, Pass2=768.
[Worker #2 Aug 19 11:22] Self-test 1120K passed!
[Worker #2 Aug 19 11:22] Test 1, 160000 Lucas-Lehmer iterations of M662593 using Pentium4 type-1 FFT length 32K, Pass1=128, Pass2=256.
[Worker #1 Aug 19 11:23] Self-test 1120K passed!
[Worker #1 Aug 19 11:23] Test 1, 160000 Lucas-Lehmer iterations of M662593 using Pentium4 type-1 FFT length 32K, Pass1=128, Pass2=256.
[Worker #4 Aug 19 11:24] Self-test 48K passed!
[Worker #4 Aug 19 11:24] Test 1, 2500 Lucas-Lehmer iterations of M26138689 using type-2 FFT length 1344K, Pass1=448, Pass2=3K.
[Worker #2 Aug 19 11:25] Test 2, 160000 Lucas-Lehmer iterations of M659457 using Pentium4 FFT length 32K, Pass1=128, Pass2=256.
[Worker #3 Aug 19 11:26] Self-test 48K passed!
[Worker #3 Aug 19 11:26] Test 1, 2500 Lucas-Lehmer iterations of M26138689 using type-2 FFT length 1344K, Pass1=448, Pass2=3K.
[Worker #1 Aug 19 11:26] Test 2, 160000 Lucas-Lehmer iterations of M659457 using Pentium4 FFT length 32K, Pass1=128, Pass2=256.
[Worker #4 Aug 19 11:27] Test 2, 2500 Lucas-Lehmer iterations of M25638687 using FFT length 1344K, Pass1=896, Pass2=1536.
[Worker #2 Aug 19 11:28] Self-test 32K passed!
[Worker #2 Aug 19 11:28] Test 1, 3100 Lucas-Lehmer iterations of M22971521 using type-2 FFT length 1200K, Pass1=320, Pass2=3840.
[Worker #1 Aug 19 11:29] Self-test 32K passed!
[Worker #1 Aug 19 11:29] Test 1, 3100 Lucas-Lehmer iterations of M22971521 using type-2 FFT length 1200K, Pass1=320, Pass2=3840.
[Worker #3 Aug 19 11:29] Self-test 1344K passed!
[Worker #3 Aug 19 11:29] Test 1, 75000 Lucas-Lehmer iterations of M1322851 using Pentium4 type-2 FFT length 64K, Pass1=256, Pass2=256.
[Worker #4 Aug 19 11:30] Self-test 1344K passed!
[Worker #4 Aug 19 11:30] Test 1, 75000 Lucas-Lehmer iterations of M1322851 using Pentium4 type-2 FFT length 64K, Pass1=256, Pass2=256.
[Worker #2 Aug 19 11:31] Self-test 1200K passed!
[Worker #2 Aug 19 11:31] Test 1, 100000 Lucas-Lehmer iterations of M983041 using type-1 FFT length 48K, Pass1=64, Pass2=768.
[Worker #1 Aug 19 11:32] Self-test 1200K passed!
[Worker #1 Aug 19 11:32] Test 1, 100000 Lucas-Lehmer iterations of M983041 using type-1 FFT length 48K, Pass1=64, Pass2=768.
[Worker #3 Aug 19 11:33] Self-test 64K passed!
[Worker #3 Aug 19 11:33] Test 1, 2500 Lucas-Lehmer iterations of M29311553 using type-2 FFT length 1536K, Pass1=512, Pass2=3K.
[Worker #4 Aug 19 11:33] Self-test 64K passed!
[Worker #4 Aug 19 11:33] Test 1, 2500 Lucas-Lehmer iterations of M29311553 using type-2 FFT length 1536K, Pass1=512, Pass2=3K.
[Worker #2 Aug 19 11:35] Self-test 48K passed!
[Worker #2 Aug 19 11:35] Test 1, 2500 Lucas-Lehmer iterations of M26138689 using type-2 FFT length 1344K, Pass1=448, Pass2=3K.
[Worker #1 Aug 19 11:36] Self-test 48K passed!
[Worker #1 Aug 19 11:36] Test 1, 2500 Lucas-Lehmer iterations of M26138689 using type-2 FFT length 1344K, Pass1=448, Pass2=3K.
[Worker #3 Aug 19 11:37] Self-test 1536K passed!
[Worker #3 Aug 19 11:37] Test 1, 56000 Lucas-Lehmer iterations of M1633941 using Pentium4 type-1 FFT length 80K, Pass1=80, Pass2=1K.
[Worker #4 Aug 19 11:37] Self-test 1536K passed!
[Worker #4 Aug 19 11:37] Test 1, 56000 Lucas-Lehmer iterations of M1633941 using Pentium4 type-1 FFT length 80K, Pass1=80, Pass2=1K.
[Worker #2 Aug 19 11:37] Test 2, 2500 Lucas-Lehmer iterations of M25638687 using FFT length 1344K, Pass1=896, Pass2=1536.
[Worker #1 Aug 19 11:39] Test 2, 2500 Lucas-Lehmer iterations of M25638687 using FFT length 1344K, Pass1=896, Pass2=1536.
[Worker #2 Aug 19 11:40] Self-test 1344K passed!
[Worker #2 Aug 19 11:40] Test 1, 75000 Lucas-Lehmer iterations of M1322851 using Pentium4 type-2 FFT length 64K, Pass1=256, Pass2=256.
[Worker #3 Aug 19 11:40] Self-test 80K passed!
[Worker #3 Aug 19 11:40] Test 1, 2100 Lucas-Lehmer iterations of M32095135 using type-2 FFT length 1680K, Pass1=448, Pass2=3840.
[Worker #4 Aug 19 11:40] Self-test 80K passed!
[Worker #4 Aug 19 11:40] Test 1, 2100 Lucas-Lehmer iterations of M32095135 using type-2 FFT length 1680K, Pass1=448, Pass2=3840.
[Worker #1 Aug 19 11:41] Self-test 1344K passed!
[Worker #1 Aug 19 11:41] Test 1, 75000 Lucas-Lehmer iterations of M1322851 using Pentium4 type-2 FFT length 64K, Pass1=256, Pass2=256.
[Worker #2 Aug 19 11:43] Self-test 64K passed!
[Worker #2 Aug 19 11:43] Test 1, 2500 Lucas-Lehmer iterations of M29311553 using type-2 FFT length 1536K, Pass1=512, Pass2=3K.
[Worker #4 Aug 19 11:43] Self-test 1680K passed!
[Worker #4 Aug 19 11:43] Test 1, 46000 Lucas-Lehmer iterations of M1933071 using type-2 FFT length 96K, Pass1=128, Pass2=768.
[Worker #3 Aug 19 11:43] Self-test 1680K passed!
[Worker #3 Aug 19 11:43] Test 1, 46000 Lucas-Lehmer iterations of M1933071 using type-2 FFT length 96K, Pass1=128, Pass2=768.
[Worker #1 Aug 19 11:44] Self-test 64K passed!
[Worker #1 Aug 19 11:44] Test 1, 2500 Lucas-Lehmer iterations of M29311553 using type-2 FFT length 1536K, Pass1=512, Pass2=3K.
[Worker #2 Aug 19 11:46] Self-test 1536K passed!
[Worker #2 Aug 19 11:46] Test 1, 56000 Lucas-Lehmer iterations of M1633941 using Pentium4 type-1 FFT length 80K, Pass1=80, Pass2=1K.
[Worker #4 Aug 19 11:47] Self-test 96K passed!
[Worker #4 Aug 19 11:47] Test 1, 2100 Lucas-Lehmer iterations of M34230145 using type-2 FFT length 1792K, Pass1=896, Pass2=2K.
[Worker #3 Aug 19 11:47] Self-test 96K passed!
[Worker #3 Aug 19 11:47] Test 1, 2100 Lucas-Lehmer iterations of M34230145 using type-2 FFT length 1792K, Pass1=896, Pass2=2K.
[Worker #1 Aug 19 11:47] Self-test 1536K passed!
[Worker #1 Aug 19 11:47] Test 1, 56000 Lucas-Lehmer iterations of M1633941 using Pentium4 type-1 FFT length 80K, Pass1=80, Pass2=1K.
[Worker #2 Aug 19 11:49] Self-test 80K passed!
[Worker #2 Aug 19 11:49] Test 1, 2100 Lucas-Lehmer iterations of M32095135 using type-2 FFT length 1680K, Pass1=448, Pass2=3840.
[Worker #4 Aug 19 11:50] Self-test 1792K passed!
[Worker #4 Aug 19 11:50] Test 1, 34000 Lucas-Lehmer iterations of M2605473 using type-2 FFT length 128K, Pass1=128, Pass2=1K.
[Worker #3 Aug 19 11:50] Self-test 1792K passed!
[Worker #3 Aug 19 11:50] Test 1, 34000 Lucas-Lehmer iterations of M2605473 using type-2 FFT length 128K, Pass1=128, Pass2=1K.
[Worker #1 Aug 19 11:50] Self-test 80K passed!
[Worker #1 Aug 19 11:51] Test 1, 2100 Lucas-Lehmer iterations of M32095135 using type-2 FFT length 1680K, Pass1=448, Pass2=3840.
[Worker #2 Aug 19 11:52] Self-test 1680K passed!
[Worker #2 Aug 19 11:52] Test 1, 46000 Lucas-Lehmer iterations of M1933071 using type-2 FFT length 96K, Pass1=128, Pass2=768.
[Worker #4 Aug 19 11:54] Self-test 128K passed!
[Worker #4 Aug 19 11:54] Test 1, 1900 Lucas-Lehmer iterations of M39151585 using type-2 FFT length 2M, Pass1=1K, Pass2=2K.
[Worker #1 Aug 19 11:54] Self-test 1680K passed!
[Worker #1 Aug 19 11:54] Test 1, 46000 Lucas-Lehmer iterations of M1933071 using type-2 FFT length 96K, Pass1=128, Pass2=768.
[Worker #3 Aug 19 11:54] Self-test 128K passed!
[Worker #3 Aug 19 11:54] Test 1, 1900 Lucas-Lehmer iterations of M39151585 using type-2 FFT length 2M, Pass1=1K, Pass2=2K.
[Worker #2 Aug 19 11:55] Self-test 96K passed!
[Worker #2 Aug 19 11:55] Test 1, 2100 Lucas-Lehmer iterations of M34230145 using type-2 FFT length 1792K, Pass1=896, Pass2=2K.
[Worker #1 Aug 19 11:57] Self-test 96K passed!
[Worker #1 Aug 19 11:57] Test 1, 2100 Lucas-Lehmer iterations of M34230145 using type-2 FFT length 1792K, Pass1=896, Pass2=2K.
[Worker #4 Aug 19 11:57] Self-test 2048K passed!
[Worker #4 Aug 19 11:57] Test 1, 27000 Lucas-Lehmer iterations of M3242961 using Pentium4 type-2 FFT length 160K, Pass1=640, Pass2=256.
[Worker #3 Aug 19 11:58] Self-test 2048K passed!
[Worker #3 Aug 19 11:58] Test 1, 27000 Lucas-Lehmer iterations of M3242961 using Pentium4 type-2 FFT length 160K, Pass1=640, Pass2=256.
[Worker #2 Aug 19 11:59] Self-test 1792K passed!
[Worker #2 Aug 19 11:59] Test 1, 34000 Lucas-Lehmer iterations of M2605473 using type-2 FFT length 128K, Pass1=128, Pass2=1K.
[Worker #1 Aug 19 12:00] Self-test 1792K passed!
[Worker #1 Aug 19 12:00] Test 1, 34000 Lucas-Lehmer iterations of M2605473 using type-2 FFT length 128K, Pass1=128, Pass2=1K.
[Worker #4 Aug 19 12:01] Self-test 160K passed!
[Worker #4 Aug 19 12:01] Test 1, 1500 Lucas-Lehmer iterations of M43943041 using type-2 FFT length 2304K, Pass1=768, Pass2=3K.
[Worker #3 Aug 19 12:01] Self-test 160K passed!
[Worker #3 Aug 19 12:01] Test 1, 1500 Lucas-Lehmer iterations of M43943041 using type-2 FFT length 2304K, Pass1=768, Pass2=3K.
[Worker #2 Aug 19 12:02] Self-test 128K passed!
[Worker #2 Aug 19 12:02] Test 1, 1900 Lucas-Lehmer iterations of M39151585 using type-2 FFT length 2M, Pass1=1K, Pass2=2K.
[Worker #1 Aug 19 12:03] Self-test 128K passed!
[Worker #1 Aug 19 12:03] Test 1, 1900 Lucas-Lehmer iterations of M39151585 using type-2 FFT length 2M, Pass1=1K, Pass2=2K.
[Worker #4 Aug 19 12:04] Self-test 2304K passed!
[Worker #4 Aug 19 12:04] Test 1, 19000 Lucas-Lehmer iterations of M4501145 using Pentium4 type-2 FFT length 224K, Pass1=896, Pass2=256.
[Worker #3 Aug 19 12:05] Self-test 2304K passed!
[Worker #3 Aug 19 12:05] Test 1, 19000 Lucas-Lehmer iterations of M4501145 using Pentium4 type-2 FFT length 224K, Pass1=896, Pass2=256.
[Worker #2 Aug 19 12:05] Self-test 2048K passed!
[Worker #2 Aug 19 12:05] Test 1, 27000 Lucas-Lehmer iterations of M3242961 using Pentium4 type-2 FFT length 160K, Pass1=640, Pass2=256.
[Worker #4 Aug 19 12:06] Torture Test completed 24 tests in 1 hour, 22 minutes - 0 errors, 0 warnings.
[Worker #3 Aug 19 12:06] Torture Test completed 23 tests in 1 hour, 22 minutes - 0 errors, 0 warnings.
[Worker #2 Aug 19 12:06] Torture Test completed 27 tests in 1 hour, 22 minutes - 0 errors, 0 warnings.
[Worker #1 Aug 19 12:06] Torture Test completed 26 tests in 1 hour, 22 minutes - 0 errors, 0 warnings.
[Worker #4 Aug 19 12:06] Worker stopped.
[Worker #2 Aug 19 12:06] Worker stopped.
[Worker #1 Aug 19 12:06] Worker stopped.
[Worker #3 Aug 19 12:06] Worker stopped.

HWiNFO nach Test:
WeuL9hw.png

jCSDEr1.png
 
@Pixell, Dich habe ich nicht vergessen, aber da es wieder länger dauern dürfte, mit dieser Antwort bis zum Schluss gewartet.
Nein, nein, hatte ich auch gar nicht gedacht, freue mich ja ohnehin über Deine unschätzbaren Beiträge, dankeschön.

Ah, ach so, so einen Server könnte man also offenbar nicht nur fürs Internet benutzen, sondern auch für "meine" Zwecke.
Bei der Nutzung ist man recht frei, manche bauen eine Graka ein und nutzen die kleinen Kisten als normale PCs.
Wußte ich überhaupt nicht, daß so was so vielfältg einsetzbar ist, dachte immer, ein Server ist tatsächlich nur fürs Netz gedacht, na ja.

Da Du ja vor allem USB in der Größe über 2TB nutzt, merke Dir einfach: Platte und USB Gehäuse gehören zusammen, wenn Du anfängst etwas umzubauen, steht Gefahr für die Daten auf der Platte! Baut man Platten selbst in Gehäuse, besteht auch ein Risiko, gerade bei großen HDDs in alten Gehäusen, da am Besten den Test mit h2testw machen. Fertig als USB Platten gekaufte HDDs sollten in der Hinsicht aber sich sein, so viel testen die Hersteller schon noch.

Das Verhalten von Windows finde ich nicht in Ordnung, da auch bei internen Platten eben keine 4k pro LBA aber mehr als 2TB haben, nach meiner Erfahrung immer MBR vorgeschlagen wird. Das hätte man besser machen können und müssen!
Ja, das stimmt natürlich, wenn man das eben einfach nicht weiß über die Initialisierung hat man einfach Pech. Habe noch nie einen Vorschlage von Win zu GPT gesehen bei mir.

So brauche ich vor allem alle Daten auf auf den MBR-Platten, also allen Platten bis auf die 5TB-Seagate, nicht umzukopieren um diese Platten mit GPT zu initialisieren, wie ich es dachte, tun zu müssen.
Wenn es so funktioniert, besteht überhaupt keine Notwendigkeit etwa an der Partitionierungsart zu ändern, das bedeutet im Gegenteil ein Risiko für die Daten, wenn dabei etwa schirf geht.
Ja, das kann ja beim Kopieren leicht passieren. Gottseidank, das erspart mir, bzw. treffender ausgedrückt, würde (da ich ja mit diesen Notebooks hier natürlich das auf keinen Fall machen würde und das nächste Notebook hätte ja USB 3.0) mir ersparen über 20 Tage (bei 7/24) Kopiererei und Prüferei bei mehr oder weniger ungewissem Ausgang.

Wenn Du nur einen USB3 Anschluss hast und von USB2 auf USB3 oder umgekehrt kopierst, dann ist das auch normal, die langsamere Platte bestimmt die Geschwindigkeit. Kaufe Dir doch einen USB3 Hub und hänge dann beide HDDs über den Hub an die einen USB3 Port, ist zwar nicht optimal, dürfte aber immer noch schneller als USB2 sein.
Ach ja, ich wußte gar nicht, daß das geht (aber warum sollte es auch nicht gehen), bzw. bin leider überhaupt nicht erst annähernd auf diese Idee gekommen, unfaßbar, verdammt ärgerlich. Na ja, nun ist es ja sowieso egal / zu spät.

Wenn es von der einen internen 1TB Platte auch so langsam ist, dann dürfte es den viele Fehlern auf der Platte geschuldet sein, oder es stimmt was mit dem Port nicht, ggf. fehlt der UBS3 Treiber, Win 7 hat ja z.B. keinen eigenen USB3 Treiber.
Ja, ist auch von dieser internen Platte so (hatte zu dem Problem auch schon in einigen Foren gefragt ohne Erfolg) zu einer externen; ich meine mich zu erinnern, auch mal kurzfristige Datenübertragungen von vielleicht 50 MB/s oder so was gesehen zu haben bei Nutzung des USB 3-Anschlusses, weiß nicht, ob man so eine Geschwindigkeit noch zu 2.0 oder schon zu 3.0 zählen kann oder muß.
Also, es wird hier kein Treiber als aktualisierbar angezeigt, jedenfalls. Bin gerade unsicher, ob eine USB 3.0-Platte angeschlossen sein muß, um eine eventuell erhältliche Aktualisierung angezeigt zu kriegen:

upGkFu7.png


Lass die bestehenden Platte wie sie sind, auch in den Gehäusen in denen sie sind. GPT hat gegenüber MBR Vorteile, wie ein Backup der Partitionstabelle am Ende der Platte, die Möglichkeit mehr Partitionen anzulegen und auch größere (bei 512 Byte pro Sektor eben auch über 2TiB), es ist auch Voraussetzung für eine Platte von der bei aktiven UEFI Secure Boot gebootet werden soll, aber das ist für Deine Anwendung alles total irrelevant. Wenn Du fertige USB Platten kaufst, nutze sie einfach so wie sie sind und mache Dir keine Gedanken ob die MBR oder GPT partitioniert sind, das ist echt egal.
Das ist super, also alles wie "seit jeher".

Es ist aber nun einmal im wesentlichen Eisenoxis worauf Du die Daten speicherst und wenn Dein Auto davon zu viel an tragendenden Teil hat, fällt es beim TÜV wegen Durchrostung durch. Jetzt weißt Du wenigstens, das das Zeug auch für etwas gut sein kann und kannst dem Herrn antworten, er soll sich doch mal überlegen worauf er zuhause seine speichert und das es so schlimm doch nicht sein könne, dann kannst natürlich nur hoffen das er nicht schon voll auf SSDs umgestiegen ist
Wenn ich das schon bei der letzten TÜV-Prüfung gwußt hätte, bei der eben tatsächlich (als einziges) die verrosteten Bremsen beanstandet waren und 300 € gekostet haben. Na ja, ansonsten hätte ich dem Prüfer ja verrottende Bits an den Hals (oder wie man das macht) wünschen können, aber das hätte sein Wohlwollen vielleicht auch nicht unbedingt gefördert.
Na ja, ich dachte eigentlich tatsächlich, die Äußerung wäre als Witz gemeint gewesen, Rost (wohl nicht ganz der, den ich vor Augen habe, aber immerhin) auf einer derartigen Platte, hätte ich für unmöglich gehalten.

Das geht viele so, die sehen nur den Preis und die Geschwindigkeit, denken dann bei den teuren Platten werfen sie den Herstellern nur mehr Geld in den Rachen, von außen sehen die ja auch alle fast gleich aus.
Und vor allem ist das "Problem", wenn der gemeine Bürger wie ich im Blödelmarkt kauft, wenn einen Platte in einer sogenannten "Aktion" oder so was noch billiger (ist ja wirklich oft billiger als man sie im Netz kriegen würde) angeboten wird, daß es ja dort praktisch oder tatsächlich 0 Informationen (bzw., wenn man Fehlerinformationen auch als Information werten würde, gebe es da deutlich mehr als 0 Informationen) erhältlich sind.
Ich hatte bisher übrigens immer bedenken, einen Platte mir im Netz zu bestellen, da ich - vor allem in Anbetracht dessen, was ja auch schon in der Allgemeinheit recht bekannt ist, nämlich der Umgang mit Post-, Kuriersendungen, -paketen - Angst hatte, die Platte kommt hier schon zerschrotet an.

Und natürlich könnten die Hersteller alle Platten mit allen Features bzw. Datensicherheit, Haltbarkeit, Vibrationsschutz, etc. ausstatten, aber dann würde wohl die Eigenschaft leiden, auf die am meisten geschaut wird: Der Preis. Also sind die einfachen HDDs eben gerade gut genug gemacht um für einfache Anwendungen auszureichen, aber eben möglichst billig hergestellt und verkauft werden zu können. Bei einem Logan erwartet ja auch keine die Haltbarkeit, Sicherheit und Ausstattung wie bei einem Mercedes und auch dort erwartet man von einer A-Klasse nicht den Komfort eine S-Klasse, aber bei HDDs denken die meisten irgendwie anders.
Ja, aber ein Auto soll ja zunächst mal einfach fahren, und zwar immer dann auch, wenn man es will, also schlicht eine Grundlage, die Basis (vielleicht täusche ich mich da aber auch schon ganz deutlich). So hätte ich natürlich gedacht - bis vor gar nicht mal so langer Zeit -, daß Daten einfach sicher, dauerhaft (was eben so eine Platte an "vernünftiger" Zeit hergibt und natürlich auch weitere Bauteile wie eben dieser mir mittlerweile unangenehme RAM auch) gespeichert, transferiert werden können ist einfach eine Grundlage, über die gar nicht gesprochen werden muß, aber man kann sich eben auch unfaßbar täuschen...

Ich hatte mir die "Datenblätter" oder jedenfalls Dateien mit Angaben drauf für meine Platten ja geladen, z.B. dieses hier (habe ansonsten eben auch einfach nichts weiter gefunden über Betriebszeiten, über Angaben, die mich interessierten): http://www.seagate.com/www-content/...ansion-desktop-hard-drive-ds1843-2-1502de.pdf

Immerhin, das Gewicht steht ja drauf und so was, aber keine für mich erkennbare Angabe über irgend etwas, mich wirklich interessieren würde.

Mir fällt gerade noch ein, daß ich wegen des Korruptions-Problems natürlich auch in Foren von WD und Seagate geschrieben hatte, aber das läßt man wohl lieber gänzlich bleiben.

Windows Server tut es auf jeden Fall, aber die Unterstützung ist für die eigentliche Funktion gar nicht nötig, das geht in HW im Memorycontroller vonstatten. Unterstützung durch das OS braucht man nur um einmal die Fehler auslesen zu können und dann auf eben bei erkannte aber nicht korrigierbare Fehler reagieren zu können. Die sind aber eben noch einmal deutlich seltener als die korrigierbaren Fehler. Es wäre also Unsinn auf ECC RAM (und das passende System, also CPU und Mainboard, das gehört wie gesagt immer dazu) zu verzichten, weil das OS es nicht unterstützt, denn ohne ECC RAM habe ich 0% Sicherheit vor RAM Fehler, mit vielleicht 99,5% und wen das OS es unterstützt 99,9%, so in der Art. Die Sicherheit steigt dann eben auch, weil wenn ich sehen kann ob ein Modul immer wieder mal Single-Bit Fehler hat, dann kann ich es austauschen und mindere das Risiko von Doppelbitfehlern, die einfaches ECC RAM eben nicht mehr korrigieren kann.
Dachte, Win Server ist heutzutage gar nicht mehr in Gebrauch, würde gar nicht mehr aktualisiert, sehe das nur gelegentlich mal irgendwo, wohl beim Runterladen von Programmen, oder so. Dann könnte man also ein "normales" Win nehmen, das mit dem ECC RAM laufen würde; aber die restlichen, geschätzten ca. 0,4 % mehr Sicherheit durch auslesen und korrigieren der Fehler, kann man dann also leider gar nicht nutzen. Aber vielleicht teilweise auch noch ausgleichen durch zeitlich aufwändige Inhaltsvergleiche nach jeder Übertragung.

ein Bit ist auf diesem langen, komplizierten Weg unterschiedlich hohen Risiken (selbst bei voll intakten Systemen ohne ECC) ausgesetzt unbemerkt oder bemerkt (je nach Prüfung und danach, ob das Bit überhaupt gerpüft wird) zu kippen.
Genau, wobei wenn es bemerkt wird, kann es meist auch korrigiert werden, zumindest solange es nicht zu viele Fehler sind oder es gibt eine Fehlermeldung und es sei in ein einem Attribut der S.MA.R.T. Werte, so wie hier es zu sehen ist.
Danke für den Link. Ach ja, dieser Ende-zu-Ende-Fehler-Punkt.

Es sind ja zwei Aldi-Notebooks, bei denen beide die Dateien auf augenscheinlich gleiche / selbe Ursache korrupt werden.
Zwei Notebooks? Tritt es bei beiden auf?
Ja, ja, das ist, oder sollte ich besser sagen, das war ja das für mich Erstaunliche, was ja aber vielleicht weniger erstaunlich im Hinblick auf die ja nun beiden als defekt erkannten Platten vielleicht weniger erstaunlich wird.

Wenn der Sensor einen bestimmten Beschleigungswert erkennt, zählt der Zähler hoch bisher war es 0x24 = 36 mal.
Ich glaube, ich verstehe nicht, wie ist das gemeint, 0 x 24 ist 36? 36 Stöße? Das ist ja unfaßbar viel. Aber der Wert gibt nur an, daß Stöße, Erschütterung, also jedenfalls mechanische Einwirkungen von außen da waren, nicht, ob sie der Platte auch geschadet haben, es wäre also denkbar, daß der Wert vielleicht viele Einwirkungen anzeigt, die aber keine Auswirkungen auf die Platte hätte?

Das sollte es eigentlich nicht, aber man kann nie sicher sein, die musst sowieso neu und ich beheben immer alle Fehler die ich bei einer Fehlersuche finde, auch wenn sie scheinbar nichts mit dem eigentlichen Problem zu tun haben, hat es das doch schon einige male auch gelöst. Vielleicht gibt es wegen der Probleme irgendwo einen Timeout, ein dummer Programmiere hat den zwar abgefangen, behandelt den Fehler aber nicht und damit gibt es keine Fehlermeldung, aber doch korrupte Daten irgendwo in einem Puffer und schon hat man da ein Problem.

Tauch die Platte und schon ob es weg ist.

Ja, gleich das ganze Notebook.

Und hoffen - oder auch nicht -, daß es gerade auch der Bereich ist, auf dem diese Daten gespeichert sind, der Fehler hervorrufen könnte.

Zwar fehlen die Screenshot von CrystalDiskInfo aller betroffenen HDD (sind das alle USB Platten?), aber ich glauben an Oberflächenprobleme. Der Test soll dazu dienen den Weg der Daten vom RAM zu Platte und zurück zu testen.

Tja, ob das tatsächlich alle sind, weiß ich leider nicht, auf jeden Fall müßten es 2 oder 3 externe 4TB Elements-Platten, eine externe 5TB Seagate Expansion und eine externe 640 GB-2,5"-Platte von Medion sein, die betroffen sind. Auf einer 3TB-Elements konnte ich es bislang nicht feststellen, auf älteren Platten, 3TB, 2TB und so was, auch noch nicht, ich weiß ja auch nicht, welche Dateien bereits kaputt gespeichert waren / auf die Ausgangsplatten kamen, wo sie korrupt wurden, ob das tatsächlich alles beim letzten Umkopieren passiert ist.
Die CDI-Fotos liefere ich noch nach für die Platten.

Also Oberflächen-Probleme der Scheiben auf den verschiedenen Platten verschiedener Hersteller, Modelle? Das wäre aber dann bestimmt Zufall oder könnte es da noch einen anderen Grund geben, der die Oberflächen dieser verschiedenen Platten gleichermaßen betreffen könnte?

Ich kopiere eigentlich (große Datenmengen) nur mit einem Synch-Programm, das kann nach der Übertragung jeder Datei einzelnen Datei automatisch den Inhalt prüfen (mit der schon besprochenen Unzuverlässigkeit) und kopiert die unkorrekt übertragenen sofort automatisch noch einmal. Mit dem Programm kann ich auch manuell einen Vergleich nach Inhalt nach der kompletten Übertragung aller Dateien ausführen. Es dauert eben alles verdammt lange (mit USB 2.0).

Das Sync-Programm unterdrückt hoffentlich keine Fehlermeldungen
Ja, tut es nicht, FreeFileSync zeigt ein Log an am Ende (auf Wunsch die Fehler auch sofort nach Erkennen, aber dann wird der Transfer unterbrochen), also auch die Dateien, die als nicht korrekt übertragen verifiziert wurden und deren erneute automatische Übertragung.

Was ist wenn Du mit dem Windows Explorer kopierst? Gibt es dann auch Datenkorruption oder gar Fehlermeldungen?
Ich habe mit verschiedenen Programme getestet, kopiert, auch Explorer, FreeCommander, FreeFileSync, FastCopy und vielleicht noch mehr. Und ja auch das Entpacken von Archiven getestet. Das Ergebnis war sozusagen immer gleich: es trat bei dem Kopieren mit jedem Programm Korruption auf bei Dateien ohne eine einzige Fehlermeldung jemals. Gesetzmäßigkeiten würde ich wohl keine angeben können außer vielleicht die schon benannten, daß bei vielleicht - sehr grobe Schätzung - Archiven beim Entpacken (auch mit verschiedenen Programmen, WinRAR, Peazip, 7zip etc.) auf 1000 Archive vielleicht 10 Dateien kaputt waren und / oder bei 200 GB kopierter Archive vielleicht 10 bis 30 Dateien oder so, aber das nur als extrem ungenauer Anhaltspunkt.

Moment, wenn Du zwei Notebooks hast und beide das Problem haben, dann sollten die gleichen Tests auch auf beiden ausgeführt werden, sonst geht alles durcheinander.
Ja, ja, das ist bisher auch so geschehen, nur daß für eines der Notebooks noch kein MemTest86+ vorhanden ist, weil dafür die Zeit, in der es ausgeschaltet ist nachts, vielleicht zu einem sinnvollen Test bisher nicht gereicht hätte, reiche ich noch nach. Ansonsten, von also diesem einen Test abgesehen, müßten jetzt alle vorhanden sein.

Ich hoffe, ich habe die richtigen Informationen und auch die richtige Darstellung gewählt.
Bei Prime95 interessiert eigentlich nur ob die Worker mit Fehlern abbrechen, das war hier ja wohl nicht der Fall oder nicht. Die Ergebnisse sind egal.
Ach so, nein, bei Prime ist nie etwas abgebrochen worden, alles durchgelaufen bis ich es beendet habe.

85°C sind recht hoch, für eine mobile CPU aber noch im Rahmen, zumindest für die von Intel, die dürfen meist bis 100°C haben.
Eigentlich hätte ich gedacht, die Temperatur wäre schon zu hoch und würde zur Drosselung der CPU führen mit der Folge zur extremen Langsamkeit des Rechners.

Poste die Screenshot der HDDs, der Blick des Fachmanns ist eben noch durch keines der Tools zu ersetzen.
Ja, natürlich, das mache ich noch.

Ja. mit smartctl -a sieht man wie viele Betriebsstunden die HDD bei den letzten 5 Fehlern jeweils hatte. Sonst schau mal in die Ereignisanzeige von Windows, da dürfte auch was stehen.
In Ordnung. Hmmm, smartctl -a muß ich wohl doch in CDI eingeben, weiß aber nicht, wo. Oder doch noch ganz woanders? Im cmd-Fenster wird eine Fehlermeldung ausgegeben.
 
guruhacker hat recht, auch bzgl. der Länge der Beiträge, das sollten wir versuchen zu straffen und uns nun erst auf die Fehlersuche konzentrieren.

Ich hasse euch. Ich geh mir jetzt ECC Ram kaufen. :(
Denk an das passende Board die passende CPU hast Du ja schon.

Pixell;23784502Ja schrieb:
Fertige USB Platten immer schon partitioniert und formatiert an.

Und vor allem ist das "Problem", wenn der gemeine Bürger wie ich im Blödelmarkt kauft, wenn einen Platte in einer sogenannten "Aktion" oder so was noch billiger (ist ja wirklich oft billiger als man sie im Netz kriegen würde) angeboten wird, daß es ja dort praktisch oder tatsächlich 0 Informationen
Meine USB Platten kaufe ich auch dort, in den Aktionen sind die unschlagbar günstig und wenn die in großen Kisten auf Paletten da ankommen, wird die kaum jemand durch die Gegend geworfen haben, wie es bei Paketen auf dem Postweg passiert, daher hole ich auch meine Platten nur aus Läden, nie per Internet.

Die Informationen der Verkäufer dort sind meist recht wertlos bis unsinnig, man muss schon wissen was man such, aber andererseits fragen viele auch nur wie viele Fotos oder Videos dann da drauf passen, deshalb steht sowas dann auch auf der Packung und die Angaben bekommen die Verkäufer meist fehlerfrei abgelesen.
Ich hatte mir die "Datenblätter" oder jedenfalls Dateien mit Angaben drauf für meine Platten ja geladen, z.B. dieses hier (habe ansonsten eben auch einfach nichts weiter gefunden über Betriebszeiten, über Angaben, die mich interessierten): http://www.seagate.com/www-content/...ansion-desktop-hard-drive-ds1843-2-1502de.pdf
Solche Datenblätter sind vor allem für den Handel, da weiß der Händler wie viele in einer Packung sind und groß der Karton ist, damit er sein Lager planen kann.

Wonach Du bei Seagate suchen muss sind die Product Manuals, wie diese hier der ST5000DM000, da steht mehr drin als Du wissen willst, dafür aber auch so gut wie alles was Seagate verraten will, wie das die ST5000DM000 maximal 22s braucht um zu starten und maximal 17s um aus dem Standby aufzuwachen.

Zum Workload steht dort:
Average rate of <55TB/year. The AFR specification for the drive assumes the
I/O workload does not exceed the average annualized workload rate limit of 55TB/year.
Workloads exceeding the annualized rate may degrade the drive AFR and impact
product reliability. The average annualized workload rate limit is in units of TB per year, or
TB per 8760 power-on hours. Workload rate limit = TB transferred × (8760/recorded
power-on hours).
Also 55TB (Lesend und Schreibend) pro Jahr, wobei ein Jahr sich auf 8760 Stunden bezieht, die HDD ist aber nur für 2400 Stunden im Jahr ausgelegt, was aber so direkt wieder nur im Datenblatt der internen HDD steht (Power-On Hours) und damit ergibt sich dann nur ein jährlicher Workload von maximal 15TB.

Wer sich bei der Informationssuche wie bei einer Schnitzeljagd fühlt, hat da nicht ganz unrecht :wall:
Mir fällt gerade noch ein, daß ich wegen des Korruptions-Problems natürlich auch in Foren von WD und Seagate geschrieben hatte, aber das läßt man wohl lieber gänzlich bleiben.
Nutzen sie unser Tool und wenn es einen Fehler gibt und der Garantiestatus positiv ist, schicke sie die Platten ein, mehr kommt da sicher nicht.

Ach ja, dieser Ende-zu-Ende-Fehler-Punkt.
Genau, das ist gewissermaßen das ECC für das RAM auf der Platten.

Ja, ja, das ist, oder sollte ich besser sagen, das war ja das für mich Erstaunliche, was ja aber vielleicht weniger erstaunlich im Hinblick auf die ja nun beiden als defekt erkannten Platten vielleicht weniger erstaunlich wird.
Beide Platten? Hattest Du nicht nur von einer den Sceen von CDI gepostet?

Mach es mal strukturiert in eine ToDo-Liste:
Notebook 1 (Medion abc): Memtest86+: Gemacht? Fehlerfrei? RAM SPD der DIMMs stimmen überein? Prime fehlerfrei einige Stunden gelaufen? Screenshot von CDI posten! Platte ok, ja gut, nein tauschen!

Notebook 1 (Medion xyz): Memtest86+: Gemacht? Fehlerfrei? RAM SPD der DIMMs stimmen überein? Prime fehlerfrei einige Stunden gelaufen? Screenshot von CDI posten! Platte ok, ja gut, nein tauschen!

Dann können wir das mal abharken und uns auf den Rest konzentrieren, als vor allem die USB Platten. Da postest Du dann die Screenshots von CDI und schreibst ob es damit schon Fehler gab. Dann schau ich ob die Werte auffällig sind und wenn nicht, testet da so 5 bis 10 oder gerne auch mehr GB mit h2testw und lass die Daten für spätere weitere Überprüfungen auf der Platte. Du kannst die von einer zur anderen Kopieren und dort dann mit h2testw prüfen lassen. Wäre auch ein guter Test, zumal man dann wenn Du mit dem Explorer kopierst auch Fehlermeldungen bekommen müsste, keine Ahnung ob Dein Sync-Tool die nicht unterdrückt, immerhin hat es ja auch diese Vergleichsfunktion, ist also schon mal für solche Fälle vorbereitet, dass Dateien nicht korrekt übertragen werden.
36 Stöße? Das ist ja unfaßbar viel. Aber der Wert gibt nur an, daß Stöße, Erschütterung, also jedenfalls mechanische Einwirkungen von außen da waren, nicht, ob sie der Platte auch geschadet haben, es wäre also denkbar, daß der Wert vielleicht viele Einwirkungen anzeigt, die aber keine Auswirkungen auf die Platte hätte?
0x24 ist die hexadezimale Schreibweise für 36. Welcher Stoß wie viel Schaden anrichtet, kann man nicht sagen, jeder könnte Schäden angerichtet haben, der Zustand der Platte ist ja auch nicht gut.

Ja, gleich das ganze Notebook.
Das ist Deine Entscheidung, Platten sind aber billiger als Notebooks. Du kannst ja eine der alten externen 2.5" Platten Freiräumen und einbauen, poste aber vorher deren Screenshot von CDI.

Also Oberflächen-Probleme der Scheiben auf den verschiedenen Platten verschiedener Hersteller, Modelle?
CDI Screenshots posten, denn Oberflächenprobleme hinterlassen dort ihre Fußabdrücke, wie Du ja bei der internen 1TB gesehen hast und müssten auch Fehlermeldungen ausgeben, wenn es so schlimm ist, dass die Daten korrupt werden. Daher glaube ich nicht wirklich an Oberflächenprobleme.
Ich habe mit verschiedenen Programme getestet, kopiert, auch Explorer, FreeCommander, FreeFileSync, FastCopy und vielleicht noch mehr. Und ja auch das Entpacken von Archiven getestet. Das Ergebnis war sozusagen immer gleich: es trat bei dem Kopieren mit jedem Programm Korruption auf bei Dateien ohne eine einzige Fehlermeldung jemals. Gesetzmäßigkeiten würde ich wohl keine angeben können außer vielleicht die schon benannten, daß bei vielleicht - sehr grobe Schätzung - Archiven beim Entpacken (auch mit verschiedenen Programmen, WinRAR, Peazip, 7zip etc.) auf 1000 Archive vielleicht 10 Dateien kaputt waren und / oder bei 200 GB kopierter Archive vielleicht 10 bis 30 Dateien oder so, aber das nur als extrem ungenauer Anhaltspunkt.
Egal ob die Platte an einem USB2 oder ab den USB3 Port hing?

Ja, ja, das ist bisher auch so geschehen, nur daß für eines der Notebooks noch kein MemTest86+ vorhanden ist, weil dafür die Zeit, in der es ausgeschaltet ist nachts, vielleicht zu einem sinnvollen Test bisher nicht gereicht hätte, reiche ich noch nach. Ansonsten, von also diesem einen Test abgesehen, müßten jetzt alle vorhanden sein.
Siehe die To-Do Liste weiter oben, arbeite die für Dich ab und stell das Ergebnis ein, dann poste die Screenshots von CDI der anderen internen und der externen HDDs.

Ach so, nein, bei Prime ist nie etwas abgebrochen worden, alles durchgelaufen bis ich es beendet habe.
Das ist gut und bedeutet: Test bestanden, mehr brauch ich dazu auch nicht zu wissen, wenn das für beide Notebooks gemacht wurden, hake es in der To-Do Liste ab.
Eigentlich hätte ich gedacht, die Temperatur wäre schon zu hoch und würde zur Drosselung der CPU führen mit der Folge zur extremen Langsamkeit des Rechners.
HWInfo sollte bei Sensors auch eine Spalte Throtteling haben, dann weißt Du ob das aufgetreten ist oder nicht.

In Ordnung. Hmmm, smartctl -a muß ich wohl doch in CDI eingeben, weiß aber nicht, wo. Oder doch noch ganz woanders? Im cmd-Fenster wird eine Fehlermeldung ausgegeben.
Smartctl ist ein eigenes Programm und Standard unter Linux, es gibt aber auch eine Windows Version, die ist z.B. bei bei der Chip erhältlich oder direkt von der Projektseite auf sourceforge. Der Umgang damit ist nicht ganz so einfach, weil es ein Kommandozeilen Tool ist und die Laufwerke in Linux Art als /dev/sda, /dev/sdb etc. erscheinen und angesprochen werden müssen, man sieht auch nicht sofort welches welches Laufwerk ist.

Mit smartctl.exe --scan bekommt man eine Liste und dann kann man mit smartctl.exe -a /dev/sda, smartctl.exe -a /dev/sdb etc. diese durcharbeiten und sieht an der Bezeichnung welch Platte es ist. Die cmd.exe in der man es ausführt, sollte "Als Administrator" ausgeführt werden.
 
Apropos: Dieser Thread ist seiner langen Beiträge wegen zum Durchscrollen die Hölle ...
Ja, das stimmt, daran bin ich wohl nicht so ganz schuldlos, Verzeihung für den Höllen-Thread.

Meine USB Platten kaufe ich auch dort, in den Aktionen sind die unschlagbar günstig und wenn die in großen Kisten auf Paletten da ankommen, wird die kaum jemand durch die Gegend geworfen haben, wie es bei Paketen auf dem Postweg passiert, daher hole ich auch meine Platten nur aus Läden, nie per Internet.
Ach, das hätte ich nun gar nicht vermutet, hatte eigentlich eher gehofft auf eine Äußerung eine Richtung, die einen Online-Kauf als doch mindestens weniger risikolos darstellt.

Werden eigentlich diese G-Sense-Werte nur bei eingeschalteten Platten gemessen oder gibt es eine Vorrichtung, die eine Messung auch bei ausgeschalteter Platte aufzeichnen (dann bei eingeschalteter Platte vielleicht auswerten), so daß man auf dem Postweg gefallene Platten erkennen könnte und somit sofort nach Prüfung dieses Werte gegebenenfalls zurückschicken könnte? Ich nehme an, nein.

Wonach Du bei Seagate suchen muss sind die Product Manuals, wie diese hier der ST5000DM000, da steht mehr drin als Du wissen willst, dafür aber auch so gut wie alles was Seagate verraten will, wie das die ST5000DM000 maximal 22s braucht um zu starten und maximal 17s um aus dem Standby aufzuwachen.

Zum Workload steht dort:
Average rate of <55TB/year. The AFR specification for the drive assumes the
I/O workload does not exceed the average annualized workload rate limit of 55TB/year.
Workloads exceeding the annualized rate may degrade the drive AFR and impact
product reliability. The average annualized workload rate limit is in units of TB per year, or
TB per 8760 power-on hours. Workload rate limit = TB transferred × (8760/recorded
power-on hours).
Also 55TB (Lesend und Schreibend) pro Jahr, wobei ein Jahr sich auf 8760 Stunden bezieht, die HDD ist aber nur für 2400 Stunden im Jahr ausgelegt, was aber so direkt wieder nur im Datenblatt der internen HDD steht (Power-On Hours) und damit ergibt sich dann nur ein jährlicher Workload von maximal 15TB.

Wer sich bei der Informationssuche wie bei einer Schnitzeljagd fühlt, hat da nicht ganz unrecht

Ach, da ist also so etwas, herzlichen Dank für die Links. Tja, dafür nach dieser Modell-Nr. zu suchen hat meine Schlauheit nicht ausgereicht, aber dann noch die gewünschten Schnitzel-Informationen zu finden, zu verstehen, richtig zu interpretieren, auszuwerten und noch miteinander in Verbindung zu bringen, auch noch mit Angaben, die auf wiederum einem anderen Datenblatt stehen, um gewisse Informationen zu erhalten, wäre für mich natürlich ein einziger Vorgang des Scheiterns gewesen. Selbst bei dem Versuch der Suche mit dieser Nummer, war es schon schwer die PDF-Datei zu finden für mich.

Bin bei der Suche gerade nochmal auf das gestoßen:

Dieser Artikel war es (so einen ähnlich gibt es ja auch von Microsoft, der mich ebenfalls falsches glauben ließ), der mich hinsichtlich der eine zeitlang als falsch geglaubten Initialisierung auch irritierete, aus dem für mich nicht nur hervorging, daß Platten wie meine bereits initialisiert in GPT ausgeliefert würden, was gar nicht stimmt, und vor allem, daß Platten deartiger Größe gewissermaßen unbedingt in GPT initialisert sein müßten, um überhaupt zu funktionieren: Expansion drives switching to GPT

Beide Platten? Hattest Du nicht nur von einer den Sceen von CDI gepostet?
Nein, den für das Notebook P8614 mit dem vorhandenen Mem-Test, hatte ich heute Mittag noch nachgereicht.

Mach es mal strukturiert in eine ToDo-Liste:
Notebook 1 (Medion abc): Memtest86+: Gemacht? Fehlerfrei? RAM SPD der DIMMs stimmen überein? Prime fehlerfrei einige Stunden gelaufen? Screenshot von CDI posten! Platte ok, ja gut, nein tauschen!

Notebook 1 (Medion xyz): Memtest86+: Gemacht? Fehlerfrei? RAM SPD der DIMMs stimmen überein? Prime fehlerfrei einige Stunden gelaufen? Screenshot von CDI posten! Platte ok, ja gut, nein tauschen!
Ja, schon geschehen, von allen Tests fehlt nur noch der RAM-Test von einem Notebook, sonst müßte alles vorhanden sein. Und die CDI-Fotos noch.

Dann können wir das mal abharken und uns auf den Rest konzentrieren, als vor allem die USB Platten. Da postest Du dann die Screenshots von CDI und schreibst ob es damit schon Fehler gab. Dann schau ich ob die Werte auffällig sind und wenn nicht, testet da so 5 bis 10 oder gerne auch mehr GB mit h2testw und lass die Daten für spätere weitere Überprüfungen auf der Platte. Du kannst die von einer zur anderen Kopieren und dort dann mit h2testw prüfen lassen. Wäre auch ein guter Test, zumal man dann wenn Du mit dem Explorer kopierst auch Fehlermeldungen bekommen müsste, keine Ahnung ob Dein Sync-Tool die nicht unterdrückt, immerhin hat es ja auch diese Vergleichsfunktion, ist also schon mal für solche Fälle vorbereitet, dass Dateien nicht korrekt übertragen werden.
Ja, mache ich heute morgen. Ich hatte h2testw ja schon für mindestens eine betroffen 4TB-Elements-Platte eingesetzt, ca. glaube ich 200 GB kopiert / geprüft, kein einziger Fehler.
Funktioniert das Programm ähnlich, wie wenn man Dateien zum Testen manuell kopieren würde auf die betroffene Platte und dann etwa die Prüfsummen vergleicht, nur komfortabler? Wenn man also die Prüfsummen mit den Test-Dateien auf der Platte speichert, um sie auch nach beliebiger Zeit zu überprüfen jederzeit, wäre das der gleiche Effekt?

Egal ob die Platte an einem USB2 oder ab den USB3 Port hing?
Ich habe an dem Notebook P8614 mit dem Speichertest, das nur USB 2.0-Buchsen hat, insgesamt 3, verschiedene Ports benutzt, weiß aber nicht, ob wirklich alle 3, die Korruption blieb aber gleichermaßen vorhanden.
An dem anderen mit einer USB 3.0-Buchse und 3 USB 2.0-Buchsen habe ich glaube ich mindestens an drei Buchsen getestet, darunter die 3.0-Buchse, gleiche Korruption.

Smartctl ist ein eigenes Programm und Standard unter Linux, es gibt aber auch eine Windows Version, die ist z.B. bei bei der Chip erhältlich oder direkt von der Projektseite auf sourceforge. Der Umgang damit ist nicht ganz so einfach, weil es ein Kommandozeilen Tool ist und die Laufwerke in Linux Art als /dev/sda, /dev/sdb etc. erscheinen und angesprochen werden müssen, man sieht auch nicht sofort welches welches Laufwerk ist.
Danke für die Links und die Befehle...kriege ich momentan nicht hin, versuche ich später noch einmal.

Würde vielleicht auch diese Version funktionieren: Smartmontools for Windows package | NetPOWER.fr
 
Zuletzt bearbeitet:
Werden eigentlich diese G-Sense-Werte nur bei eingeschalteten Platten gemessen
Ja.
oder gibt es eine Vorrichtung, die eine Messung auch bei ausgeschalteter Platte aufzeichnen (dann bei eingeschalteter Platte vielleicht auswerten), so daß man auf dem Postweg gefallene Platten erkennen könnte und somit sofort nach Prüfung dieses Werte gegebenenfalls zurückschicken könnte? Ich nehme an, nein.
Es gibt einen Conveyance Self-test, der geht in diese Richtung, aber was der genau macht, kann ich auch nicht sicher sagen. Auch unterstützt nicht jede HDD diesen Test, wenn die es macht, steht in der Ausgabe von smartctl.exe -a folgende Zeile:
"Conveyance Self-test supported."
Bei 4k Sektoremulation im Gehäuse braucht man auch bei so großen HDDs keine GPT Partitionierung, was nicht bedeutet, dass es das nicht trotzdem gibt. Wobei das halt Unsinn ist, die 4k Sektoremulation ist ja extra dafür geschaffen worden um GPT zu vermeiden. Gibt es aber, ich habe selbst so eine USB Platte.

Funktioniert das Programm ähnlich, wie wenn man Dateien zum Testen manuell kopieren würde auf die betroffene Platte und dann etwa die Prüfsummen vergleicht, nur komfortabler?
Bei h2testw stecken die Prüfsummen offenbar in den Testdateien.

Ich habe an dem Notebook P8614 mit dem Speichertest, das nur USB 2.0-Buchsen hat, insgesamt 3, verschiedene Ports benutzt, weiß aber nicht, ob wirklich alle 3, die Korruption blieb aber gleichermaßen vorhanden.
An dem anderen mit einer USB 3.0-Buchse und 3 USB 2.0-Buchsen habe ich glaube ich mindestens an drei Buchsen getestet, darunter die 3.0-Buchse, gleiche Korruption.
Sehr seltsam.
Würde vielleicht auch diese Version funktionieren: Smartmontools for Windows package | NetPOWER.fr
Vermutllich das ist ja anscheinend auch smartctl nur mit noch ein paar Erweiterungen.
 
Verzeihung für die Verzögerung, der Rechner läuft unbrauchbar langsam / übel, deshalb habe ich es am Vormittag, wie angekündigt, nicht geschafft sondern bis jetzt gebraucht leider. Hier schon mal die Ergebnisse / Auswertungen, bin nachher zurück.

Hoppla, was ist das, der G-Sense-Wert hat sich erhöht, hab' gar nichts gemacht (jedenfalls glaube ich das):
P2ERaC8.png

lUdgxbA.png


Ob auf dieser Platte Korruption auftritt, weiß ich nicht, habe ich nicht getestet, bemerkt, würde ich aber von augehen:

Platten über 2TB können übrigens sehr wohl mit MBR partitioniert werden und sind es auch oft wenn sie in USB Gehäuse als fertige USB Platten verkauft werden, denn die Grenze bei 2TiB für MBR ergibt sich aus der Breite von 32Bit für die Information in LBAs wo eine Partition anfängt und wie lange sie ist. 2TiB ergeben sich dabei aber nur bei 512 Byte pro LBA, wie es die HDDs bisher fast alle adressieren, egal ob nativ mit 512Byte pro physikalischem Sektor (512n) oder emuliert bei 4096 pro physikalischem Sektor (512e), aber bei 4096 Byte (4k) pro Sektor ist die Grenze bei 16TiB und da Windows XP normalerweise kein GPT unterstützt (nur die exotische 64Bit Version kann das wohl, aber wer nutzte die schon), haben die Hersteller von USB Gehäusen den USB-SATA Bridgechips dadrin eine 4k Sektoremulation spendiert, damit eben auch Platten über 2TB normal mit MBR als eine Partition auch unter XP genutzt können.

Das kann man auch leicht prüfen, man schließt die USB Platte an, startet eine cmd.exe und führt folgenden Befehl genau so aus:

wmic diskdrive get BytesPerSector,Model
IQWkoMf.png


CDI
Das sieht doch gut aus:
NRRaZrm.png


Noch einmal das gleiche, später:
bzpivR4.png


-------------------------------------------------------
Ob auf dieser Platte Korruption auftritt, weiß ich nicht, habe ich nicht getestet, bemerkt, würde ich aber von augehen:

wmic diskdrive get BytesPerSector,Model
4RHoDG9.png



CDI:
ZWLRbuJ.png



Noch einmal das gleiche, später:
ux5LhNx.png


-------------------------------------------------------
Auf dieser Platte gibt es definitiv Korruption, die hatte ich zum ausgiebigem Testen genommen:

wmic diskdrive get BytesPerSector,Model
d6iosBa.png


CDI:
HxQApk8.png



---------------------------------------------------------------------------
Auf dieser Platte gab es auch Korruption:

wmic diskdrive get BytesPerSector,Model
OI5fVdx.png


CDI:
8cPYyPl.png


---------------------------------------------------------------------------
Auf dieser Platte gibt es definitiv Korruption, habe ich auch getestet:

EEgsIBj.png


Kann ich wohl auch wegschmeißen (aber immerhin wohl keine Schreib-, Lesefehler, Suchfehler wohl):

CDI:
aJtmn4w.png


---------------------------------------------------------------------------

Aber eigentlich könnte ich diese kaputten 2,5", mitlerweise 3 Stück, mobil nutzen, um Daten zu transportieren, die ohnehin doppelt woanders noch einmal vorhanden sind.

---------------------------------------------------------------------------
Hier gab es auch Korrutpion auf der Platte:

DD8zTPe.png


Sieht ja auch nicht optimal aus, kann die Platte auch weg oder müssen diese Fehler nicht aufgrund eines Defektes entstanden sein / sind nur sofotwarebedingt vielleicht:

CDI:

bjSkz8G.png


Hier ein paar ältere CDI-Fotos:

v7TYPhZ.png

z1exc22.png


ik5Xo5T.png

eCXnFNn.png


---------------------------------------------------------------------------
Die Laufwerksbuchstaben jedes Mal (vor allem bei gleichen Modellen) wieder anpassen zu müssen, ist ja auch nicht angenehm, läßt sich das umgehen?

Könnte ich auf derselben Platte / Partition eigentlich bedenkenlos Dateien verschieben, womit ja nur der Eintrag zur Datei verändert / verschoben wird, oder so ähnlich? Aber ich vermute, der könnte bestimmt auch korrupt werden, bzw. die Verbindung von Eintrag zur Datei.
---------------------------------------------------------------------------
Ob ich hier auch Korruption bermekt habe, da bin ich mir nicht mehr sicher:

Eu9tYeA.png


CDI:
u5fvXIc.png
 
Verzeihung für die Verzögerung
Kein Problem.

Hoppla, was ist das, der G-Sense-Wert hat sich erhöht, hab' gar nichts gemacht (jedenfalls glaube ich das):
Das ist eine andere Platte, schau auf die Anzahl der Einschaltungen und Betriebsstunden, die im Post oben hatte viel mehr.


Zu den ganze Platten: Da habe ich keine Fehler gesehen, die sind alle in Ordnung, außer ein paar Timeouts bei den ganzen Seagate Platten, die sie sind nicht kritisch und können auch Verzögerungen kommen, wenn der Rechner eben mal hängt und nichts reagiert oder USB Kabel wurden einfach abgezogen / haben den Kontakt verloren, etc. das ist also nichts kritisches. Lese- oder Suchfehler gibt es bei denen keine, die zählen die Fehler nur in den ersten (linken) 4 Stellen des Rohwertes, die anderen 8 Stellen zählen die Vorgänge und daher steigt die Zahl ständig. Wenn eine Millionen Vorgänge voll sind, fällt der Aktuelle Wert auf etwa 60 ab, weil er ab dann etwa nach folgender Formel berechnet wird:
Da gibt es also nichts zu reklamieren!

Wie wmic zeigt, haben erwartungsgemäß alle USB Platte mit mehr als 2TB eine 4k Sektoremulation im Gehäuse. MBR ist damit also kein Problem und wenn mal ein Gehäuse einen Schaden, kannst Du die Platte auch nur in einem Gehäuse mit eben so einer 4k Emulation und über USB3 verwenden um an die Daten zu kommen, intern an einem PC oder in einem Gehäuse / einer Dockingstaion über eSATA wird das nichts. Bei den WD HDDs ist zusätzlich zu beachten, dass da leider auch Gehäuse eine Verschlüsselung der Daten der Platte vornehmen, bei denen man es erst merkt, wenn man die Platte ausbaut, denn man aktiviert nicht, gibt keinen Schlüssel ein und kommt auch in einem anderen Gehäuse so einer externen WD nicht mehr an die Daten, da der Schlüssel mit jedem Fertigungslos der Gehäuse geändert wird. Welche betroffen sind, kann man nicht sagen, ich meide deswegen jedenfalls externe WD Gehäuse.

Zu der 640GB: Die hat viele G-Sensorauslösungen aber sonst keine Fehler, die musst Du also nicht wegwerfen. Vielleicht ist da nur der G-Sensor kaputt, das gibt es auch mal, dann zählen die wie wild hoch, keine Ahnung ob die bei harten Stößen danach empfindlicher werden oder sowas. Es muss auch nicht jeder Stoß den die registrieren zwangsläufig der Platte schaden bzw. geschadet haben.

Zum eigentlichen Problem: Die Platten sind alle in Ordnung, die WD haben zwar alle kein Ende-zu-Ende Attribut und daher kann man bei denen eben nicht sagen, ob es Fehler auf den internen Datenpfade gibt, aber da das auch sehr selten vorkommt, werden kaum so viele Platten auf einmal betroffen sein und die Seagate, die das Attribut ja haben, haben alle keine Fehler.

Die Platten selbst können wir wohl ausschließen, dafür haben zu viele von denen das Problem, bei einer oder zwei wäre es ja nicht denkbar, aber nicht bei so vielen. Außer es sind jetzt z.B. nur die 4TB WDs betroffen, die scheinen ja alle relativ gleich alt/jung zu sein und wenn alle zusammen gekauft wurden, könnte da ein Serienfehler in dem Fertigungslos vorliegen, aber es sind ja auch andere betroffen, oder?
Die Laufwerksbuchstaben jedes Mal (vor allem bei gleichen Modellen) wieder anpassen zu müssen, ist ja auch nicht angenehm, läßt sich das umgehen?
Moment, das ist ein guter Hinweis, da könnte auch die Ursache liegen, wenn zwei USB Platten die gleiche UnqiueID bei Windows haben, gibt es zuweilen Probleme, das sollte unbedingt geprüft werden.

Das muss über die Kommandozeile passieren, dazu musst Du nur eine USB Platte anhängen, eine cmd.exe öffnen und dort eingeben:
diskpart
list disk (das zeigt die Disks, an der Größe erkennst Du die welche die externe ist)
select disk x (x für die Nummer die list disk ausgegeben hat)
uniqueid disk (das gibt Disk ID: xxxxxxxx aus, beim MBR eine 8 stellige hexdezimale zahl, also 0-9 und A-F gemischt)
exit
Diese Nummer notierst Du Dir dann am Besten in einer Daten zusammen mit der Seriennummer der Platte oder etwas anderen woran Du die Platte sicher erkennen und von den anderen unterscheiden kannst. Für die erste Platte war es das, die Entfernst Du sicher, steckst die nächste an und wiederholst es, gibt aber noch nicht exit ein, sondern schaust ob die Disk ID mit einer in Deiner Liste identisch ist. Wenn ja, dann musst Du die ändern. Dazu gibst Du ein:
uniqueid disk id=hhhhhhhh
Wobei hhhhhhhh eine 8 stellige hexadezimale Zahl ist, nimm die alte Disk ID und ändere z.B. nur am Ende ein oder zwei Stellen leicht ab (nur 0-9 und a-f sind gültig). Prüfe noch einmal mit
uniqueid disk
ob die neue ID übernommen wurde und trage die neue Nummer in Deine Liste ein. Am Ende sollten alle HDD unterschiedliche Nummern haben. Bei USB Platten die mit GPT partitioniert sind, müsste die ID länger und kompliziert sein, so in der Art: baf784e7-6bbd-4cfb-aaac-e86c96e166ee, das Prinzip ist aber das gleiche, also erschrecke nicht wenn so eine Nummer kommt, auch da einfach nur ein oder zwei Stellen ändern und das wieder eingeben (Cut+Paste ist hilfreich).

Mache das mal und berichte dann wie viele von denen identische IDs hatten.

Könnte ich auf derselben Platte / Partition eigentlich bedenkenlos Dateien verschieben
Dabei werden keine Daten bewegt, sondern nur die Verwaltungsdaten ändert, also die Information wo die Datei steht.
 
Das ist ja schon einmal gut, alle Platten bis auf die zwei zu entsorgenden internen beider Notebooks und die also in Frage stehende 2,5", 640 GB Medion-Platte, sind völlig in Ordnung.

Bei den WD HDDs ist zusätzlich zu beachten, dass da leider auch Gehäuse eine Verschlüsselung der Daten der Platte vornehmen, bei denen man es erst merkt, wenn man die Platte ausbaut, denn man aktiviert nicht, gibt keinen Schlüssel ein und kommt auch in einem anderen Gehäuse so einer externen WD nicht mehr an die Daten, da der Schlüssel mit jedem Fertigungslos der Gehäuse geändert wird. Welche betroffen sind, kann man nicht sagen, ich meide deswegen jedenfalls externe WD Gehäuse.
Eine Verschlüsselung?! Welchen Sinn hat die denn? Verstehe ich richtig, wenn man die Platte aus bestimmten Gehäusen entfernt, sind die Daten verloren, solange man sie nicht wieder ins Gehäuse zurück gibt (falls das gehen sollte)?

Die Platten selbst können wir wohl ausschließen, dafür haben zu viele von denen das Problem, bei einer oder zwei wäre es ja nicht denkbar, aber nicht bei so vielen. Außer es sind jetzt z.B. nur die 4TB WDs betroffen, die scheinen ja alle relativ gleich alt/jung zu sein und wenn alle zusammen gekauft wurden, könnte da ein Serienfehler in dem Fertigungslos vorliegen, aber es sind ja auch andere betroffen, oder?
Ja, genau so ist es, drei WD Elements 4TB sind zusammen gekauft, so daß ich auch an einen Serienfehler gedacht hatte (hätte ich eigentlich erwähnen sollen), den ich aber selbst wiederum auch ausgeschlossen hatte, weil eben auch eben andere Marken, Größen, Arten, wie eben Seagate Expansion 5TB, Medion 640 GB betroffen sind.

Moment, das ist ein guter Hinweis, da könnte auch die Ursache liegen, wenn zwei USB Platten die gleiche UnqiueID bei Windows haben, gibt es zuweilen Probleme, das sollte unbedingt geprüft werden.
Im Datenträger-Manager, in dem man die Buchstaben ändern kann, warren die Laufwerksbuchstaben angezeigt richtigerweise, wie ich sie den Platten gegeben hatte an einem der Notebooks, für einige der Platten wurden aber in den Programmen andere angezeigt, z.B. im Datenträger-Manager wie ich seinerzeit eingegeben hatte G:, in Programmen wurde aber statt G: etwa E: angezeigt.

Da gibt es also nichts zu reklamieren!
Danke auch für die wohl nicht ganz so unkomplierten Formeln. Gottseidank, also eben auch die Seagate voll intakt, hätte ich laihenhaft anders gedeutet, aber die ersten vier linken Ziffern sind also die Fehler zeigenden.

diskpart
list disk (das zeigt die Disks, an der Größe erkennst Du die welche die externe ist)
select disk x (x für die Nummer die list disk ausgegeben hat)
uniqueid disk (das gibt Disk ID: xxxxxxxx aus, beim MBR eine 8 stellige hexdezimale zahl, also 0-9 und A-F gemischt)
exit
Diese Nummer notierst Du Dir dann am Besten in einer Daten zusammen mit der Seriennummer der Platte oder etwas anderen woran Du die Platte sicher erkennen und von den anderen unterscheiden kannst. Für die erste Platte war es das, die Entfernst Du sicher, steckst die nächste an und wiederholst es, gibt aber noch nicht exit ein, sondern schaust ob die Disk ID mit einer in Deiner Liste identisch ist. Wenn ja, dann musst Du die ändern.
Gut, das sieht bis hier hin so aus:
NaMpYAa.png


Diese Nummer notierst Du Dir dann am Besten in einer Daten zusammen mit der Seriennummer der Platte oder etwas anderen woran Du die Platte sicher erkennen und von den anderen unterscheiden kannst. Für die erste Platte war es das, die Entfernst Du sicher, steckst die nächste an und wiederholst es, gibt aber noch nicht exit ein, sondern schaust ob die Disk ID mit einer in Deiner Liste identisch ist. Wenn ja, dann musst Du die ändern. Dazu gibst Du ein:
uniqueid disk id=hhhhhhhh
Wobei hhhhhhhh eine 8 stellige hexadezimale Zahl ist, nimm die alte Disk ID und ändere z.B. nur am Ende ein oder zwei Stellen leicht ab (nur 0-9 und a-f sind gültig). Prüfe noch einmal mituniqueid diskob die neue ID übernommen wurde und trage die neue Nummer in Deine Liste ein. Am Ende sollten alle HDD unterschiedliche Nummern haben. Bei USB Platten die mit GPT partitioniert sind, müsste die ID länger und kompliziert sein, so in der Art: baf784e7-6bbd-4cfb-aaac-e86c96e166ee, das Prinzip ist aber das gleiche, also erschrecke nicht wenn so eine Nummer kommt, auch da einfach nur ein oder zwei Stellen ändern und das wieder eingeben (Cut+Paste ist hilfreich).

Mache das mal und berichte dann wie viele von denen identische IDs hatten.
Ja, werde ich so machen, vielen Dank für die Anleitung. Falls es identische IDs gibt, kann ich bestimmt nach dem Ändern jeweils einer der doppelten IDs mit testen beginnen, also Dateien kopieren und prüfen oder / und h2testw testen lassen. Leider hat man ja selbst wenn 1 TB korrekt übertragen würden oder noch mehr, keine Sicherheit, daß die Korruption nicht mehr - wegen dieser Ursache, die gegenwärtig der Auslöser ist - auftritt; ist ja nur die mit der Menge der korrekt übertragenen Daten sich erhöhrende Wahrscheinlichkeit für die zukünftige korrekte Übertragung.

Diese disk IDs können offenbar unabhängig von Model, Marke, Festplattenart etc. tatächlich mehr als einmal vergeben werden, nicht nur, wie ich zunächst denken könnte etwa für gleiche Modelle (etwa also Elements 4TB).
Vielleicht könnte die Nutzung der Platten an mehr als einem Rechner die Wahrscheinlickeit der Zuweisung identischer IDs erhöhen; falls Win nach einem bestimmten Muster / Schema diese IDs vergeben würde und ich ein gleiches Model von Platte an das eine Notebook zuerst einstöpselte und ein anderes gleiches Model an das andere Notebook, könnte es ja sein, daß beides Win7-OS schematisch die identische ID vergeben für die zwei verschiedenen Platten.

Die Daten über die Arbeitsspeicher hattest Du bestimmt gesehen, die RAM-Riegel-Paare scheinen also je alle zu passen zueinander:
http://www.hardwareluxx.de/communit...atei-unzuverlaessig-1084385.html#post23783293
 
Waren es zwei interne Platten mit Problemen? Ich erinnere mich die Daten einer gesehen zu haben.

Was der Sinn der Verschlüsselung bei den externen WD ist, kann ich auch nicht erkennen, frag WD!

Bzgl. der Disk IDs: Schau einfach das es nicht zwei Platten mit der gleichen ID gibt und wenn, dann ändere eine davon ab.

Wo kommen eigentlich die korrupten Archive her? Erstellt Du die selbst oder bekommst Du die z.B. aus dem Internet? Prüfst Du die nach der Erstellung oder dem Erhalt? Wenn ja, sind dann alle noch in Ordnung?
 
Waren es zwei interne Platten mit Problemen? Ich erinnere mich die Daten einer gesehen zu haben.
Ja, eine Platte pro Notebook, beide Platten kaputt. Oder verstehe ich da etwas völlig falsch?

Wo kommen eigentlich die korrupten Archive her? Erstellt Du die selbst oder bekommst Du die z.B. aus dem Internet? Prüfst Du die nach der Erstellung oder dem Erhalt? Wenn ja, sind dann alle noch in Ordnung?
Verzeihung, das verstehe ich bestimmt falsch, die korrupten Archive entstehen doch beim Kopieren / Verschieben, bzw. einige von deren gepackten Dateien werden doch beim Entpacken korrupt ohne Fehlermeldung. Das ist doch das Korruptions-Problem, um das es hier geht. Verzeihung nochmals für mein schlechtes Verstehen. Ja, aus dem Netz kommen die, werden teilweise geprüft nach dem Laden. Es kommt wohl extremst selten vor oder selten (könnte da aber keine Statistik nennen), daß die schon vorher - also vor dem Laden - defekt sind oder deren Inhalt es ist oder auf dem Transfer vom Server auf die Platte kaputt gehen.

Speichert Win (7) diese Platten-IDs im OS oder / und in der Platte? Ersteres hättte wohl zur Folge, könnte ich mir vorstellen, daß ich die IDs einer jeden Platte an beiden Notebooks auf Duplikate überprüfen müßte.
 
Zuletzt bearbeitet:
Welches Entpacker-Programm und welches Dateiformat wird verwendet?

Ich hatte es mal erlebt, dass auf einem System mit Xeon/ECC-RAM/RAID-Controller, auch mit ECC-RAM als Volumen-Cache und deaktiviertem Disk-Cache der einzelnen Platten der Inhalt der Archiv-Dateien beim Entpacken ohne Fehlermeldung beschädigt wurde. Es handelte sich um RAR-Archive, zum Entpacken wurde die damals aktuellste nicht-Beta-Version von 7-Zip verwendet.

Zusammenfassung: Nachdem bei den gleichen Quellarchiven das "echte" WinRAR verwendet wurde, war alles in Ordnung. Woran das lag konnte ich nie herausfinden.
 
Zuletzt bearbeitet:
Ja, eine Platte pro Notebook, beide Platten kaputt. Oder verstehe ich da etwas völlig falsch?
Dann poste doch einfach noch mal die Screenshots von CrystalDiskInfo für beide.

Aber diese:
Code:
----------------------------------------------------------------------------
 (1) ST1000LM024 HN-M101MBB
----------------------------------------------------------------------------
           Model : ST1000LM024 HN-M101MBB
        Firmware : 2AR10001
   Serial Number : S2XXXXXXXXX613
       Disk Size : 1000,2 GB (8,4/137,4/1000,2/1000,2)
     Buffer Size : 8192 KB
     Queue Depth : 32
    # of Sectors : 1953525168
   Rotation Rate : 5400 RPM
       Interface : Serial ATA
   Major Version : ATA8-ACS
   Minor Version : ATA8-ACS version 6
   Transfer Mode : SATA/300 | SATA/300
  Power On Hours : 12326 Std.
  Power On Count : 970 mal
     Temperature : 41 C (105 F)
   Health Status : Gut
        Features : S.M.A.R.T., APM, 48bit LBA, NCQ
       APM Level : 0080h [ON]
       AAM Level : ----

-- S.M.A.R.T. --------------------------------------------------------------
ID Cur Wor Thr RawValues(6) Attribute Name
01 100 100 _51 000000000021 Lesefehlerrate
02 252 252 __0 000000000000 Leistungsfähigkeit
03 _89 _89 _25 000000000D81 Beschleunigungszeit
04 100 100 __0 0000000003CF Start/Stop des Spindels
05 252 252 _10 000000000000 Neu zugewiesene Sektoren
07 252 252 _51 000000000000 Suchfehlerrate
08 252 252 _15 000000000000 Suchzeitleistung
09 100 100 __0 000000003026 Eingeschaltete Stunden
0A 252 252 _51 000000000000 Drehwiederholungen
0B 100 100 __0 0000000002C5 Rekalibrierungswiederholungen
0C 100 100 __0 0000000003CA Ein-/Ausschaltungen
BF 100 100 __0 000000000024 G-Sense Fehlerrate
C0 252 252 __0 000000000000 Ausschaltungsabbrüche
C2 _59 _49 __0 0033000E0029 Temperatur
C3 100 100 __0 000000000000 Hardware ECC wiederhergestellt
C4 252 252 __0 000000000000 Neuzuweisungsereignisse
C5 252 252 __0 000000000000 Aktuell schwebende Sektoren
C6 252 252 __0 000000000000 Unkorrigierbare Sektoren
C7 200 200 __0 000000000000 UltraDMA CRC Fehler
C8 __1 __1 __0 0000000164FE Schreibfehlerrate
DF 100 100 __0 0000000002C5 Laden/Entladen Wiederholungen
E1 _97 _97 __0 0000000086E7 Laden/Entladen Zyklus
Und diese;

MKdDVJy.png


scheinen mir nach den Werten die gleiche zu sein, nur 7 Einschaltungen später. Aber da die Seriennummer ja ausgeblendet sind, kann man das auch nicht 100%ig sicher sagen.
Verzeihung, das verstehe ich bestimmt falsch, die korrupten Archive entstehen doch beim Kopieren / Verschieben, bzw. einige von deren gepackten Dateien werden doch beim Entpacken korrupt ohne Fehlermeldung.
Das ist Deine Feststellung an der ich so langsam zweifele, denn die üblichen Ursachen wie RAM und HDD haben wie im Prinzip ausgeschlossen. Also ist jetzt die Frage ob die Ursache nicht woanders liegt, etwa im Packprogramm oder ob die Archive dann vielleicht schon defekt ankommen, solltest Du die nicht selbst packen.

Daher die Frage verbunden mit dem Hinweis das ggf. zu prüfen: Sind die Archive die nachher auf der USB Platte korrupt sind, vorher korrekt auf der internen gewesen und auch entsprechend getestet worden? Kann man also wirklich sicher sein, dass das Kopieren die Ursache der Korruption ist?
aus dem Netz kommen die, werden teilweise geprüft nach dem Laden. Es kommt wohl extremst selten vor oder selten (könnte da aber keine Statistik nennen), daß die schon vorher - also vor dem Laden - defekt sind oder deren Inhalt es ist oder auf dem Transfer vom Server auf die Platte kaputt gehen.
Gut, dann werden auch die getesteten und als Fehlerfrei erkannten nach dem Kopieren zuweilen zu fehlerhaften Archiven, richtig?

Speichert Win (7) diese Platten-IDs im OS oder / und in der Platte?
Ja, diese ID steht auf der Platte und sollte eben für jede Platte die Du hast unterschiedlich sein, das ist schon wichtig damit Windows erkennen kann, dass es um unterschiedliche Platten geht, wenn Du beide anschließt, egal ob gleichzeitig oder nacheinander. Windows cacht ja auch Metadaten von Filesystemen und ich möchte nicht zu 100% ausschließen, dass es dann zu Problemen kommt, wenn da eine USB Platte abgezogen wird und danach eine anderen Platte mit der gleichen ID angesteckt wird. Wenn dann Windows deckt, dass ist ja wieder die gleiche Platte, von der haben ich die Belegung ja noch im Cache und muss die nicht neu einlesen, dann wird womöglich auf einen Cluster geschrieben der bei der anderen Platte frei war, bei dieser aber belegt ist und schon ist die Datei korrupt zu der dieser Cluster gehört. Ob das wirklich passieren kann, weiß ich nicht 100%ig, aber ganz ausschließen will ich es auch nicht, also stelle sicher das es keine zwei Platte mit identischen Kennungen bei Dir gibt, denn das kann gerade bei identischen USB Platten leider vorkommen.
Ersteres hättte wohl zur Folge, könnte ich mir vorstellen, daß ich die IDs einer jeden Platte an beiden Notebooks auf Duplikate überprüfen müßte.
Ja das solltest Du, das hatte ich ja schon geschrieben und auch wie Du das machen musst, ebenso wie Du die Kennung ändern kannst, sollte eine anderen Platte die selbst Kennung haben.

Die Alternative wären, dass Du nach dem Anziehen Windows jeweils neu startest damit sicher keine Probleme der Art wie oben beschrieben, auftreten können. Wenn dann die Übertragung klappt und keine Korruption mehr auftritt, dann ist das die Ursache nach der Du schon so lange suchst.
 
Welches Entpacker-Programm und welches Dateiformat wird verwendet?

Verwendet hatte ich WinRAR, PeaZip, 7zip, jDownloader, wenn ich mich recht erinnere, alles als stabil benannte Versionen, zwar wird jDownloader als beta bezeichnet, läßt sich aber wohl als stabil ansehen. Dateiformate waren rar, zip, 7zip, vielleicht oder vermtulich noch weitere gängige oder weniger gängige. Ich kann mich nicht mehr erinnern, ob oder wie weit ich beobachtete, daß Korruption in Zusammenhang mit einem bestimmten Programm oder mehr als einem auftritt. Vermute aber, da gab es keinen Zusammenhang, den ich erkannte hätte. Auch bei Nutzung von WinRAR gab es Korruption. Zudem trat Korruption ja auch beim Transferieren auf.

Ich hatte es mal erlebt, dass auf einem System mit Xeon/ECC-RAM/RAID-Controller, auch mit ECC-RAM als Volumen-Cache und deaktiviertem Disk-Cache der einzelnen Platten der Inhalt der Archiv-Dateien beim Entpacken ohne Fehlermeldung beschädigt wurde.
Wurde immer oder nicht immer der gesamte Inhalt beschädigt oder wurden nur Teile von ihm beschädigt, also etwa einige seiner Dateien, ließen sich einige oder alle oder einzelne Archive (vielleicht nur bestimmter oder verschiedener Formate, rar, 7zip, zip?) gar nicht öffnen? Waren Muster / Gesetzmäßigkeiten erkennbar?

Zusammenfassung: Nachdem bei den gleichen Quellarchiven das "echte" WinRAR verwendet wurde, war alles in Ordnung. Woran das lag konnte ich nie herausfinden.
Ich würde denken, da könnte man sehr deutlich und einfach davon ausgehen, die Schlußfolgerung kann nur die sein, daß es an 7zip gelegen haben kann, oder übersehe ich da etwas? Aber mit "herausfinden" meinst Du vielleicht, warum 7zip (vielleicht in Verbindung mit einem unbekannten, anderen Faktor oder mehr als einem) offenbar ursächlich war, oder? Aber da war dann eben vielleicht einfach ein Programmfehler, schlechte Programmierung oder sonst etwas in 7zip vorhanden, ich glaube, auch die aktuelle Version ist schon recht alt, und ich glaube, so richtig gut ist das Programm wohl ohnehin nicht, wie etwa PeaZip auch. Wenn man den Fehler derart zuordnen könnte und darübe rhinaus auch noch zu einem Programm, so daß damit ohne erwähnenswerten Aufwand einfach durch Einstellung der Nutzung des Programmes das Problem definitiv beseitigt wäre, wäre ich vermutlich fast begeistert, oder so was.

Aber in der Tat würde ich WinRAR auch als das am besten funktionierende, sicherste Entpackprogramm ansehen.
 
Zuletzt bearbeitet:
Ja, die Fotos von CDI, die Du gepostet hast, gehören zu Medion P8614. Und dieses Foto hier, gerade gemacht, gehört zu P6630:

hGTUU4O.png


Das andere Notebook ist gerade nicht an, dauert recht lange bis es hochgefahren ist, willst Du da auch noch ein aktuelles Foto von CDI haben, dann mache ich das natürlich noch, oder genügt das von Dir gepostete?

Ja, das stimmt, ist ungünstig mit der nicht angezeigten Serien-Nummer bei gleichen Platten, Verzeihung. Könnte jemand die Seriennummer einer Platte irgendwofür mißbrauchen? Oder wozu ist die Funktion die in CDI ausblenden zu können?

Das ist Deine Feststellung an der ich so langsam zweifele, denn die üblichen Ursachen wie RAM und HDD haben wie im Prinzip ausgeschlossen.
Ja, davon kann man wohl ausgehen. Hmmm, das klingt so, als wären die anderen noch für so ein Korruptions-Problem als Ursache in Betracht kommenden Bauteile / Ursachen, die Du noch nanntest doch eher unwahrscheinlich als Ursache, jedenfalls unwahrscheinlicher als meine die Richtigkeit meiner Beobachtung und somit vielleicht doch nicht mehr einer Prüfung angemessen, oder deute ich das falsch?

Also ist jetzt die Frage ob die Ursache nicht woanders liegt, etwa im Packprogramm oder ob die Archive dann vielleicht schon defekt ankommen, solltest Du die nicht selbst packen.

Daher die Frage verbunden mit dem Hinweis das ggf. zu prüfen: Sind die Archive die nachher auf der USB Platte korrupt sind, vorher korrekt auf der internen gewesen und auch entsprechend getestet worden? Kann man also wirklich sicher sein, dass das Kopieren die Ursache der Korruption ist?
Also, daß das Kopieren die Ursache ist weiß ich leider nicht. Aber als definitiv zu wissen sehe ich das an:

Ich habe Korruption ja bislang nur festgestellt nach dem Kopieren / Verschieben von Dateien / Entpacken von Archiven von einer internen Platte zu einer externen USB 2.0- oder 3.0-Platte (wohl allen meinen USB-Platten, testete ich aber nicht bei allen) verschiedener Größen, Hersteller (Seagate, Medion, WD) / einer 640 GB-Platte, 2,5" oder nach dem Kopieren von Dateien / entpacken von Archiven auf einer externen oder nach dem Kopieren / Verschieben von Dateien / entpacken von Archiven von einer externen zu einer anderen externen Platte.
Also bisher noch niemals festgestellt eine Korruption nach dem Transfer auf einer internen Platte.

Also ist jetzt die Frage ob die Ursache nicht woanders liegt, etwa im Packprogramm
Das würde ich als definitiv ausgeschlossen ansehen. Aber wäre natürlich super - in gewisser Weise jedenfalls (nicht in der, daß der gigantische Aufwand dann natürlich völlig sinnlos gewesen wäre) - wenn das Problem ein Programm verursacht hätte.

oder ob die Archive dann vielleicht schon defekt ankommen, solltest Du die nicht selbst packen.
Selbst wenn Archive defekt ankämen, hätte das ja vermutlich keinen Einfluß (in meiner unfachmännischen Vorstellung) etwa darauf, daß nach dem Kopieren der Inhalt der Kopien als ungleich zu den defekten (defekten) Originalen angezeigt würde (nicht nur von einem Programm) und / oder eine andere Prüfsumme (nicht nur von einem Programm) angezeigt würde (es ging mir also um den Vergleich des Zustandes einer Datei vor dem Transfer und danach), es sei denn, defekte (gar durch Schadsoftware beeinträchtigte) Dateien verhielten sich bei einem Transfer anders als intakte, etwa so, daß sie sich eigenständig beim Transfer veränderten, eben hervorgerufen durch den Defekt. Aber da ich als definitiv ansehe, grundsätzlich (zu über 90 %) intakte Dateien (als Ausgangsdateien) beim Testen verwendet zu haben, würde ich das Verhalten / die Zustände vor / nach einem Transfer vermutlich ohnehin als unbedeutend ansehen in diesem Zusammenhang. Aber ich habe von alledem ja auch keine Ahnung, da gibt es ja bestimmt eine Menge an Faktoren, die jemand wie ich, der nicht die geringste Ahnung hat, übersehen kann und vermutlich auch wird.

Gut, dann werden auch die getesteten und als Fehlerfrei erkannten nach dem Kopieren zuweilen zu fehlerhaften Archiven, richtig?
Ja, richtig.

Ja, diese ID steht auf der Platte und sollte eben für jede Platte die Du hast unterschiedlich sein, das ist schon wichtig damit Windows erkennen kann, dass es um unterschiedliche Platten geht, wenn Du beide anschließt, egal ob gleichzeitig oder nacheinander.
Ja, ich erinnere mich über so etwas, derartigen Problemen im Netz schon gelesen zu haben, die durch gleiche Platten verursacht worden sein sollen bei Win, Problem in dieser Richtung scheinen ja nicht selten zu sein.

Windows cacht ja auch Metadaten von Filesystemen und ich möchte nicht zu 100% ausschließen, dass es dann zu Problemen kommt, wenn da eine USB Platte abgezogen wird und danach eine anderen Platte mit der gleichen ID angesteckt wird. Wenn dann Windows deckt, dass ist ja wieder die gleiche Platte, von der haben ich die Belegung ja noch im Cache und muss die nicht neu einlesen, dann wird womöglich auf einen Cluster geschrieben der bei der anderen Platte frei war, bei dieser aber belegt ist und schon ist die Datei korrupt zu der dieser Cluster gehört. Ob das wirklich passieren kann, weiß ich nicht 100%ig, aber ganz ausschließen will ich es auch nicht, also stelle sicher das es keine zwei Platte mit identischen Kennungen bei Dir gibt, denn das kann gerade bei identischen USB Platten leider vorkommen.
Ups, das wäre ja dann ein richtig übles Verhalten, kann man sich wohl auch sehr gut vorstellen, daß so etwas gerade bei Win passieren könnte. Habe noch keine identische ID gefunden.

Ja das solltest Du, das hatte ich ja schon geschrieben und auch wie Du das machen musst, ebenso wie Du die Kennung ändern kannst, sollte eine anderen Platte die selbst Kennung haben.
Ja, ja, natürlich, habe ich gelesen, hatte ich ja schon zu geschrieben, vielen Dank nochmals für die Anleitung. Daß ich bei beiden Notebooks prüfen sollte,war mir nicht so deutlich klar. Ich hätte nun gedacht, da die ID ja in der Platte gespeichert wird von Win, daß dann definitiv auch dieselbe, eben diese gespeicherte ID von beiden (oder falls noch mehr Computer vorhanden wären, dann von allen) Computern / OSs benutzt wird. Aber ich werde dann auf jeden Fall bei beiden Notebooks alle IDs prüfen.

Die Alternative wären, dass Du nach dem Anziehen Windows jeweils neu startest damit sicher keine Probleme der Art wie oben beschrieben, auftreten können.
Entschuldigung, ich verstehe nicht ganz, meinst Du nach dem Abziehen eines USB-Steckers neu starten? Und in wie fern durch einen Neustart das Problem (der Korruption oder wohl der falschen / gleichen ID-Zuordnung?) vermeiden können? Verzeihung nochmals.

Und allerherzlichsten Dank nochmals.
 
Zuletzt bearbeitet:
Und dieses Foto hier, gerade gemacht, gehört zu P6630
Die sind nicht mehr in einem optimalen Zustand, da gibt ein paar Lese- und Schreibfehler, aber in Summe weniger als G-Sensor Auslösungen, aber keine Schwebenden Sektoren oder Wiederzuweisungen. Die muss nicht unbedingt sofort getauscht werden, achte auf die S.M.A.R.T. Werte und darauf von den wichtigen Daten darauf regelmäßig eine Sicherung zu machen und dann sollte die noch eine ganze Weile im Dienst bleiben können.

Das andere Notebook ist gerade nicht an, dauert recht lange bis es hochgefahren ist, willst Du da auch noch ein aktuelles Foto von CDI haben
Nicht nötig, die gehört ersetzt und zwar umgehend, dann dürfte das Notebook auch nicht mehr so lange zum Hochfahren brauchen.

Könnte jemand die Seriennummer einer Platte irgendwofür mißbrauchen?
Gute Frage, das habe ich mich auch schon gefragt. Es könnte jemand vielleicht die Platte auf seinen Namen beim Hersteller registrieren, aber was nutzt ihm das? Dann hättest Du vielleicht Probleme mit der Garantie, aber ohne die Platte kann er auch nichts davon haben. Oder es nutzt einer die Seriennummer Deiner Platte wenn es Cashback oder Rabattaktion gibt bei der man die Seriennummer einer solche Platte angeben muss, dann kannst Du dieses Angebot nicht mehr wahrnehmen, weil die Nummer ja schon registriert wäre. Umgekehrt könnte auch ein Mitarbeiter eines Herstellers oder Händlers deine Platten identifizieren, wenn Du z.B. schreibt sie runtergefallen oder sonstwie misshandelt worden, dann könnte der die Seriennummer in eine Blacklist eintragen und dann gibt es darauf keine Garantie mehr. Oder man identifiziert Dich damit, solltest Du Äußerungen von Dir geben die Dich in das Interesse z.B. eines Staatsanwaltes bringen, dann würde das Auffinden von HDDs mit Seriennummern die der gleiche User im Forum gepostet hat, es Dir wohl erschweren abzustreiten, dass Du dieser User bist. Wie relevant sowas am Ende wirklich wäre, kann ich aber auch nicht beurteilen, Du kannst dann immer noch behaupten die Platten letzten Sonntag auf dem Flohmarkt erstanden zu haben :bigok:

Oder ein Medion Mitarbeiter könnte die durch den Computer schicken und aufgrund der Datenbank dann sehen wer Pixell im echten Leben ist, wenn das Teil Online gekauft wurde und dann kommt vielleicht raus, dass Du Hugo Egon Balder bist und musst Du am Ende doch noch erklären wie das damals mit den Länderpunkten funktioniert hat :banana:

das klingt so, als wären die anderen noch für so ein Korruptions-Problem als Ursache in Betracht kommenden Bauteile / Ursachen, die Du noch nanntest doch eher unwahrscheinlich als Ursache
Hast Du dann schon geprüft ob es doppelte Datenträger IDs bei den externen Platten gibt? Den einen Ein- Ausschaltzyklus musst Du dafür eben mal aufwenden.

Wenn es sowas gab, dann ändere die ID bei einer der Platten damit es keine ID mehr doppelt gibt und prüfe ob das Problem immer noch da ist.
Also bisher noch niemals festgestellt eine Korruption nach dem Transfer auf einer internen Platte.
Auf die interne von wo?
Selbst wenn Archive defekt ankämen, hätte das ja vermutlich keinen Einfluß (in meiner unfachmännischen Vorstellung) etwa darauf, daß nach dem Kopieren der Inhalt der Kopien als ungleich zu den defekten (defekten) Originalen angezeigt würde (nicht nur von einem Programm) und / oder eine andere Prüfsumme (nicht nur von einem Programm) angezeigt würde
Das ist richtig, aber es geht mir im Moment darum zu sehen, ob die Archive denn nun zuverlässig sind und es nur der Weg von der internen auf die Externe Platte ist der diese korrumpiert oder ob es ggf. der Weg von der externen ins RAM sein kann. In dem Fall wären die Dateien ja u.U. gar nicht korrupt und würden bei der Prüfung nur so erscheinen. Oder sie wären nach dem Kopieren und Vergleichen zwar korrekt auf der Platte, würden dann aber irgendwann korrumpiert, was aber weniger wahrscheinlich ist, da ja schon die Überprüfung direkt nach dem Kopieren Unterschiede anzeigt.
gar durch Schadsoftware
Das ist auch noch ein Thema, was für eine Virenfinder nutzt Du? Wurden die Notebooks mal gründlich gescannt?
Ja, ich erinnere mich über so etwas, derartigen Problemen im Netz schon gelesen zu haben, die durch gleiche Platten verursacht worden sein sollen bei Win, Problem in dieser Richtung scheinen ja nicht selten zu sein.
Also sehe zu das die IDs sich bei allen Platten unterscheiden, sonst ist es eben ein Reboot nach dem Abziehen einer Platte und vor dem Anstecken der nächsten empfehlenswert, wenn man 100%ig sicher sein möchte.

Habe noch keine identische ID gefunden.
Das ist gut, oder auch nicht weil damit noch eine mögliche Fehlerquelle ausscheidet und so langsam gehen mir da auch die Ideen aus, was es noch sein könnte.

Zwei Rechner, beide ohne RAM Fehler bei Memtest86+ und auch stabil unter Prime95, Du hast doch beide getestet, oder? Dann verschiedene USB Platten und die auch über USB2 und USB3. Da bleibt wenig übrig was mir da noch als Ursache einfällt, am ehesten noch ein Bug oder eine Schadsoftware. Dann müsste man wirklich mal unter Linux kopiere um zu sehen ob es da auch auftritt.
Daß ich bei beiden Notebooks prüfen sollte,war mir nicht so deutlich klar.
Bei beiden ist mit Memtest86+ und Prime zu prüfen, die ID der Platten brauchst Du nicht mit beiden Rechnern zu prüfen, die stehen ja auf der Platte und sollte dabei auf beiden Rechnern identisch angezeigt werden.

Entschuldigung, ich verstehe nicht ganz, meinst Du nach dem Abziehen eines USB-Steckers neu starten?
Das nur falls Du die ID nicht geprüft hast und es wäre auch gut einen Neustart zu machen bevor man irgendwas auf die Platte kopiert, falls diese Platte eine identische ID hat wie eine die vorher angeschlossen war, nur zur Sicherheit.
 
Die sind nicht mehr in einem optimalen Zustand, da gibt ein paar Lese- und Schreibfehler, aber in Summe weniger als G-Sensor Auslösungen, aber keine Schwebenden Sektoren oder Wiederzuweisungen. Die muss nicht unbedingt sofort getauscht werden, achte auf die S.M.A.R.T. Werte und darauf von den wichtigen Daten darauf regelmäßig eine Sicherung zu machen und dann sollte die noch eine ganze Weile im Dienst bleiben können.
Ach, damit hätte ich nun gar nicht gerechnet, daß ich die noch verwenden kann. Dachte vor allem auch, daß so ein Defekt (aber ist wohl natürlich auch von der Art des Defektes / des Fehlers abhängig) sich auf benachbare Sektoren vielleicht ausbreiten könnte und so fort.

Nicht nötig, die gehört ersetzt und zwar umgehend, dann dürfte das Notebook auch nicht mehr so lange zum Hochfahren brauchen.
Ja, die Platte definitiv wegschmeißen, aber immerhin hat die ja offenbar eine geringere G-Sense-Rate, aber wohl eine höhere Lese-, Schreibfehlerrate, hier jetzt doch noch ein aktuelles Bild:
Nf5Op9U.png


Wie man diese Rohwerte, bzw. all diese von CDI angezeigten Werte / Daten interpretiert, in eine Beziehung setzt zueinander verstehe ich immer noch nicht, gibt es da irgendwo eine verständliche Anleitung? Die Rohwerte sind ja also wohl Hexadezimalwerte, die man wohl in "normale" Zahlen umrechnen muß, um sie deuten zu können, "Threshold" gibt eben wohl den Wert an, bei dessen erreichen, bzw. überschreiten ein Zustand als kritisch gewertet wird. Aber CDI zeigt für alle Werte blau (nicht etwa rot, gelb oder so) an, so daß man denken könnte, alle Werte sind offenbar gleichermaßen als unkritisch, eben "Gut" zu verstehen.

Wie relevant sowas am Ende wirklich wäre, kann ich aber auch nicht beurteilen, Du kannst dann immer noch behaupten die Platten letzten Sonntag auf dem Flohmarkt erstanden zu haben
Glaube, das sind keine ungängigen Behauptungen gerade bei Hehlern mit nicht optimaler Glaubwürdigkeit...also als Kleinkrimineller die Serien-Nummer auf jeden Fall lieber ungkenntlich.

Oder ein Medion Mitarbeiter könnte die durch den Computer schicken und aufgrund der Datenbank dann sehen wer Pixell im echten Leben ist, wenn das Teil Online gekauft wurde und dann kommt vielleicht raus, dass Du Hugo Egon Balder bist und musst Du am Ende doch noch erklären wie das damals mit den Länderpunkten funktioniert hat
Und vor allem dann wohl auch erklären, warum man nachts Festplatten anschreit (ach, das war ja der andere Thread). Aber wenn man dann noch bei der Rückgabe von abgelaufener Wurst bei Aldi von der Kassiererin den Hinweis hört, daß die Rückgabe in derselben Bläcklist vermerkt wird wie die Platte, weiß man die Funktion von CDI doch als prkatisch zu schätzen.

Hast Du dann schon geprüft ob es doppelte Datenträger IDs bei den externen Platten gibt? Den einen Ein- Ausschaltzyklus musst Du dafür eben mal aufwenden.
Ja, aber da ja diese Einschaltzyklen, wie ich nun weiß, hinsichtlich einer Belastung / Auswirkung tatächlich extrem unwahrscheinlich zu einem ungünstigen Verhältnis zur Lebensdauer einer Platte werden können, bzw. also grundsätzlich überhaupt völllig unbedenklich sind, hätte ich da ja gar keine Bedenken mehr hinsichtlich des Ein-, Ausschaltens.

Ja, diese Platten sind überprüft am P8614:
b2Nwh2E.png
:

Ich habe jeweils die letzten zwei Zeichen der zwei doppelten von insgesamt drei identischen IDs geändert, einige oder viele der dafür erlaubten zu verwendendenden Zeichen - a-z, 0-9 (A-Z auch? Die von Win zugewiesenen IDs haben ja große Buchstaben) - haben diese Meldung ausgelöst:
lMUUvwH.png


XihKQDA.png


Die drei gleichen Modelle WD Elements 4TB (Lw P:, G, E), zusammen gekauft, hatten also offenbar alle die identische ID. Die Wahrscheinlichkeit ist recht hoch, daß ich aber nur eine einzige dieser drei Platten am P8614-Notebook benutzt habe, so daß an dem Rechner möglicherweise gar keine identishen IDs vorkanden gewesen sein müßten. Die zwei anderen Platten dieser Gruppe dürften nur am P6630 angeschlossen gewesen sein, nicht am anderen Rechner. Gleiche Modelle von Platten, von den zwei internen 2,5"-Platten abgesehen, dürfte ich außer den vorgenannten nicht haben.

Wenn man etwa im Datenträger-Manager den eigenen Platten einen betimmten, für jeden Platte anderen Laufwerksbuchstaben zuweist und Win später trotzem einer oder mehr dieser Platten einen gleichen Buchstaben zuweist wie es ihn schon zugewiesen hatte (das ist ja hier schon öfter geschehen, glaube ich, hätte ich wohl besser schon einmal erwähnen sollen), ist das wohl schon einmal ein Indiz dafür, daß deren IDs identisch sein können oder gar mit Sicherheit sind.

Wenn ich aber recht verstanden habe, dürfte doch - vorausgesetzt, die identischen IDs verursachten das Problem hier überhaupt - durch die identischen IDs nur auf den Platten Korruption sein können, die die selbe ID haben, nicht auf anderen Platten mit eindeutiger IP, oder? Aber wenn Win eine Platte mit identischer ID wie eine andere Platte, unkorrekter Weise als die andere Platte annimmt, die ja vermutlich einen komplett anderen Inhalt (an Dateien, Verzeichnissen hat), müßten dann nicht ganze Dateien, Verzeichnisse überschrieben werden, statt nur diese gewisse Art von Korruption sich einstellen, wie ich sie habe?

Beim Anschließen einiger Platten, wurde der Rechner noch träger als er es ohnehin schon ist, ist mir zum ersten Mal aufgefallen, weiß nicht, ob das einzig bei denselben Platten passiert und ob es dann immer bei denselben passiert. Ist das die Folge irgendwelche Prozesse, wie etwa SearchIndexer von Win, die aktiv werden? Vielleicht gibt es da ja eine Verbindung zum Korrutpions-Problem?

Der Resourcenmonitor zeigte immer noch Platte G: an, obwohl ich der neu eingeteckten Platte (mit einem Programm, nicht dem Datenträger-Manager) bereits einen anderen Buchstaben erneut zugewiesen hatte, nach schließen und öffnen von Resourcenmonitor zeigtr er den Buchstaben richtig an, das wird wohl nicht auf eine Ursache schließen lassen können, vermute ich.

Wenn ich nun Platte P: auf Korruption teste, die zuvor bei ihr aufgetreten war, und die Korruption immer noch vorhanden ist (ich nehme an, das kann ich testen wie ich es zuror auch immer getan habe, durch kopieren / prüfen nach Inhalt / Summe z.B. und / oder mit h2testw), läßt sich vermutlich das Vorhandensein identischer IDs als Ursache dennoch nicht ausschließen (identische IDs könnten ja Korruption verusachen unter gewissen Umsänden - nicht immer wohl -, müssen es aber nicht, weil es diese Umstände hier nicht gibt etwa), nehme ich an.

Wenn Win drei Platten identische IDs gibt, dann ist die Behauptung, die ich irgendwo gelesen habe, Win vergibt diese IDs zufällig, offenbar gar nicht zutreffend.

Die von mir geänderten IDs werden dann an anderen Win 7-Rechnern (vielleicht nicht unbeingt mit Win 8, 10?), da sie ja in der Platte gespeichert sind, auch automatisch erkannt, falls ich recht verstanden habe, oder?

Offenbar gibt es einen Unterschied zwischen der ID und der Disk Signature.

Also bisher noch niemals festgestellt eine Korruption nach dem Transfer auf einer internen Platte.
Auf die interne von wo?
Von der internen. Z.B. von G:\Ordner1 nach G:\Ordner 2.

Das ist richtig, aber es geht mir im Moment darum zu sehen, ob die Archive denn nun zuverlässig sind und es nur der Weg von der internen auf die Externe Platte ist der diese korrumpiert
Ja, die Archive würde ich definitiv als zuverlässig ansehen, jedenfalls in so fern, als daß sie etwa beim Kopieren korrupt wurden, korrupte Dateien entpackten, die vorher nicht korrupt waren. Nicht nur der Weg von der internen, bzw. einer der zwei internen zu externen Platten, sondern auch von externen Platten zu externen und auf der selben externen Platte wurden Dateien ja korrupt.

Das ist auch noch ein Thema, was für eine Virenfinder nutzt Du? Wurden die Notebooks mal gründlich gescannt?
Ja, mache ich regelmäßig, Schadstoffe würde ich ausschließen hierbei. AntiMalwareBytes, SuperAntiMalware zur regelmäßigen Prüfung und den wineigenen Virenscanner, dauernd in Betrieb, nutze ich. Und die Win Firewall.

Das ist gut, oder auch nicht weil damit noch eine mögliche Fehlerquelle ausscheidet und so langsam gehen mir da auch die Ideen aus, was es noch sein könnte.
Also lassen sich weitere Bauteile, die Du noch nanntest, etwa Controler, wohl doch eher als unwahrscheinlich als Ursache ansehen, nehme ich an.

Also sehe zu das die IDs sich bei allen Platten unterscheiden, sonst ist es eben ein Reboot nach dem Abziehen einer Platte und vor dem Anstecken der nächsten empfehlenswert, wenn man 100%ig sicher sein möchte.
Aber das nur bei identischen IDs oder wirklich immer? Verstehe ich richtig, beim Vorhandensein identischer IDs müßte man um Probleme durch sie auszuschließen, den Rechner neustarten nach dem Abziehen einer Platte und nach dem Neustart die nächste Platte mit identischer ID anschließen zu können? Um wohl irgendwelche Buffer, Chashes, Speicher durch `runterfahren zu leeren.

Müßte ich eigentlich, wenn alle Platten eindeutige IDs haben, also alle doppelten gefunden und geändert sind, noch eventuell vorhandene Rückstände, die Win vielleicht in Verbindung mit den identischen IDs gespeichert hat irgendwie löschen oder etwas tun dagegen oder macht Win das automatisch?

Und ich vermute, nach dem Ändern identischer IDs, sollte ich den Rechner auch neu starten.

Zwei Rechner, beide ohne RAM Fehler bei Memtest86+ und auch stabil unter Prime95, Du hast doch beide getestet, oder?
Es fehlt nach wie vor noch der MemTest86+ für das Notebook P6630, das ich momentan ständig brauche, so daß der Zeitraum über den der Test ja wohl laufen sollte, zu kurz wäre wohl, hole ich aber so schnell es geht nach. Ansonsten müßten alles Tests, Daten, Information geliefert sein.

Bei beiden ist mit Memtest86+ und Prime zu prüfen, die ID der Platten brauchst Du nicht mit beiden Rechnern zu prüfen, die stehen ja auf der Platte und sollte dabei auf beiden Rechnern identisch angezeigt werden.
Ja, das hatte ich dann auch so verstanden. Die Daten des Prime-Tests hatte ich ja schon gepostet, MemTest86+ für das eine Notebook auch, es fehlt nur dieser eine MemTest86+, mache ich so schnell wie möglich, einen Nacht, vielleicht acht Stunden sollte er ja bestimmt laufen.

Aber selbst wenn der MemTest beim P6630 positiv wäre - nichts desto trotz werde ich ihn aber natürlich noch machen -, würde das doch vermutlich nichts über eine Ursache bei dem anderen Notebook aussagen, würde ich denken. Dann wäre zwar die Ursache bei dem P6630 bekannt, falls es nur eine einzige gäbe jedenfalls, aber Schlußfolgerungen auf die Ursache beim anderen ließen sich daraus doch bestimmt nicht ziehen, würde ich denken.

Das nur falls Du die ID nicht geprüft hast und es wäre auch gut einen Neustart zu machen bevor man irgendwas auf die Platte kopiert, falls diese Platte eine identische ID hat wie eine die vorher angeschlossen war, nur zur Sicherheit.
Ach so, das gilt besonders für den gegenwärtigen Zustand meiner Notebooks, wegen des Korruptions-Problems. Gut, wenn also bekannt ist, daß es keine identischen IDs gibt, braucht man das also nicht zu machen.

Alle Platten sind auf identische IDs geprüft jetzt, keine weitere identische mehr gefunden: Hier alle aktuell vergebenen IDs:
pBz1FKG.png


Auf beiden Notebooks habe ich jeweils zwei Partitionen (je C: und I:) auf der internen Platte: C: für das OS und I: für alle eigenen Daten, portablen Programme.

Auf beiden Notebooks zeigt diskpart für die Partition C: die ID: 00000000 (nehme an, das ist üblich) und für Partition I: der beiden Notebooks jeweils 7E6A4461 und 9F2440A3.
BYHBXh1.png


Das Programm USBDLM hingegen zeigt unter dem Punkt DiskSignature (unter dem ansonsten alle angezeigten Werte identisch waren mit den von diskpart angzeigten IDs) für jeweils beide Partitionen auf beiden internen Platten die selbe ID für die Partitionen jeweils C: und I: an, also: 7E6A4461 und 9F2440A3.

Diese einige Jahre alte Platte hier ist, vermutlich ohne daß ich das bewußt hätte gemacht haben wollen, komischerweise mit GPT initialisiert:
hAusRaM.png


Sind die Platte noch in Ordnung:
gHIyQ1f.png


Qlz5HGV.png
 
Zuletzt bearbeitet:
Keine Ahnung was USBDLM da alles anstellt, solche 4rd Party Tools würde ich vermeiden. Hast Du das schon länger in Benutzung?

Die 00000000 dürfte nicht von einer HDD stammen, der Datenträger 1 war nur 7636MB (in Wahrheit MiB) groß, das dürfte ein USB Stick gewesen sein und wenn der keine Partitionstabelle hat, sondern im Supperfloppy Format genutzt wurde, könnte das auch sein das er eben keine ID hat, da weiß ich ehrlich gesagt nicht ob die auch eine ID haben oder nicht. Wenn Du die ID mit Diskpart änderst, dann denke dran das die Buchstaben nur bis F erlaubt sind.

Die ST32000542AS ist in Ordnung, die WD vermutlich auch, da aber hat ein Bug von CDI zugeschlagen, das Programm mischt beim Abziehen einer HDD und anstecken einer anderen dann zuweilen die Werte der alten und neuen HDD, wie man dan der Anzeige von F1 und F2 sieht, diese Attribute dürfte die WD gar nicht haben und die Rohwerte sind auch identisch mit denen der Seagate darüber, die offensichtlich vorher angeschlossen war. Am beendet man CDI und startet es dann neu, wenn man die Platten der Reihe nach ansteckt, abzieht und die nächste ansteckt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh