Mit Backupkiste habe ich flapsig einen Server gemeint.
Ah, ach so, so einen Server könnte man also offenbar nicht nur fürs Internet benutzen, sondern auch für "meine" Zwecke. Aber da sind ja völlig andere Kenntnisse / Fähigkeiten (also sozusagen gar keine) erforderlich als die, die ein einfacher Kachelschieber wie ich hat. Das würde ich nie hinkriegen.
Wenn Du von sinnlosen Fähigkeiten Deinerseits sprichst, so glaube ich Dir nicht ganz.
Dein gesamter Stil darauf hindeutet, dass Du in der hier behandelten Materie richtig tief einsteigen könntest.
Ah, vielen Dank, freut mich zu hören, aber das ist leider tatsächlich so, mein Gehirn bringt so eine Leistung ganz schlicht einfach nicht annähernd.
Aber vorab: Wenn Geld keine Rolle spielt und Du möchtest etwas verlässlich Gutes, dann hole Dir ein NAS-System von Synology oder Thecus MIT ECC-RAM. Die teureren Modelle beider Hersteller haben das. Selber bauen wäre günstiger, aber soweit bist Du nach Deiner Selbsteinschätzung noch nicht.
Ich könnte die Teile maximal aus der Verpackung - in der sie vielleicht geliefert werden - auspacken, dann wäre es zu Ende. Ups, leider spielt Geld doch eine ganz schöne Rolle, wenn das nicht so wäre, dann würde ich...ich fange lieber gar nicht erst an.
Foren sind nur so gut wie die Leute die dort aktiv sind.
Ja, genau, gerade deshalb ja hätte ich eben gedacht - es ist ja auch nicht so leicht, wenn man wie ich keine Ahnung hat, herauszufinden, wer Ahnung hat, welches Forum für die jeweilige Frage das beste ist (versuche ich anhand der Menge der Beiträge und vielleicht der Rubriken, was dort also ausdrücklich angeboten wird, in dem Forum herauszufindden, offenbar mehr als unzureichend) -, daß in riesigen Foren wie Beeping Computer, Geeks To Go, Major Geeks, Tech Support Guy und derweiteren viel mehr, Leute aktiv sind, die sich auskennen.
Platten über 2TB können übrigens sehr wohl mit MBR partitioniert werden und sind es auch oft, wenn sie in USB Gehäuse als fertige USB Platten verkauft werden, denn die Grenze bei 2TiB für MBR ergibt sich aus der Breite von 32Bit für die Information in LBAs wo eine Partition anfängt und wie lange sie ist. 2TiB ergeben sich dabei aber nur bei 512 Byte pro LBA, wie es die HDDs bisher fast alle adressieren, egal ob nativ mit 512Byte pro physikalischem Sektor oder emuliert bei 4096 pro phys. Sektor, aber bei 4096 Byte (4k) pro Sektor ist die Grenze bei 16TiB und da Windows XP normalerweise kein GPT unterstützt (nur die exotische 64Bit Version kann das wohl, aber wer nutzte die schon), haben die Hersteller von USB Gehäuse den USB-SATA Bridgechips dadrin eine 4k Sektoremulation spendiert, damit eben auch Platten über 2TB normal mit MBR als eine Partition auch unter XP genutzt können.
Klingt alles ganz schön kompliziert, aber zu wissen, daß also doch auf jeden Fall größere Platten als 2,2 TB, also etwa auch 4TB, 5TB in MBR vollständig lauffähig sind (was immerhin auch das Verhalten von Win erklärt, nicht etwa GPT vorzuschlagen bei der Initialisierung, bzw. beim ersten Benutzen), ist natürlich beruhigend zu wissen. So brauche ich vor allem alle Daten auf auf den MBR-Platten, also allen Platten bis auf die 5TB-Seagate, nicht umzukopieren um diese Platten mit GPT zu initialisieren, wie ich es dachte, tun zu müssen. Habe ja leider nur einen einzigen USB 3.0-Anschluß, der sich verhält wie ein USB 2.0-Anschluß, so daß wahnsinniger Weise das Kopieren von einer 4TB-Platte zu einer anderen 2,5 Tage dauert ohne Unterbrechung, als 7/24. Das Überprüfen dauert dann noch einmal 2,5 Tage. Dazu noch das erneute Kopieren der als kaputt angezeigten Dateien. Wenn ich davon ausgehe, nach einem Transfer fortan (was ich jetzt natürlich schon einige Zeit tue) immer die Kopien überprüfen zu müssen, komme ich ja um ein USB 3.0-Notebook nicht mehr herum.
Aber da ich ja Win XP nicht nutze, auch nicht vorhabe ein älteres OS als Win 7 zu nutzen, könnte ich ja alle noch kommenden Platten in GPT initialisieren, das ja gewisse Vorteile im Vergleich zu MBR haben soll. Aber die bereits mit MBR laufenden Platten kann ich getrost so belassen, oder gibt es da einen Grund, aus dem ich sie doch lieber in GPT haben sollte?
Und ich schätze, die Annahme, daß die Korruption an der Initialisierung liegt, kan man wohl ohnehin (vor allem in Anbetracht aller Besprochenen Informationen) als mindestens fast definitiv unwahrscheinlich ansehen, da ja auch Platten, die kleiner als 2,2 TB sind betroffen sind.
Das kann man auch leicht prüfen, man schließt die USB Platte an, startet eine cmd.exe und führt folgenden Befehl genau so aus:
wmic diskdrive get BytesPerSector,Model
Edit: Entschuldigung, hatte ganz vergessen, diese, die folgende Frage schon in einem anderen Beitrag gefragt zu haben, dessen Antwort ich gerade von Dir gesehen habe, vielen Dank.
In diesem Zusammenhang drängt sich mir wieder einmal eine Frage auf (sonst würde ich sofort einige Platten einschalten um diese Eingabe zu machen für die Platten), die ich schon oft gestellt habe, zu der ich aber entweder keine Antwort oder nur eher unbrauchbare gekriegt habe: ich habe schon öfter gelesen und gehört, daß das Einschalten (vielleicht auch das Ausschalten) von Festplatten eine große Belastung für sie sein soll und beachtlich ihre Haltbarkeit, Zuverlässigkeit, Fehleranfällig beeinflussen soll. Stimmt das?
Und diese Unkenntnis darüber läßt mich tatsächlich so verhalten, daß ich Platten möglichst wenig - einfach nur mal so - einschalten will, sondern warte, bis sich etwa eine gewisse Anzahl von Aufgaben gesammelt haben, die ein Einschalten effektiv machen, es rechfertigen. Klingt natürlich schon recht sinnlos dieses Verhalten, aber...vor allem in Anbetracht meiner Korruptionsprobleme hat sich da eben eine gewisse Furchtsamkeit entwickelt.
Ebenso darüber, wie lange ohne Unterbrechung eine Platte (unterschiedlicher Modelle / Arten) laufen sollte / darf / kann, sind ja einfach alle (sich widersprechenden / einschränkenden) Angaben zu finden.
Wir können auch nur die möglichen Ursachen zu finde und abzuklopfen welches es denn sein kann, aber ob wir sie 100%ig sicher finden, weiß man vorher auch nie. Deshalb gehe ich von der wahrscheinlichsten Ursache zu den weniger wahrscheinlichen vor.
Ja, das ist natürlich verständlich. Aber hier ist ja ein sehr plausibler Ansatz vorhanden, eine ebensolche Vorgehensweise, in den meisten (wohl ""renomierten") Foren war ja, nach zwar wohl guten Ideen (Kabel defekt, Oberfläche der Platte, RAM defekt und einiges mehr), wenn es die überhaupt gab, Ende.
Ein Gedanke, der mir noch aufkam, ist, daß, wenn ich mir einfach ein neues Notebook kaufte (was ich sowieso tun muß, wird schwer sein, das richtige zu finden), es vielleicht gar nicht so wichtig wäre, die Ursache für die Korruption herauszufinden aber - davon abgesehen, daß es mich jetzt, da ich mich ja zwangsläufig schon recht lange quälender Weise damit "befasse", auch enorm interessiert und ich den bereits hinsichtlich des Problems gigantischen Umfang an Zeit, ebensolchen Aufwand seit Wochen nicht als völlig verloren ansehen will - es wäre ja auch nicht auszuschließen, daß der gleiche Fehler / das gleiche Problem auch beim nächsten Notebook auftaucht, was sich vielleicht vermeiden ließe, wenn man jetzt das Problem lösen würde oder weiter verfolgen würde zumindest.
Ja, so ungefähr ist es, wobei auf dem Übertragungsweg vom Medium, also den rostigen Scheiben die sich drehen zur nächsten rostigen Scheibe die sich in einem anderen Gehäuse dreht, natürlich viele Stationen liegen. Schutz vor gekippten Bit haben sie auf den rostigen Scheiben, da es dort eben öfter vorkommt und man ohne eine ECC hinter jedem Sektor mit einer HDD nichts anfangen könnten, dann haben sie diesen Schutz auf dem Weg über das SATA Kabel und auch über das USB Kabel, zumindest beim Bulk Protokoll, bei UASP ist der Schutz geringer, damit der Overhead weniger und die Performance besser, aber ganz ohne dürfte es auch nicht sein, aber ich keine UASP dafür nicht genau genug um das bewerten zu können.
Es ist mir etwas unangenehm, daß Du hier kostbare Erklärungen - für die ich natürlich sehr danbar bin - für mich verschwendest, der leider mangels Kenntnis, Auffassungsgabe nur einen Teil davon versteht, aber einfach ausgedrückt für mich, daß ich mir das ungefähr vorstellen kann, ist es wohl so, daß einfach so ein Bit auf dem Weg von einer rostfreien (ich muß das Bild der rostenden Scheiben loswerden, sonst sehe ich - schon schwer paranoisiert [und mit zitternden Händen schreibend] ob der schwindenden Bits auf meinen Platten - hier überall nur noch rottende, rostende Bits von der Zentrifugalkraft der Scheibe fligen und für immer dahinschwinden) Scheibe zur anderen auf gewissen Teilbereichen des Weges in Gefahr unbemerkt zu kippen (verschwinden ist wohl das selbe / gleiche) mangels Kontrolle / Korrektur gegeben ist, ein gewisses Risiko besteht zumindest, auf anderen Teilstrecken hingegen ist es sehr sicher. Beim Kopieren auf derselben Platte, fallen ja - falls ich recht sehe - Teilstrecken weg im Vergleich zum Kopieren / Verschieben auf eine externe Platte. Vielleicht lassen sich so ja auch Fehlerquellen ausschließen, da ja auch beim Kopieren auf einer Platte das Problem identisch scheinend vorhanden ist.
Dann gibt es aber eben noch die internen Datenpfade auf der Platte, wozu deren Cache gehört, ebenso das SRAM auf den Controllern, das sind normale CPUs die entweder auf ARM Basis sind oder noch die alten 8051er CPUs enthalten und die haben alle auch intern ein SRAM in dem sie die Daten zwischen dem Eingang auf der einen Seite zum Ausgang auf der anderen Seite zwischenlagern müssen. Da könnten ggf. auch Bit kippen, da hängt es von Controller ab ob er das merkt, bei billiger Consumer HW stehen die Chancen eben schlecht, siehe WD HDDs. Aber es gibt auch den USB SATA Bridgechip und den USB3 Host Controller sowie den SATA Host Controller für die interne Platten, also mehr als genug Risiken. Enterprise Platten und richtige Enterprise SAS Controller schützen diese internen Datenpfande natürlich auch vor Bitfehlern, gute Enterprise HW kostet eben nicht nur mehr, sie kann auch mehr.
Ich wußte nicht einmal, daß es da - über die vergleichsweise lächerlichen Merkmale, auf die ich so geachtet habe beim Kauf einer Festplatte - noch so unfaßbar viel zu beachten gibt, wollte man nicht, wie ich bislang, einfach nur die billigste mit der größter Speicherkapazität haben. Damit wäre ich ja beim Kauf schon hoffnungslos unfähig. Offenbar gibt es da noch unendlich viele Arten / Modelle an Platten, die mir völlig unbekannt sind mit verschiedenen Eigenschaften von irgendwelchen Systemen wie NAS, RAID und was es da wohl noch so alles geben mag gar nicht erst zu reden.
Ach ja, gibt es eigentlich Versionen von Win, die ECC-RAM unterstützen oder müßte man da ein völlig anderes OS nehmen?
Wie Du sieht, sieht es für Consumer HW folgendermaßen aus:
1.) Daten auf dem Medium -> per ECC geschützt
2.) Daten im Cache des Controllers der HDD -> meist nicht geschützt
3.) Daten über SATA -> per CRC geschützt
4.) Daten im Puffer des SATA/SAS Host Controller -> meist nicht geschützt
5.) Daten über PCIe zum Host -> geschützt
6.) Da SATA Host Controller dann auch noch am Chipsatz hängen, gibt es noch einen Schritt über DMI zur CPU, was auch PCIe ist.
7.) Daten in der CPU zum RAM Controller (früher wäre das in der Northbridge, die sitzt ja heute in der CPU), keine Ahnung, aber ich hoffen doch das die die Daten schützt, die Xeons sollten es tun und warum sollte Intel das beschneiden?
8.) Daten auf den Weg ist RAM -> Bis DDR 3 ohne ECC RAM ungeschützt, seid DDR4 geschützt selbst ohne ECC RAM
9.) Daten im RAM -> nur bei ECC entsprechend dem ECC geschützt
Ist ja unfaßbar komplex / kompliziert für mich. Also noch einmal resümierend und sehr laienhaft ausgedrückt könnte man - falls ich das wenigstens in so weit richtig verstanden habe - sagen, ein Bit ist auf diesem langen, komplizierten Weg unterschiedlich hohen Risiken (selbst bei voll intakten Systemen ohne ECC) ausgesetzt unbemerkt oder bemerkt (je nach Prüfung und danach, ob das Bit überhaupt gerpüft wird) zu kippen. Und je geringer man das Risiko (unbemerkt) gekippter Bits haben will, desto mehr Aufwand muß man wohl betreiben und desto mehr muß man zahlen.
Auch von Microsoft gibt es eine Analyse zu Hardwarefehlern:
Even without overclocking, faster CPUs become faulty more rapidly than slower CPUs.
Ist hier mit "faulty" tatsächlich gemeint, die CPU wird einfach defekt im Sinne davon, daß einfach das Bauteil kaputt geht oder daß etwa zwar die CPU intakt (was man auch immer als "intakt" in diesem Zusammenhang ansehen mag) bleibt, aber einfach anfälliger (vielleicht durch Hitze, Belastung, Verschleiß) für diese Art Fehler wird, schwächer wird? Auf jeden Fall unfaßbar erstaunlich.
Vom Übertakten von CPUs habe ich schon öfter mal etwas gelesen, bzw. am Rande wahrgenommen. Dann könnte man ja davon ausgehen nach dem Lesen dieser Analyse, daß, wer eine CPU übertaktet entweder verdammt genau weiß, welche Konsequenzen das haben kann und was er da tut (oder lieber läßt), bzw. hat oder sich damit unfaßbare Probleme schafft. Oder sollte man von dieser Analyse lieber ableiten, daß man übertakten lieber sein lassen sollte oder darüberhinaus gar lieber sogar leicht untertakten sollte?
Brand name desktop machines are more reliable than white box desktops,
Falls ich den Begriff "white box desktops" richtig nachgeschlagen habe, bedeutet das, daß Menschen, die sich eigenes einen Computer aufwändig selber zusammenbasteln, anders als vermutlich erwartet einen unzuverlässigeren Computer haben als einen sogenannten Marken-Compuer. Erstaunlich.
but brand name laptops are more reliable than brand name desktops.
Ich hätte vermutet, es wäre genau umgekehrt, wie kann das denn sein?
Machines with more DRAM will suffer more one-bit and CPU errors, but fewer disk failures.
Daraus ließe sich ja wohl folgern, daß man, wenn man einen in dieser Hinsicht so zuverlässigen Rechner wie möglich haben wollte, auch noch das Verhältnis der durch die Größe des DRAM mehr verursachten Fehler zu den von dabei von Festplatten weniger verursachten Fehlern setzen müßte. Das ist ja...und dann gibt es bestimmt noch Verhältnismäßigkeiten zu anderen (Größen / Verhalten von) weiteren Bauteilen.
Our analysis demonstrates that almost 80% of machines that crashed more than once from a 1-bit DRAM failure had a recurrence at the same physical address as a prior failure.
Das heißt pauschal ausgedrückt - klingt so abwegig, daß ich meine, es nur falsch verstehen zu können -, daß in Folge von mehr als einem Crash gecrashte Systeme aufgrund eines 1-bit-Fehlers einfach schwächer sind / werden? Oder anders ausgedrückt, je öfter ein System schrotet infolge von 1-bit-Fehlern, desto fehleranfälliger wird es?
Ja, bei Heimanwendern schon, Profis nutzen bei allen Servern und Workstations eben passende Enterprise HW mit ECC RAM, Platten / RAID und Controllern die davor Schutz bieten. Je näher der Schutz an 100% kommen soll, umso teurer wird es und am Ende landet man wie gesagt beim Mainframe.
Ah ja, gut, die Bestätigung zu dem, was ich oben meinte, je sicherer desto teuerer (und wohl komplizierter).
Heimanwender wollen vor allem Billig, bekommen auch billig und ohne so viel Schutz, da wird nur abgesichert wo die Risiken am höchsten sind, also auf dem Medium, weil eben gekippte Bits bei Magnetscheiben und auch im NAND häufig sind und bei den Übertragungen über Leitungen wie bei SATA und USB, weil auch dort Probleme besonders häufig sind. Das muss reichen um meistens zu funktionieren und mehr gibt es für wenig Geld eben nicht und in den allermeisten Fälle reicht es ja auch, sonst wären die Foren voll mit Leuten mit Problemen wie Deinem, aber die gibt es eben nur ab und an mal.
Ja, und das verstehe ich irgendwie nach wie vor nicht, es gibt ja offenbar viele Heimanwender (mit eben dieser sogenannten Consumer Hardware, aber wohl auch vielen mit besseren Systemen), die gigantische Datenmengen auf Platten haben. Da müßte es doch viel öfter Beiträge in Foren geben; aber ich könnte mir vorstellen das die "Dunkelziffer" eben recht hoch ist, weil so ein Problem wohl schwer / aufwändig lokalisierbar ist, einfach überhaupt unerkannt bleibt (also jedenfalls bis auf hier und da vielleicht mal eine kaputte Datei, deren Ursache unerkannt / unerforscht bleibt).
Meine Notebooks, damit die RAM, sind ca. 4 Jahre alt, wenn nach 10 bis
18 Monaten die Fehleranfälligkeit beim RAM sich erhöht, wäre die Zeit
für diese Fehler ja schon lange bei mir gekommen.
Nicht unbedingt, oder lauft das Notebook 24/7 durch, wie es bei Servern üblich ist? Bei 8 Stunden täglich kommen in 4 Jahren weniger Betriebsstunden zusammen als bei 18 Monaten Dauerbetrieb.
Ach so, die Angaben bezogen sich auf Dauerbetrieb, hatte ich übersehen / nicht beachtet. Wenn ich zu Hause bin läuft ein Notebook ca. 16 bis 18 Stunden täglich, schätze ich.
Nein, man sollte es nur ab und an mal gründlich testen, wenn es dann die Zeit hinter sich hat und noch immer keine Fehler (hard-errors) aufweist, warum sollte man es dann tauschen und das Risiko eingehen beim neuen RAM Fehler zu bekommen, ggf. erst nach entsprechender Zeit der Nutzung?
Ja, das ist verständlich, warum solle man ein funktionierendes System aus besagtem Grund auch wechseln / ändern, wenn es gar keinen (konkreten) Anlaß gibt.
Wenn wie die Studie es nahelegt nach einiger Zeit die Wahrscheinlichkeit fällt das RAM doch noch anfängt Fehler zu haben, dann ist entsprechend altes RAM welches keine Fehler hat ja doch besser als neues RAM bei dem man das noch nicht weiß.
Ja, natürlich, das ist einleuchtend.
Auch nicht 100%ig, was aber kein Argument ist den Test mit Memtest86+ nicht zu machen. Die Restrisiken sind halt einmal die Belastung, auch die thermische, die bei Memtest86+ eher gering ist und damit können Fehler die bei höheren Lasten entstehen, sei es wegen der Temperatur oder der Spannungsversorgung, damit eben u.U. nicht gefunden werden oder auch das Problem bei unterschiedlichen SPD Informationen in den Riegel, das ist ein ganz fieses, wie ich ja schon erwähnt habe.
Ja, stimmt, hatte ich außer Acht gelassen.
Dann wäre es ja bestimmt gut, wenn MemTeest86+ auch Last / höhere Leistung erzeugen könnte bei der Überprüfung, um die nur dann eventuell auftretenden Fehler auch zu erzeugen.
Die kommen in jedem RAM vor, die werden auch eben nur mit ECC RAM überhaupt erkannt, da hat man mit Tools wie Memtext86+ praktisch keine Chance diese zu finden.
Ja, Verzeihung, so hatte ich es jetzt eigentlich auch verstanden, falsch ausgedrückt nur.
Das ist einerseits gut, aber andererseits hat damit der Hauptverdächtige schon mal ein gutes Alibi, aber prüfe z.B. mit CPU-Z oder HWInfo ob die RAMs identisch sind und möglichst das gleiche Produktionsdatum aufweisen.
Ich hätte gedacht, da der RAM ja im Werk eingebaut wurde, die Computer so ausgeliefert wurden, daß RAM-Riegel wenigstens derart (eingebaut) sein müßten, daß sie hinsichtlich dieses Anspruches auch einwandfrei funktionieren, aber das muß also auch nicht so sein.
Es sind ja zwei Aldi-Notebooks, bei denen beide die Dateien auf augenscheinlich gleiche / selbe Ursache korrupt werden.
Ich hoffe, daß sind die richtigen Informationen:
Medion akoya P6630:
Slot 2 und 4 werden mit leeren Feldern angezeigt, weil es ja nur 4 GB RAM sind wohl. Speccy zeigt Slot 1 und 2 als mit RAM besetzt an, wenn ich recht sehe, aber das hat wohl keine besondere Bedeutung, ist wohl einfach nur eine andere Zuordnung im Programm.
Week/ Year wird identisch angezeigt für beide Slots, bedeutet wohl selbe Herstellungszeit.
Da Du keine RAM Fehler hast, fällt das für Dich weg, bei Notebooks kann man im BIOS/UEFI sowieso meist nur sehr wenig einstellen.
Puh, gottseidank.
Z.B., wenn also im RAM 1,5 GB RAM frei wären und die zu kopierenden Datei 1,6 GB groß, dann könnte man davon ausgehen, daß die Kopie zur Prüfung von der Platte gelesen würde.
Das hängt von der Cachestrategie des OS ab, aber mindestens 100MB müssen dann von der Platte kommen.
Ach so, die Überprüfung kann also auch in Kombination, also anhand eines teilweise (noch) im RAM befindlichen Teils der Datei und eines bereits auf Platte geschriebenen Teils geschehen.
Nein, so einen HP Gen8 kann man für 200€ kaufen, dann baut man noch ordentliche Platten ein und vielleicht einen USB Stick für das Betriebssystem und nimmt eine fertige Distribution wie OMV (Debian Linux basiert), NAS4Free oder FreeNAS und schon hat man einen Heimserver der bzgl. der Datensicherheit und Performance jedes normaler NAS Gehäuse in ähnlichen Preisregionen locker schlägt.
Ah, hätte ich gar nicht gedacht, die Kosten sehen auf den ersten Blick gar nicht so hoch aus, aber bei ca. 12 vollen Platten, davon ca. 7, 8 mit durchschnittlich 4TB wird das wohl auch nicht ganz billig werden.
Das ist nicht kompliziert, man muss sich nur die Distribution suchen die einem am Besten gefällt und diese dann eben selbst aufspielen, der Rest geht dann über ein Web-Interface wie bei den NAS Gehäusen auch. Man ist aber eben viel flexibler und hat eine weitaus potentere HW zu Verfügung.
Dazu braucht man dann Win gar nicht mehr wohl, bzw. könnte es gar nicht erst nutzen, ist ja ein anderes Dateisystem, das diese Sicherheit überhaupt erst bietet.
So ist es, wie Du siehst hat sich auch hier der erste Verdacht noch nicht bestätigt, mal sehen was mit Prime95 passiert.
Ja, das Ergebnis werde ich nachher gleich nachreichen.
Ja, die vernachlässigte Gefahr, vielen ist das Thema nicht bewusst. Wobei ich den Artikel nicht besonders gut finde, auf die RAM Fehler wird nicht eingegangen und es wird übersehen, dass die Platten je selbst immer eine ECC für jeden Sektor haben und kleine Fehler korrigieren können, bei großen Fehlern dann Fehlermeldungen ausgeben, aber andererseits eben die billigen Consumer Platten selbst keinen Schutz auf ihre internen Datenpfaden bieten. Außerdem werden da Äpfel mit Birnen vergleiche, ein ZFS RAID gegen ein einfach Volumen ohne RAID, bei dem dann ein defekte Sektor zu Lesefehlern führt, so dass man die Datei nicht mehr lesen kann, die Daten dann verloren hat wenn sie nicht im Backup stehen, aber wenn man ein RAID 1, 10, 5 oder 6 hat, dann passiert das auch ohne ZFS nicht, dafür macht man ein Scrupping des RAIDs um eben solche nicht lesbaren Sektoren zu finden und wiederherstellen zu können. Auch ohne ZFS gibt es genug Wege die Silent-Data-Corruption zu vermeiden, nur muss man zuerst einmal ordentlich HW haben, das ist die Basis dafür.
Also ein gutes Beispiel immerhin dafür, wie schwer es ist - für Menschen wie mich eben einfach schlicht unmöglich - erkennen zu können, was / wem man glauben kann, wessen Information diejenigen sind, die brauchbar sind, nicht irreführend etc.
Hier eine dieser 4 Elements-Platten:
Die Werte sehen gut aus, aber die hat kein Attribut für Ende-zu-Ende Fehler, wenn da auf den internen Datenpfade oder im Cache RAM etwas kaputt ist, wird das nie auffallen.
Ja, das war es ja, was Du schon vorher als ziemlich wahrscheinlich genannt hattest.
Die hat allesdings Fehler:
Zitat Zitat von Pixell Beitrag anzeigen
Code:
(1) ST1000LM024 HN-M101MBB
Serial Number : xxxxxxxxxxxx613
....
ID Cur Wor Thr RawValues(6) Attribute Name
01 100 100 _51 000000000021 Lesefehlerrate
...
0B 100 100 __0 0000000002C5 Rekalibrierungswiederholungen
...
BF 100 100 __0 000000000024 G-Sense Fehlerrate
...
C8 __1 __1 __0 0000000164FE Schreibfehlerrate
Die hat einige G-Sensor Auslösungen und wurde also zu harten Schocks ausgesetzt, daher wohl auch einige Lesefehler, aber wenigstens keine schwebenden Sektoren, aber viele Schreibfehler. Da müsste es eigentlich auch schon mal Fehlermeldungen geben. Wenn das Notebook viel mobil genutzt wird, mechanische Belastungen als nicht zu vermeiden sind, würde ich eine SSD empfehlen, die vertragen diese Stöße weitaus besser als HDDs. Eine Ende-zu-Ende Fehler Attribut hat sie auch nicht, das ist bei den 2.5" Consumer Platten noch seltener zu finden als bei den 3.5".
Au Backe, mir wird...die interne 1000 GB-Platte also.
Dieser Wert - BF 100 100 __0 000000000024 G-Sense Fehlerrate - gibt also wohl die Intensität eines Schocks, etwa eine Falles, Stoßes einer Platte an und vielleicht noch die Anzahl der Stöße. Muß es denn ein Stoß (den ich eigentlich ausschließen würde bei diesem Notebook) gewesen sein oder kann es auch jegliche andere mechanische Einwirkung sein, die da erfaßt wird? Etwa das übermäßige Drücken, biegen eines Notebooks. Ach ja, schlagen auf die Tastatur würde wohl auch als Schock erfaßt werden, oder? Die Notebooks benutze ich sozusagen einzig zu Hause, nie im Freien, schon lange nicht mehr woanders ansonsten.
Nein, bisher noch keine Fehlermeldung (ist ja erstaunlich, verstehe ich gar nicht), die ich darauf zurückgeführt hätte (weiß aber nicht, wie ich das aus meiner gegenwärtigen Sicht, im nachhinein werten würde), die mir hätte so einen Verdacht nahelegen können. Das Notebook läuft aber katastrophal, langsam, träge, instabil, würde ich sagen, nahezu unbrauchbar. Dann wäre das offenbar einen Erklärung dafür. Ständig "Keine Rückmeldung" einhergehend mit milchig dargestellten Fenstern.
Ach ja, bei den internen Platten, bei den 2,5"-Platten also ohnehin, verhält es sich hinsichtlich der Fehlerkorrektur also gleich oder ähnlich wie bei den externen (Consumer-)Platten auch (abzüglich einiger Wege, USB-Kabel etwa).
Aber können diese Defekte der internen Platte die Dateikorruptionen auch auf den externen Platten auslösen?
Ich glaube´(und vor allem hoffe), die Software der Platte oder des OS sorgt dafür, daß nur fehlerfreie Sektoren benutzt werden. Aber benachbarte Sektoren etwa können wohl auch schnell kaputt gehen. Die Schreib- und Lesefehlerraten geben also wohl an wie oft ein Fehler beim Lesen / Schreiben auftritt, es wird aber vermutlich solange gelesen / geschrieben, bis die Daten richtig gelesen / geschrieben sind, aber das kann bestimmt auch Zeit in Anspruch nehmen, die sich in der Langsamkeit des Rechners wohl deutlich zeigen kann.
Schwebende Sektoren...ist das richtig, was ich hier gelesen haben (
http://forum.chip.de/festplatten-laufwerke-ssd/ursache-fuer-schwebende-sektoren-1457749.html):
schwebende Sektoren sind als defekt markierte Bereiche auf der Festplatte und warten auf ihre entgültige Sperrung/ Neuzuweisung (wiederzugewiesene Sektoren)
Schwebende Sektoren können durch eine vollständige (intensive) Datenträgerüberprüfung oder vollständigen Formatierung repariert werden.
Hilft das nicht wird der Sektor als Unkorrigierbarer Sektor eingestuft und später als wiederzugewiesener Sektor.
Diese Sektoren werden aus einem Reservepool ersetzt, dieser ist begrenzt, d.h. es kann nur eine gewisse Anzahl von Sektoren neuzugewiesen werden.
Das sind hier Oberflächendefekte die nicht mehr behoben werden können.
Durch diese Sektoren besteht die Gefahr, dass das System einfriert und Daten verloren gehen. Auch Fehlermeldungen beim Kopieren, installieren, usw. können auftreten.
Ärgerlich, den Fehler hätte ich ja selber auch leicht entdecken können, hätte ich mir nur einmal laienhaft die Zahlen angesehen, das wäre woh auch für mich verständlich gewesen zu einem geringen Teil.
Die Platte kann - und wohl vor allem, sollte - ich also recht bald, wohl eher schnellstens, einfach wegschmeißen, schätze ich.
Hier auch noch von Western Digital Data LifeGuard Diagnostics ein Test:
WD LifeGuard geht nur für WD Platten, bei denen anderer Hersteller (außer vielleicht HGST die ja nun WD gehören) ist es wenig hilfreich.
Ich meinte mich zu erinnern, sogar auf der WD-Website - oder sonstwo, vielleicht in einem Forum - gelesen zu haben, daß das Programm für alle Hersteller geeignet wäre; aber das könnte ich auch mit SeaTools verwechseln. Also gut, nur herstellerbezogen verwenden.
Nein, dazu gehört im Grunde alles was dafür verantwortlich ist, dass die Kopie der Daten auf einer Platte nicht mit der auf einer anderen Platte übereinstimmt, oder mit dem was man mal geschrieben hat oder auch dafür sorgt, dass eine Datei nicht mehr gelesen werden kann.
Gut, also dann gehört dazu einfach, hoffentlich kann man das so allgemein ausdrücken, bzw. verstehe ich es richtig, jedes Bit, das einfach unbemerkt kippt.
Mit dem Programm, h2testw, - vielen Dank für den Link - hatte ich auch schon ein paar GB, vielleicht 500 GB oder so getestet, kein Fehler angezeigt, deshalb dachte ich, diese Fehler kommen vielleicht eben nur beim "normalen" Transfer vor, nicht bei diesem Test.
Man müsste hier beide Platten testen, denn beide haben keine Erkennung von Fehlern auf den internen Datenpfaden. Man sollte auch ruhig so 5 oder 10GB Testdaten von h2testw auf der Platte stehen lassen um diese regelmäßig mal zu prüfen, also ob auch nach längerer Zeit die noch fehlerfrei lesbar sind.
Also alle betroffenen Platten testen, es waren ja mehr als zwei, nicht nur die 4 TB Elements-Platten, auch die 5TB Seagate, die externe 640 GB-2,5"-Platte und vielleicht noch mehr.
Gut, also ca. 5 bis 10GB Daten von h2testw auf den Platten belassen und öfter mal überprüfen. Und hoffen - oder auch nicht -, daß es gerade auch der Bereich ist, auf dem diese Daten gespeichert sind, der Fehler hervorrufen könnte.
Wenn es nicht das RAM ist, also wenn auch Prime95 keine Fehler zeigt und damit RAM und CPU auch unter Last problemlos arbeiten, dann könnte es am USB Host Controller, den USB-SATA Bridgechips, den Platten in den Gehäuse oder auch dem USB Treiber liegen. Teste die USB Platten mit h2testw, damit kannst Du die ganze Kette prüfen die die Daten zurücklegen.
Ach, so viele Möglichkeiten bleiben immer noch offen.
Kann ich denn den RAM mit dem Notebook mit der defekten Platte überhaupt noch testen, so daß Fehler erkennbar auf den RAM zurückzuführen sind und nicht von der defekten Platte verursacht werden?
Und wenn h2testw einen Fehler meldet, weiß man erst einmal, daß der Fehler hier - "USB Host Controller, den USB-SATA Bridgechips, den Platten in den Gehäuse oder auch dem USB Treiber liegen" - zu finden ist, nicht mehr woanders, sehe ich das richtig? Dann muß man in dieser Gruppe den Fehler (nur noch) lokalisieren.
Bei deren Schreib- und Lesefehlern schon fast ein Wunder, aber die Platte scheint es immer noch zu schaffen die Daten dann doch zu lesen oder zu schreiben. Tausche die trotzdem, ihr Zustand ist schon grenzwertig.
Ah, ja, da ist schon die Antwort auf meine Frage oben, also wegschmeißen. Das heißt, ich muß Win (die frage ist, welches ich nehmen sollte) neu installieren (welch unfaßbarer Aufwand), somit ist jetzt definitiv der richtige Zeitpunkt ein neues Notebook zu beschaffen.
Ja, aber daß ich keine Fehlermeldungen erhalten habe, ist ja tatsächlich äußerst verwunderlich wohl. Aber das erklärt immerhin wohl die katastrophale Leistung des Notebooks.
Da Du Datenkorruption hat, solltest Du alle Transfers vermeiden, bis die Ursache gefunden und behoben ist und bei den unvermeidbaren eben Dateiinhalte vergleichen. Ich habe mit z.B. ein kleines Tool geschrieben welches da macht, es vergleiche Dateien oder Ordner und löscht sie dann eine davon, wenn alles zu 100% übereinstimmt, da wird wirklich Bit für Bit vergleichen.
Ja, das ist einleuchtend, jeglichen Transfer möglichst zu meiden.
Also, ich sollte den Vergleich von Dateiinhalten dem Prüfen nach Prüfsumme vorziehen?
Ja, so ein Tool klingt natürlich verdammt gut. Ich kopiere eigentlich (große Datenmengen) nur mit einem Synch-Programm, das kann nach der Übertragung jeder Datei einzelnen Datei automatisch den Inhalt prüfen (mit der schon besprochenen Unzuverlässigkeit) und kopiert die unkorrekt übertragenen sofort automatisch noch einmal. Mit dem Programm kann ich auch manuell einen Vergleich nach Inhalt nach der kompletten Übertragung aller Dateien ausführen. Es dauert eben alles verdammt lange (mit USB 2.0).
Ein NAS ist erstmal nur ein Speicher auf den man über ein Netzwerk zugreift, auch wenn vielen vor allem diese keinen Gehäuse die es extra dafür zu kaufen gibt darunter verstehen. Man kann aber jeden Computer der Dateien über ein Netzwerk freigibt als NAS ansehen, das muss keine extra dafür gedachte und gemachte Kiste sein.
So kann ich so einen NAS also einfach als (große) Festplatte über Netzwerk (und wohl nur über Netzwerk) zugreifbar ansehen, der noch einen eigenen Computer hat, mit dem man den NAS wohl verwalten kann.
Die Anwendungen dafür sind vielfällig, aber auch Daten die nur auf einem NAS stehen, muss und sollte man extra sichern, wenn man sie nicht verlieren will, das sind keine Tresore für Daten für die viele Anwender sie offenbar halten.
Ja, es müssen / sollten also verständlicherweise auch bei so einem System eben die Dateien zur Sicherheit (mindestens) doppelt vorhanden sein. Ich meine gelesen zu haben, daß so ein NAS automatisch irgendwie korrupte Dateien erkennen und auch ebenso austauschen kann mit intakten, das ist wohl der Grund, warum der als Tresor angesehen wird. Aber das würde ja wohl auch erfordern, daß Dateien eben mindestens doppelt vorhanden wären.
Hast Du denn Sicherungen davon? Oder wäre etwas wichtige verloren, wenn jetzt z.B. eine der USB Platten oder die interne komplett ausfallen würde, etwas weil sie runterfällt?
Also...tja, es ist mir peinlich das zuzugeben...es gibt nur eine Sicherung - von der ich nicht weiß, wieviel sie taugt infolge inkorrekter Datenübertragung und der - soeben bekannt gewordenen defekten Platte - für die wirklich allerwichtigsten Dateien, also in der Tat von dieser defekten internen Platte. Wenn ich mit einer externen Platte hier von Zimmer zu Zimmer gehend in meiner Wohnung straucheln würde und sie auf den Boden knallen würde, dann...aaaargh...!...wäre ich wohl nicht mehr ansprechbar...aber etwa 12 Platten zu sichern (dazu noch mit USB 2.0) ist ja allein mit einem intakten Laien(Consumer)System schon unfaßbar (zeit-)aufwändig, von den Kosten ganz zu schweigen. Aber es ist natürlich...eigentlich nahezu sinnlos keine Sicherungen zu haben.
Vielleicht wär ein solche HP Gen8 als Heimserver / NAS und die alten USB Platten als Backups dafür bei Dir nicht die schlechteste Lösung, dann hast Du die ganze Daten zentral an einer Stelle. Ende 2013 hatte ich auch die Schnautze voll mit immer mehr USB Platten hantieren zu müssen und mit den HP N54L geholt, 5 WD Red 3TB unter OMV als SW-RAID 5 verbaut und nutzen die alten USB Platte nur noch als Backups.
Ja, das stimmt, die Hantiererei mit den Platten allein schon ist einfach Wahnsinn genug. Zu wissen, welche Dateien auf welcher Platte sind, einstöpseln, (Datenträger bei Win "sicher") ausstöpseln (obwohl ja dieser Cashe - weiß gar nicht, ob es wirklich einer ist - nach Voreinstellung deaktiviert ist, also jedenfalls diese Funktion, die die Datenverarbeitung schneller machen soll bei Win) und immer Warterei.
Da muss man sich einarbeiten, so schwer ist das aber nun auch nicht, es gibt ja fertigte SW Distributionen die man installieren kann und dann hat man eine graphische Oberfläche per Brower und damit praktisch das gleiche wie bei einem fertigen NAS.
Ja, das stimmt, und man kann wohl auch (leider) extrem deutlich sagen, wenn ich statt mich um dieses Korruptions-Problem zu kümmern mit so einer Distribution, einem NAS oder womit auch immer in dieser Richtung befaßt hätte, dann...
Na das war ja mal ein Forumsbeitrag!
Und mein letzter erst, 3 Stunden, aber was tut man nicht alles um Forenkollegen zu helfen.
Ups, Wahnsinn (glaube, ich habe für meinen auch ganz schön lange gebraucht), Deine Beiträge sind aber auch die mit Abstand besten, die ich selber jemals gekriegt habe, gibt es ja eigentlich normalerweise nicht (in Foren schon gar nicht), Beiträge derartiger Qualität im Netz, bzw. eigentlich kenne ich derartige gar nicht; und Verzeihung, habe es bisher unterlassen mich zu bedanken, also allerherzlichsten Dank für die grandiose Hilfe. Freut mich wirklich extrem. Ja, und allein deswegen - ich hatte es ja in diesem Beitrag oben schon einmal erwähnt - ist es wert, sehr Interessant diese Korruption / das Problem nicht einfach auf sich beruhen zu lassen (mit dem Kauf eines neuen Notebooks).
Die Prime95-Ation versuche ich nachher mit dem anderen Notebook zu machen und mit dem, das ich gerade benutze, liefere ich so schnell wie möglich nach das Ergebnis. Auch die CrystalDiskInfo-Werte von der Platte des anderen Notebooks und die Daten über den RAM des anderen.
Wenn Geld keine Rolle spielt und Du möchtest etwas verlässlich Gutes, dann hole Dir ein NAS-System von Synology oder Thecus MIT ECC-RAM. Die teureren Modelle beider Hersteller haben das. Selber bauen wäre günstiger, aber soweit bist Du nach Deiner Selbsteinschätzung noch nicht.
Aber die ganz teuren, die anderen haben zwar teils Xeon CPU, aber kein ECC RAM!
Nimm z.B. denASUSTOR AS7004T, der hat einen Core i3-4330 der ECC RAM unterstützt, aber es hat ein ECC RAM und damit bekommt man dort für 1000€ im Grunde nichts, was der kleine HP ProLiant MicroServer Gen8, Celeron G1610T, 2GB RAM (712317-421) ab € 204,85 (Upps, dessen Preis steigt je täglich, scheint auch schon nicht mehr produziert und damit knapp zu werden) mit einer freien FW nicht auch bietet, ok eine etwas bessere CPU gibt es für 1000€, aber kein ECC RAM und die bessere i3 CPU oder einen Xeon kann man beim HP nachrüsten. Wer da für den ASUSTOR 1000€ hinlegt, hat selbst Schuld. Ich finde diese NAS Kisten total überteuert und dann haben die eben meist kein ECC RAM, was echt Blödsinn ist.
Also könnte man NAS ja schon einmal ausschließen allgemein. Aber das sind doch schon ganz schöne Summen, die da Zustande kämen, so richtig billig wird das bei den anderen Produkten - vielen Dank für die Links - auch nicht so recht...also man könnte vielleicht eher sagen, es würde irgendwie verdammt teuer. Nach allem, was ich da sehe, scheint mir nichts anderes als ein profanes (aber für mich passendes) Notebook und weiterhin übles Hantieren mit den Platten übrig zu bleiben.
Wenn ich ausnahmslos immer (weiß gar nicht, ob das überhaupt im Alltag durchführbar wäre) bei allen Transfers nach Inhalt oder Prüfsumme - also natürlich bei einem intakten (Laien-)System mit neuem Notebook und USB 3.0 (aber so viel schneller ist das wohl auch nicht unbedingt als 2.0) -, prüfen würde, könnte ich damit zumindest größtenteils Datankorruption vermeiden? Ach nein, natürlich auch nicht unbedingt, fällt mir gerade ein, da ich die Frage schreibe, beim Transferieren vielleicht sogar schon (könnte ich mir denken), aber bei anderen Aktion, etwa beim Entpacken von Archiven ginge das ja wohl nur mit extremem Aufwand. Hatte ja schon viele Archive entpackt mit korrupten Dateien ohne Fehlermeldung (also aufgrund des gegenwärtig bestehenden Problems). Die Dateien sind also tatsächlich auf dem Weg nach dem korrekten Entpacken wohl defekt geworden, bzw. defekt auf der Platte gelandet. Und es gibt ja noch viele weiter Schreibvorgänge (etwa das bloße Speichern einer Datei wohl) bei denen unbemerkt Dateien kaputt gehen können. Au Backe, momentan schwinden mir etwas die Sinne...
Allerherzlichsten Dank noch einmal.
Nachtrag:
Verzeihung, ich hatte nicht daran gedacht, zu erwähnen, daß die defekte Platte zu dem Notebook gehört, bei dem ich noch keinen aktuellen Speichertest gemacht habe. Der Speichertest gehört zu dem Medion P8614, für das ich heute morgen das Prime95-Test-Ergbnis liefern will und die CDI-Werte für dessen interner Platte.
Ich glaube, einen Stresstest macht der Computer automatisch ständig selbst schon, läuft ständig bei 100 %:
Ich hoffe, ich habe die richtigen Informationen und auch die richtige Darstellung gewählt.
Habe Prime95 so, also mit den Voreinstellungen, ausgeführt auf dem Notebook mit der defekten Platte:
HWiNFO Sensors vor dem Start von Prime:
Hier der das Prime95-Ergebnis von dme Notebook mit der defekten Platte, hoffe ich habe den richtigen Test richtig machen lassen:
[Main thread Aug 19 00:29] Stopping all worker threads.
[Main thread Aug 19 00:29] Execution halted.
---------------------------------------------------------------------------
[Aug 18 22:15] Worker starting
[Aug 18 22:15] Setting affinity to run worker on logical CPU #1
[Aug 18 22:15] Beginning a continuous self-test to check your computer.
[Aug 18 22:15] Please read stress.txt. Choose Test/Stop to end this test.
[Aug 18 22:15] Test 1, 6500 Lucas-Lehmer iterations of M12451841 using Pentium4 type-2 FFT length 640K, Pass1=640, Pass2=1K.
[Aug 18 22:27] Self-test 640K passed!
[Aug 18 22:27] Test 1, 800000 Lucas-Lehmer iterations of M172031 using FFT length 8K.
[Aug 18 22:37] Self-test 8K passed!
[Aug 18 22:37] Test 1, 5300 Lucas-Lehmer iterations of M14155777 using type-2 FFT length 720K, Pass1=320, Pass2=2304.
[Aug 18 22:48] Self-test 720K passed!
[Aug 18 22:48] Test 1, 460000 Lucas-Lehmer iterations of M250519 using type-0 FFT length 12K, Pass1=48, Pass2=256.
[Aug 18 22:58] Self-test 12K passed!
[Aug 18 22:58] Test 1, 4500 Lucas-Lehmer iterations of M15597569 using Pentium4 type-2 FFT length 800K, Pass1=640, Pass2=1280.
[Aug 18 23:07] Self-test 800K passed!
[Aug 18 23:07] Test 1, 340000 Lucas-Lehmer iterations of M339487 using type-1 FFT length 16K, Pass1=64, Pass2=256.
[Aug 18 23:20] Self-test 16K passed!
[Aug 18 23:20] Test 1, 4000 Lucas-Lehmer iterations of M18474367 using type-2 FFT length 960K, Pass1=256, Pass2=3840.
[Aug 18 23:32] Self-test 960K passed!
[Aug 18 23:32] Test 1, 210000 Lucas-Lehmer iterations of M501041 using type-1 FFT length 24K, Pass1=96, Pass2=256.
[Aug 18 23:43] Self-test 24K passed!
[Aug 18 23:43] Test 1, 3100 Lucas-Lehmer iterations of M21871519 using type-2 FFT length 1120K, Pass1=448, Pass2=2560.
[Aug 18 23:52] Self-test 1120K passed!
[Aug 18 23:52] Test 1, 160000 Lucas-Lehmer iterations of M662593 using Pentium4 type-1 FFT length 32K, Pass1=128, Pass2=256.
[Aug 19 00:01] Self-test 32K passed!
[Aug 19 00:01] Test 1, 3100 Lucas-Lehmer iterations of M22971521 using type-2 FFT length 1200K, Pass1=320, Pass2=3840.
[Aug 19 00:11] Self-test 1200K passed!
[Aug 19 00:11] Test 1, 100000 Lucas-Lehmer iterations of M983041 using type-1 FFT length 48K, Pass1=64, Pass2=768.
[Aug 19 00:21] Self-test 48K passed!
[Aug 19 00:21] Test 1, 2500 Lucas-Lehmer iterations of M26138689 using type-2 FFT length 1344K, Pass1=448, Pass2=3K.
[Worker #4 Aug 19 00:24] Self-test 1200K passed!
[Worker #4 Aug 19 00:24] Test 1, 100000 Lucas-Lehmer iterations of M983041 using type-1 FFT length 48K, Pass1=64, Pass2=768.
[Worker #3 Aug 19 00:24] Self-test 1536K passed!
[Worker #3 Aug 19 00:24] Test 1, 56000 Lucas-Lehmer iterations of M1633941 using Pentium4 type-1 FFT length 80K, Pass1=80, Pass2=1K.
[Worker #2 Aug 19 00:26] Self-test 128K passed!
[Worker #2 Aug 19 00:26] Test 1, 1900 Lucas-Lehmer iterations of M39151585 using type-2 FFT length 2M, Pass1=1K, Pass2=2K.
[Worker #3 Aug 19 00:29] Torture Test completed 15 tests in 2 hours, 13 minutes - 0 errors, 0 warnings.
[Worker #2 Aug 19 00:29] Torture Test completed 20 tests in 2 hours, 13 minutes - 0 errors, 0 warnings.
[Worker #3 Aug 19 00:29] Worker stopped.
[Worker #2 Aug 19 00:29] Worker stopped.
[Worker #4 Aug 19 00:29] Torture Test completed 11 tests in 2 hours, 13 minutes - 0 errors, 0 warnings.
[Worker #1 Aug 19 00:29] Torture Test completed 12 tests in 2 hours, 13 minutes - 0 errors, 0 warnings.
[Worker #4 Aug 19 00:29] Worker stopped.
[Worker #1 Aug 19 00:29] Worker stopped.
HWiNFO Sensors nach Ende des Prime-Tests:
Ich benutze ja CrystalDiskInfo schon einige Zeit, hatte aber nie die Rohwerte mir angesehen, nicht nur mangels Kenntnis, sondern auch, weil ich gar keinen Anlass gesehen hätte. Hatte immer nur die unverkennbare blaue Anzeige mit der Bewertung "Good" in Bezug auf "Health" und die blau dargestellten Werte beachtet, bzw. einfach nur die durch die blaue Farbe in Verbindung zu stehen scheinenden Werte mit der (vermeintlichen) Beurteilung "Good" als Hinweis darauf verstanden, daß alle Werte, der Zustand der Platte eben gut ist, was sich ja aber tatsächlich ganz anders darstellt. Wieseo zeigt CDI eine Platte wie die defekte als "Good" an? Alle meine anderen Platten werden ebenfalls als "Good" dargestellt. Oder wie krank muß denn eine Platte sein, damit CDI sie entsprechend anzeigt?
Läßt sich eigentlich irgendwo erkennen, 'rausfinden, wann ein Fehler aufgetreten ist, die Platte einen Fehler gekriegt hat, etwa einen defekten Sektor? Ein Datum oder einen Hineweis darauf kann ich nirgends finden.