Ursache für Intel Postville G2 Read Error

qiller

Enthusiast
Thread Starter
Mitglied seit
04.11.2009
Beiträge
1.372
Hallo zusammen,

Ich hatte gestern ein Problem mit meiner SSD und wollte jetzt mal etwas nachhaken, was das ganze ausgelöst haben könnte, aber ich will von vorne anfangen:

Vor ca. 1-1,5 Wochen hatte ich immer wieder mal Hänger bei meinem System (Dauer-Sanduhr, Mauszeiger konnt man bewegen, Explorer reagierte aber nicht mehr, ab und an mal BAD_POOL_Header Bluescreen), das ansonsten jetzt fast 2 Jahre durchgängig stabil lief.

System:

-Windows 7 Ultimate
-Core 2 Quad 9550 @ 3.4GHz (400MHz FSB)
-Gigabyte P35C-DS3R Rev 2.0
-4GB DDR2-800 4-4-4-12
-160GB Intel Postville SSD, 1x Samsung 1.5TB, 1x Samsung 1.0TB (F1 bzw jetzt F3), 2x Hitachi 1TB im Raid0, EIDE NEC DVD-Brenner
-Gigabte OC-Edition Geforce GTX460 1024MB
-Seasonic S12II 430W
-Noname Firewire-400 PCI-Karte

Da ich diese Symptome schon öfters an anderen Rechner feststellen durfte, hab ich mich gleich auf die Festplatten gestürzt und bin auch prompt bei der 1TB Samsung F1 fündig geworden. Da ich auch einige User-Verzeichnisse von der SSD auf die Samsung F1 umgebogen hatte (temp, Download), ging ich davon aus, dass es das gewesen sein muss. Das Samsung ES-Tool spuckte dann auch noch jede Menge Fehler aus, ergo musste es daran liegen.

Nachdem ich nun die Samsung F3 vor 3 Tagen durch eine neue F1 ausgetauscht hatte und die Daten geklont hatte, lief dann auch erstmal alles wieder paletti.

Gestern allerdings hatte ich plötzlich neue Probleme:

Das System reagierte ca 5min nach dem Hochfahren "zappelig", Mauszeiger sprang, CPU-Auslastung hoch, obwohl nix lief. Da der Taskmanager hier nicht zu gebrauchen war, guckte ich mir die Auslastung mit dem Process-Explorer an und siehe da: die DPCs beanspruchten dauerhaft genau 25% meiner QuadCore-Leitung. Die Geschichte mit der DPC-Auslastung kannte ich nu auch schon von fehlerhaften Karten, SoundChips, USB-Controllern oder fehlerhaften Treibern. Das System ließ sich auch nach 30 minütiger Wartezeit nicht sauber runterfahren. 2x hatte ich sogar nen IRQL_NOT_LESS_OR_Equal Bluescreen.

Als erstes hatte ich allerdings meine neue Festplatte in Verdacht, da das das letzte war, was ich am System änderte: Ergo mal abgeklemmt, aber keine Verbesserung und da ich gleich dabei war, hab ich nachm Resett die anderen Platten auch gleich abgestöpselt, aber auch das half nicht.

Also radikal alles abgestellt, was man nicht braucht: Firewire-Karte raus, USB-/Soundcontroller deaktiviert, HDDs bis auf die SSD abgeklemmt, OC auf Standard zurückgefahren. Problem bestand danach immernoch.

Jetzt kam ich langsam ins Grübeln. Also mal meine Linux-Mint Live-CD reingeschmissen und dort bisschen getestet, im Inet gesurft, Musik gehört etc, aber da lief alles wunderbar. Danach hatte ich Windows und seine letzten Updates in Verdacht (die jetzt vor 2 Tagen kamen). Da mein Backup der SSD vom 31.05. war, hab ich nochmal ein zusätzliches, aktuelles Backup mit der Acronis TrueImage Live-CD angestossen, falls mir im Nachhinein noch irgendne wichtige Datei fehlen sollte, oder das Windows-Update nicht schuld war.

Tja, und was soll ich Euch sagen: True-Image meldete beim Erstellen des SSD-Backups Read-Errors und zwar recht viele (tippe mal auf ~50 kaputte "Sektoren"). Das hatte ich in 1.5 Jahren Benutzung der SSD noch nie - Hostwrites der SSD bis dato 3.9 TB.

Nu war natürlich alles klar. Das Backup hab ich dann noch durchlaufen lassen (ignore Read-Errors) und währenddessen mich gefragt, ob die SSD nun kaputt sei. Um das zu testen hab ich im Anschluss mein Backup vom 31.05. wieder zurückgespielt (immer noch per Live-CD), die restlichen Komponenten wieder angestöpselt/aktiviert.

Neustart gemacht und .... tjoar, Windows läuft wieder ohne mucken, keine DPC-Auslastung, nix. Es meldete sich dann auch prompt das Windows-Update, ich ließ alles durchlaufen (zu dem Zeitpunkt glaubte ich nicht mehr an die Windows-Updates als Ursache), nochmal Neustart, lüppt immer noch alles wunderbar. Im Anschluss dann die Intel SSD Toolbox bemüht und den Fast- und Full-Scan durchlaufen lassen. Aber der sagt alles ist i.O. - ready for use. System läuft jetzt seitdem auch wieder so stabil, wie es die letzten fast 2 Jahre lief.

So, und jetzt kommt die eigentliche Preisfrage des ganzen:

Was zum Geier war da mit der Intel SSD los?

Meine Vermutung: Die Windows-Installation wurde seit dem Einsatz der SSD nicht mehr angefasst, kein Recovery, kein Wiping, nix. Die lief quasi 1.5 Jahre durch, außer den Schreibvorgängen von den Windows-Updates, der Auslagerungsdatei, ab und zu Programm-Installationen/-Updates und hier und da mal ein Spiel, ist der Datenbestand auf der SSD so beblieben - sprich, es wird so einige Blöcke auf der SSD geben, die ohne äußeres, zusätzliches Zutun vor 1.5 Jahren das letzte mal beschrieben worden sind.

Kann es sein, dass Flashzellen nach einer gewissen Zeit ihre "Ladung" bzw ihren "Zustand" verlieren, wenn sie nicht regelmäßig erneut beschrieben werden?

Ich kenne leider die Wear-Leveling Algorithmen nicht, ob z.B. auch Blöcke bzw Daten, die sich von der Betriebssystem-Schicht aus sehr lange nicht mehr ändern, innerhalb der SSD "unsichtbar" umkopiert werden, damit es z.B. keine Blöcke gibt, die sogut wie keine Löschzyklen verbraucht haben.

Bisher kenn ich das eher andersrum, sprich, wenn man was auf die SSD speichert, sorgen die Wear-Leveling-Algos dafür, dass die Flashzellen gelöscht bzw überschrieben werden, die bisher kaum Löschzyklen hinter sich hatten. Nur was ist mit den Blöcken, wo sich sehr lange nix ändert?

Irgendwie beschleicht mich nämlich das Gefühl, dass die defekten "Sektoren", die TrueImage da meldete, vor sehr langer Zeit das letzte Mal überhaupt beschrieben worden. Aber da könnt Ihr denk ich mal eher was zu sagen. Aber vielleicht ist sind diese Read-Errors der SSD auch nur ne Folge-Erscheinung mit den Problemen der Samsung-Platte, immerhin hing das System und ich müsste öfter mal resetten. Ka ob das auch physikalische Read-Errors auf einer SSD auslösen kann, bisher nahm ich immer an, dass sowas "nur" dem Dateisystem schadet (chkdsk lässt grüßen).

mfg Olli
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi,

Interessantes Problem.
Der Controller der G2 beherrscht aber sowohl statisches Write Balancing, als auch dynamisches. Letzters sorgt dafür, daß alte Daten auf andere Flashzellen geschoben werden, damit sich die Zellen relativ gleichmäßig abnutzen.

Leider kenne ich mich mit dem Rest aber so garnicht aus, daher scheint mir ein Folgeschaden aus der HDD-Geschichte genauso wahrscheinlich zu unwahrscheinlich zu sein.
 
intel__ssd_errors.png


Hab jetzt nochmal die Toolbox ausgepackt und festgestellt, dass er mir 3 "reallocated sectors" anzeigt, die vorher definitiv nicht da waren. Ich nehme mal an, dass da paar Zellen einfach so ausgefallen sind (unabhängig von den schon verbrauchten Löschzyklen), oder wie soll man sich sowas erklären? SSD funkt immer noch ohne Probleme und mit 4.2TB Host Writes ist die ja noch lange nicht am Limit - hab in nem offiziellen Paper von Intel mal 15TB Host Writes bei der 160GB Variante gelesen.

mfg Olli
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh