SSD funktioniert nur bedingt

mpHalo

Neuling
Thread Starter
Mitglied seit
16.07.2017
Beiträge
2
Hallo,

ich habe hier eine SSD, welche nur in einem bestimmten PC funktioniert und dieses auch nur bedingt.
Es handelt sich um eine Crucial BX200. Wahrscheinlich stammt diese aus einem Mac.
Mich interessiert warum, die SSD nur an diesem PC funktioniert und an den anderen nicht.

In CrystalDiskInfo deutet nichts darauf hin, dass die SSD Defekt wäre.

PC1:
- SSD wird erkannt (AHCI)
- in der Datenträgerverwaltung unter Win7 wurden 2 Partitionen erkannt: beide RAW und ließen sich nicht löschen. Daher denke ich, dass die SSD aus einem Mac stammt. Diese Partitionen ließen sich mit der Win10 DVD löschen.
- Unter Win7 können Partitionen erstellt, gelöscht und formatiert werden. Daten können ohne Probleme kopiert und gelesen werden.
- Win7 kann nicht auf der SSD installiert werden.
- Win10 lässt sich installieren aber fährt nicht hoch (schwarzer Bildschirm)
- Unter Win10 kann MBR in GPT usw umgewandelt werden.


PC2 und PC3:
- SSD wird erkannt (AHCI, IDE)
- PC braucht ewig zum Booten, vergleichbar mit defekten Sektoren einer HDD
- Win10 lässt sich nicht installieren CRC Fehler
- Win7 kann nicht installiert werden

PC4, SSD an SATA-1:
- SSD wird erkannt (AHCI, IDE)
- Win7 braucht ewig zum Booten
- Datenträgerverwaltung zeigt keine Laufwerke an, vergleichbar mit defekter HDD
- Win10 lässt sich nicht installieren CRC Fehler
- Win7 kann nicht installiert werden
- Win10 auf PC1 installiert und in PC4 versucht zu booten: I/O error (GPT)

PC4 SSD an Onboard Raid:
- SSD wird erkannt (JBOD)
- Unter Win10 wird die SSD in der Datenträgerverwaltung angezeigt, es können aber keine aktionen durchgeführt werden (CRC)
- Win10 lässt sich nicht installieren CRC Fehler
- Win7 kann nicht installiert werden
- Win10 auf PC1 installiert und in PC4 versucht zu booten: I/O error (GPT)


Alle PCs haben nur eine Sata-2 interface, das dürfte aber nichts machen. Andere SSD funktionieren mit den Systemen. An PC4 ist ebenfalls eine BX200 voll funktionsfähig verbaut.
CrystalDiskInfo lässt sich nur auf PC1 und PC4 am Raidcontroller starten.
Firmware ist auf dem neusten Stand (2.02, glaub ich), die Firmware der funktionierenden BX200 nicht (1.xx).

Die SSD werde ich, wenn nur in Testsystemen verwenden, falls die überhaupt noch möglich ist.

Ist es überhaupt noch möglich die SSD irgendwie zu retten?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein Windows welches auf einem Rechner installiert wurde, dann auf einem anderen zu Booten ist nie so gar problemlos, zumindest wird es sich wohl einige Treiber ziehen müssen. Ohne zu wissen was für Mainboards in den Rechnern stecken und ggf. was für zusätzliche SAS/SATA Controller an denen die SSD dann auch noch hängt, kann man hier schwer was sagen.

Hänge sie doch mal an einen der SATA Ports der Mainboards und versuche nicht von ihr zu booten, sondern von dem normalen Systemlaufwerk des Rechner und poste doch bitte mal den Screenshot von CrystalDiskInfo für die SSD, ziehe aber bitte das Fenster soweit auf, dass alle Attribute und auch die Rohwerte vollständig sichtbar sind, also keine Scrollbalken mehr erscheinen. Bitte machen den Screenshot aus Windows und nicht mit einer Kamera vom Bildschirm und nur den Screen von CrystalDiskInfo, mit Alt+Druck erzeugt Windows einen Screenshot des aktiven Fensters in der Zwischenablage.
 
Ich hatte die SSD als zweite HDD in den PCs getestet, dachte das wäre klar. Es lässt sich ja nur Win10 auf PC1 installieren.
Aber ich denke die SSD verabschiedet sich gerade. Am Wochenende war 05 noch auf 0. Jetzt sind es schon 145 Sektoren.
crystaldisk.png

Aber warum funktioniert die SSD dann noch an dem einem PC? Controller ist ein ICH8.
Benchmarks usw. sind gleich der 850 EVO (Sata-2). Ich habe auch zum Spass die SSD komplett voll gemacht und es konnte alles ohne Probleme wieder gelesen werden.
 
Anscheinend wurden 84 Terabyte auf die NAND-Zellen geschrieben. die TBW des Laufwerks sind mit 76TB angegeben. Ärgerlich ist natürlich, dass die Host-Schreibvorgänge dabei nicht mal 2 TB ausgemacht haben, das heißt, die NAND-Zellen wurden wohl intern ständig überschrieben, weil es nunmal nur eine billige TLC-Platte ist, die sonst ständig vergisst oder langsam wird. TLC ist eine Abkürzung für den Satz: "Du sparst beim Kauf ein paar Euro und bereust es dann einige Zeit später."

Hier mal von mir ein Auszug von meiner SM961 mit 3D-MLC-NAND:
Code:
SMART/Health Information (NVMe Log 0x02, NSID 0x1)
Critical Warning:                   0x00
Temperature:                        33 Celsius
Available Spare:                    100%
Available Spare Threshold:          10%
Percentage Used:                    0%
Data Units Read:                    4.858.842 [2,48 TB]
Data Units Written:                 9.630.578 [4,93 TB]
Host Read Commands:                 66.589.563
Host Write Commands:                65.766.105
Controller Busy Time:               254
Power Cycles:                       945
Power On Hours:                     2.175
Unsafe Shutdowns:                   275
Media and Data Integrity Errors:    0
Error Information Log Entries:      357
Warning  Comp. Temperature Time:    0
Critical Comp. Temperature Time:    0
Temperature Sensor 1:               33 Celsius
Wie man sieht, habe ich sie mehr als dreimal so lange in Betrieb gehabt und knapp 5 Terabyte geschrieben. Wahrscheinlich wird der Percentage Used-Counter also demnächst auf 1% gesetzt. Daraus, dass ich etwa gleich viele Host-Schreibkommandos wie Host-Lesekommandos an die Platte gegeben habe, diese dabei aber halb so viele TB gelesen wie geschrieben hat, würde ich jetzt mal darauf schließen, dass meine NVMe-SSD intern durch Zellen-Refreshes die gesamte Schreiblast gegenüber der tatsächlichen nur verdoppelt hat, während Deine TLC-SSD laut den Angaben wohl ca. 50 mal so viele Daten auf die Zellen geschrieben hat, als Du selbst auf sie geschrieben hast.
 
Das wäre ja eine Write Amplification von > 48, bzw. die schreibt/verschiebt andauernd ~130 GB pro Stunde? Wie soll das denn gehen? :hmm:
 
Die Werte einer SM961 nutzen hier nichts und die Anzeige rechts oben bei CDI ist auch nicht immer korrekt, da es dafür Werte nimmt die nicht immer das aussagen was es unterstellt und/oder eine andere Einheit haben als CDI annimmt. Ein Screenshot der Werte in Crucials Storage Executive wäre hier wohl hilfreich, dann so ganz sicher kann man eben nicht sein ob alle Namen der Attribute auch wirklich stimmen, denn die muss das Auslesetool kennen, da sie nicht vom Controller kommen.

Schauen wir mal wie viel die SSD wirklich schon runter hat. F1 sind als "Total LBA Write" bezeichnet, dies wären also Einheiten von 512 Byte und damit 0xDDB1 = 56753 * 512 Byte, also etwa 29MB, was wohl kaum stimmen dürfte. Beim SM2246 der BX100 waren die Einheiten 32MB und damit wären es 1,8TB, was eher stimmen dürfte. 32MB sind auch die Einheit für F2, welches dort als Total LBA read bezeichnet wird und F5 (Flash write count) und demnach wären 2,4TB gelesenes Datenvolumen (was für normale Windows SSDs bei Heimanwendern zum geschriebenen Datenvolumen passt, so etwa 40% schreiben ist normal), aber auch 88TB NAND Writes ergibt.

Der Wert ist zu hoch, dem Namen nach sind es hier auch Programmseiten und da die BX200 im Gegensatz zu BX100 ja auch einen Pseudo-SLC Schreibcache hat und die Werte für die Löschvorgänge für den SLC und den TLC Bereich getrennt angibt, dürfte sich auch die Bedeutung dieses Attributs geändert haben. Attribut 94 verrät uns, dass es 0xE984 = 59780 Löschvorgänge im SLC Bereich gab, vermutlich ist die Einheit hier Blöcke, denn dies ist die kleinste Einheit die man bei NAND löschen kann. 97 nennt wahrscheinlich die durchschnittlichen Löschzyklen in diesem Bereich: 0x02E3 = 739. 59780/739 sind 80,9, also dürfte es etwa 81 NAND Blöcke geben,
laut Computerbase ist der Bereich bei der BX200 240GB 3GB groß, ein Block wäre als SLC also etwa 37MB groß.

Für den TLC Bereich werden 0x71C33 = 465971 gelöschte Blöcke (?) und 0x017A = 378 durchschnittliche Löschzyklen, was schon eine Menge wäre und 465971 / 378 sind gerundet 1233 ergibt. Diese Bereich muss ja mindestens 240GB groß sein, ein Block damit mindestens 195MB groß. Dies ist aber 5,25 und nicht dreimal so viel wie sich für den SLC Bereich ergeben würde, nur haben eigentlich alle NAND Blöcke immer gleich viele Zellen und wenn man sie mit 3 statt einem Bit pro Zelle beschreibt, müsste auch die dreifache Größe rauskommen, irgendwas ist in der Rechnung bzw. bei den Annahmen zur Bedeutung der Werte oder womöglich den Werten selbst, also wohl nicht korrekt.

Kenaz, 130GB/h sind 36MB/s, die wären machbar, wenn die Einheiten von F1 und F2 GB sind, wären dies 56,7TB geschriebene und 76,9TB gelesene Daten. Sehr viel für so wenige Betriebsstunden, aber gerade die SSDs von Crucial zählen bei aktivem LPM ja oft nur die Zeit in der die SATA Lane aktiv ist und bei 1474 Einschaltvorgängen scheint dies auch bei dieser der Fall zu sein, denn sonst wären es ja gerade mal 27 Minuten die der Rechner nach jedem Einschaltvorgang gelaufen ist.

mpHalo, wo und für was die SSD vorher eingesetzt wurde, ist Dir nicht zufällig bekannt? Die 0x91 = 145 ausgefallenen Sektoren können am Verschleiß liegen, der maximal Löschzyklenzähler im TLC Bereich (Attribut A5, wenn es das denn ist und Zyklen zählt) steht auf mit 0x0268 = 616, da kann schon mal ein Block ausfallen, der beim Test am Anfang noch durchgerutscht ist. Immerhin waren 0x0101 = 257 Blöcke der NANDs schon gleich am Anfang als defekt erkannt worden (Attribut A3), was ein Wert in der Größenordnung ist wie ihn auch früher die C300 und m4 ausgewiesen haben, auch damals waren 0,5 bis 2 ab Wert defekte Blöcke pro GB Kapazität der übliche Rahmen. Auch gehen NAND Blöcke zuweilen kaputt wenn während Schreib- und vor allem Löschvorgängen ein unerwarteter Spanungsabfall passiert, was bei dieser hier (Attribut C0) 0x4A = 74 mal der Fall war, vermutlich einige davon in letzter Zeit.

Was mich aber wundert ist, wieso der Aktuelle Wert der verbliebenen Restlebensdauer noch auf 100 steht. Wenn der TLC Bereich 378 durchschnittliche Löschzyklen hinter sich hat, wäre selbst bei 1000 spezifizierten P/E Zyklen (viel mehr haben diese planaren TLC NANDs nicht) ja schon mehr als ein Drittel verbraucht. Dies spricht eher für die 32MB Einheiten für F1 und F2, denn bei 1,8TB geschriebenem Datenvolumen wären dann unter Umständen noch keine 10 P/E Zyklen verbraucht, ein Teil der Schreibvorgänge in den SLC Bereich geht ja nicht in die TLC NANDs weil die Daten vorher überschrieben oder getrimmt werden, weshalb solche SSDs mit festem Pseudo-TLC Schreibcache nicht selten eine WA von unter 1 erreichen. Nur welche Einheiten haben dann die Attribute 94 bis A7 und vor allem F5?
 
Es stört mich, daß noch kein Clean der SSD durchgeführt wurde.

Also bitte hänge die SSD in einen Rechner und steck alles anderen Laufwerke (bis auf DVD-Laufwerk) ab. Die SSD auf Port 0 oder 1, je nachdem, wo der Hersteller zu zählen beginnt und natürlich nur eine native Anbindung (ICH8 wäre gut), also auf keinen Port, der von einem Dritthersteller (Jmicron oder Marvell Chip) angesprochen wird. Das DVD Laufwerk kommt auf den 3. oder 4. Port. Wenn die Kiste vom Windows 7 oder 10 USB Stick, kannst auch das DVD Laufwerk weglassen.

Stelle im Bios für den Port AHCI (besser) oder IDE ein (nicht Raid). So, jetzt starte eine Windows 7 oder auch 10 DVD (Stick). Nicht das Betriebssystem installieren, sondern in die Reparaturoptionen gehen.
Dort eine Eingabeaufforderung starten, und dann folgende Befehle ab arbeiten:
diskpart -> enter
list disk -> enter
select disk x (das x steht für die Nummer der SSD, meist 0 oder 1) -> enter
clean -> enter
exit -> enter
exit-> enter
Rechner herunterfahren und alles wie vorher herrichten (bios-einstellung) Laufwerke wieder anstecken.
Dann sehen, wie sich die SSD verhält.....
 
Mit CLEAN löscht DISKPART nur die Partitionierungsinformationen, danach muss man sie neu initialisieren, aber was sollte diese hier helfen? Das könnte helfen wenn der Installer die SSD gar nicht als Installationsziel anzeigen würde, aber hier gibt er CRC Fehler aus und dies ist meist eine generischer Fehlermeldung für alle Arten von I/O Fehlern der Platte.

Man könnte dies mal machen, nicht um dann Windows darauf zu installieren, sondern sie als sekundäres Laufwerk erst mal mit komplett mit h2testw zu testen, also schreiben und Prüfen. Dazu wählt man ein paar Hundert MB weniger als vorgeschlagen wird, da die Metadateien des NTFS Filesystem bei großen Volumen schneller wachsen als heise es damals erwartet hat und sonst am Ende der Platz ausgeht, was zu einem Fehler am Ende des Schreibvorgangs führt. Der hat dann auch nichts mit der SSD zu tun, den kann man dann daher getrost ignorieren und trotzdem die Daten prüfen lassen, was auch ohne Fehler passieren sollte.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh