SanDisk SSD liest immer langsamer

Steggi

Enthusiast
Thread Starter
Mitglied seit
31.12.2010
Beiträge
3.483
Nabend in die Runde.

Ich habe vor etwa einem Jahr eine 2TB SanDisk SSD günstig bekommen und alles was vorher noch auf HDD lag (Progamme und ein paar Spiele) darauf umgezogen, etwa 600GB.
In den letzten Monaten wurde die Platte aber gefühlt immer langsamer beim Lesen. Ja, die hat meines Wissens nach keinen DRAM Cache, aber so extrem habe ich das bei anderen SSDs ohne DRAM z.B der Toshiba TL100 noch nicht gesehen.

Ich übertrage grade alles (Mix aus großen und kleinen Dateien) auf eine neue Fastro MS200 (Datenträger 2), die sich langweilt, während die SanDisk aus dem letzten Loch pfeift.
1669053659821.png


1669054197433.png


Kann man dem Laufwerk wieder irgendwie Beine machen, oder muss ich damit leben?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Windows Datenträger Anzeige sagt in deinem Fall nicht viel über die maximale Geschwindigkeit aus.
Wenn du lauter kleine Dateien (4K) überträgst ist es klar, dass du da keine Spitzenwerte erreichst.
Teste deine SSD mal mit CrystalDiskMark und poste das Ergebnis hier.
 
Wie hoch ist denn der Füllstand der Sandisk?
 
Ist auf der SSD auch mindestens 10% freier Speicherplatz vorhanden?
 
Die SSD ist grade mal zu einem Drittel gefüllt.

Wenn du lauter kleine Dateien (4K) überträgst ist es klar, dass du da keine Spitzenwerte erreichst.
Teste deine SSD mal mit CrystalDiskMark und poste das Ergebnis hier.
1669123977910.png


Was ich speziell im Alltag bemerke ist, dass wenn ich z.B. Musik oder ein Video von der SSD abspiele und zeitgleich ein Programm starte, dann fängt das an zu stocken oder zu ruckeln. Ähnliches Verhalten auch bei Spielen. Wenn da Bereiche nachgeladen werden müssen, dann ruckelt es entweder für einige Sekunden oder freezed für die Zeit komplett, bis die SSD hinterher gekommen ist.
 
Wann wurde die Sandisk denn das letzte Mal getrimmt?
 
@Steggi Eine neue SanDisk SSD Plus 2TB schafft lediglich ca. 100MB/s mehr. Welche Geschwindigkeit hast du dir denn erwartet?
 
Es geht weniger um die erwartete Geschwindigkeit in MB/s , als viel mehr um das Alltagsverhalten.
Wenn Anwendungen hängen bleiben, weil die SSD es nicht gebacken bekommt, ein paar Dateien zu lesen, dann ist die für mich nicht brauchbar! Vor allem wenn man dann auch noch feststellt, dass der gleiche Workload auf anderen Laufwerken dieses Verhalten nicht auslöst. Selbst ne alte 250er WD Blue ist in den beiden 4K Tests beim Lesen 2-3x so schnell.

Wann wurde die Sandisk denn das letzte Mal getrimmt?
Gute Frage. Das sollte das System eigentlich selbstständig machen. Aber meines Wissens ist das doch fürs Lesen irrelevant. Geschrieben wird auf das Laufwerk eher weniger. Wenn da die Leistung nicht auf Top-Niveau liegt, ist das nicht so tragisch.
 
Es geht weniger um die erwartete Geschwindigkeit in MB/s , als viel mehr um das Alltagsverhalten.
Wenn Anwendungen hängen bleiben, weil die SSD es nicht gebacken bekommt, ein paar Dateien zu lesen,...
Nur zum Verständnis: Du hast dein OS auf der C-Platte (Datenträger 0) und Programme auf D (der SATA) installiert? Was ist die C für eine SSD?
Wie du am CDM Test sehen kannst, bekommt es die SSD sehr wohl gebacken Daten zu lesen.
 
Die SSD ist grade mal zu einem Drittel gefüllt.


Anhang anzeigen 819759

Was ich speziell im Alltag bemerke ist, dass wenn ich z.B. Musik oder ein Video von der SSD abspiele und zeitgleich ein Programm starte, dann fängt das an zu stocken oder zu ruckeln. Ähnliches Verhalten auch bei Spielen. Wenn da Bereiche nachgeladen werden müssen, dann ruckelt es entweder für einige Sekunden oder freezed für die Zeit komplett, bis die SSD hinterher gekommen ist.

Das sind ja unterirdische Werte für eine "moderne" SATA SSD...

Hier ist auch so ein DRAM-less Krüppel, der kann wenigstens CDM ;)
Exceria.png


Versagt dann aber auch bei alten Dateien:

Alt.png


So sieht es bei frisch geschriebenen aus:

Neu.png


Ist halt irgendwo Stand der Technik und wird sicher nicht besser mit QLC NAND und co.
Da hilft nur, alles auf der SSD muss mit Hilfe eines Tools hin und wieder neu geschrieben werden, wenn die Hersteller das nicht hinbekommen eine gescheite Firmware zu machen.
 
Datenträger 0 ist meine "alte" OS Disk. Eine WD Blue 250GB (WDS250G1B0A). Laufwerksbuchstabe F
Datenträger 1 ist die 2TB Sandisk. Laufwerksbuchstabe D
Datenträger 2 ist die "neue" OS Disk. Eine Mega Electronics Fastro MS200 2TB. Laufwerksbuchstabe C

Ich habe das OS vor einigen Tagen von der WD Blue auf die MS200 umgezogen, die Blue hängt aber aktuell noch so mit im Rechner.

Klar schafft es die SSD, Daten zu lesen, aber das eben nicht konstant. Damit du etwas besser verstehst, was ich meine habe ich mal mehrere HD Tune Random Access Tests durchgeführt.
Während die WD Blue recht stabile Werte in jedem Durchlauf zeigt, sind die Werte der SanDisk mehr oder weniger zufällig.

1.PNG

2.PNG

3.PNG

4.PNG

5.PNG


Stimmt, aber nachschauen schadet nie; mach einfach mal. Unter Laufwerkseigenschaften....
fsutil behavior query DisableDeleteNotify --> 0
Trim läuft also.
 
Das sind ja unterirdische Werte für eine "moderne" SATA SSD...

Versagt dann aber auch bei alten Dateien:
Jep und die SSD ist grade mal etwas älter als ein Jahr. Die ältesten 1-2GB großen Dateien konnte ich mit knapp 100MB/s lesen.

@Steggi Mach mal mit HD Tune einen File Benchmark mit 100.000 MB.
Und schau mal mittels dem SanDisk SSD Dashboard (https://support-de.wd.com/app/answers/detailweb/a_id/43273) ob die Firmware aktuell ist.
File Benchmark endet immer mit IO Error, aber der normale Benchmark zeigt ein interessantes Verhalten. Es sind ja knapp 600GB belegt, was irgendwie auch zur Theorie von @Kenaz passt.
Die Firmware ist laut Dashboard übrigens aktuell.

1669132340050.png


Ist halt irgendwo Stand der Technik und wird sicher nicht besser mit QLC NAND und co.
Da hilft nur, alles auf der SSD muss mit Hilfe eines Tools hin und wieder neu geschrieben werden, wenn die Hersteller das nicht hinbekommen eine gescheite Firmware zu machen.
Die SanDisk müsste eigentlich noch TLC sein, aber wirklich viele Infos findet man dazu halt auch nicht. Bis jetzt habe ich bei Micron QLC Enterprise SSDs solche Verhalten noch nicht festgestellt, hier sollte die Firmware aber auch besser sein als bei Consumerprodukten.
Die Daten alle Nase lang neu zu schreiben ist bei einer SSD mit einer begrenzten Schreiblast natürlich auch sehr Sinnvoll. Ein Schelm, wer glaubt, die Hersteller machen das absichtlich :rolleyes2:

Edit:
Ein Testlauf mit ATTO und damit "frischen" Daten konnte zumindest sequentiell geschriebene Daten flott lesen.
1669133292969.png
 
Datenträger 0 ist meine "alte" OS Disk. Eine WD Blue 250GB (WDS250G1B0A). Laufwerksbuchstabe F
Datenträger 1 ist die 2TB Sandisk. Laufwerksbuchstabe D
Datenträger 2 ist die "neue" OS Disk. Eine Mega Electronics Fastro MS200 2TB. Laufwerksbuchstabe C
Platte 1 Backup/Sichern, 1 löschen, eine große Partition anlegen, optimieren/trimmen, 0 und 2 abklemmen, Windows frisch auf der Sabdisk installieren, benchen.
 
File Benchmark endet immer mit IO Error
Wenn der Benchmark erst gar nicht beginnt, nimm weniger MB zum Testen, also statt 100.000 MB z.B. die Hälfte.
Wenn der Benchmark durchläuft und der Fehler erst beim 4K random multi auftritt, könntest du das Ergebnis hier trotzdem posten. Es geht ja darum zu sehen, wann die Leserate einbricht.
 
der normale Benchmark zeigt ein interessantes Verhalten
Ja, und zwar ein typisches Verhalten für "faule Daten", FW der SSD ist wohl zu lazy um selbst zu refreshen.
Bitte lass mal den SSD Read Speed Tester ver. 2.04 durchlaufen, hier oder hier erhältlich. (Screenshot wird automatisch im Programmordner abgelegt)
Danach mit dem DiskFresh ver. 1.1 einen Refresh machen. Erhältlich hier oder hier.
Nachdem der Refresh durch ist lass nochmal den Read Speed Tester durchlaufen und poste die beiden Screenshots als Vorher-nachher-Vergleich. Viel Spaß :bigok:
 
Platte 1 Backup/Sichern, 1 löschen, eine große Partition anlegen, optimieren/trimmen, 0 und 2 abklemmen, Windows frisch auf der Sabdisk installieren, benchen.
Vielleicht später mal. Ich bin eh noch dabei, die Daten von der SSD runter zu kopieren. An sich sollte die Platte aber nicht als Systemplatte dienen, sondern nur Daten speichern.

Wenn der Benchmark erst gar nicht beginnt, nimm weniger MB zum Testen, also statt 100.000 MB z.B. die Hälfte.
Wenn der Benchmark durchläuft und der Fehler erst beim 4K random multi auftritt, könntest du das Ergebnis hier trotzdem posten. Es geht ja darum zu sehen, wann die Leserate einbricht.
Das bricht leider auch schon bei den default 500MB ab.

Eingeschaltet ist es, aber wurde auch wirklich getrimmt? Das müsstest Du mal schauen....
Und das sehe ich wo genau?

Ja, und zwar ein typisches Verhalten für "faule Daten", FW der SSD ist wohl zu lazy um selbst zu refreshen.
Bitte lass mal den SSD Read Speed Tester ver. 2.04 durchlaufen, hier oder hier erhältlich. (Screenshot wird automatisch im Programmordner abgelegt)
Danach mit dem DiskFresh ver. 1.1 einen Refresh machen. Erhältlich hier oder hier.
Nachdem der Refresh durch ist lass nochmal den Read Speed Tester durchlaufen und poste die beiden Screenshots als Vorher-nachher-Vergleich. Viel Spaß :bigok:
Na supi. Da bekomm ich gleich noch mehr Lust, das Teil dauerhaft außer Betrieb zu nehmen :wut:

Wenn das wirklich ein Firmwareproblem ist, dann wird sich das Problem ja alle paar Monate wiederholen und solch unzuverlässige Laufwerke kann ich nicht gebrauchen.
Anhand des Read Speed Testers kann ich übrigends kein wirkliches Muster feststellen.
Ich hab mir auch mal die entsprechenden Dateien angeschaut, die hier angeblich tausende von Tagen alt sind. Die wurden nicht wirklich vor so langer Zeit auf die SSD geschrieben, da die SSD erst etwas über ein Jahr alt ist, sondern haben ihren Timestamp entweder noch aus der Installation oder er wurde mittels Robocopy von früheren Laufwerken mitgeschleppt.

2022-11-22 21.01.02 Results for D.png
 

Anhänge

  • Bild.jpg
    Bild.jpg
    49,2 KB · Aufrufe: 118
Einmal defragmentieren und gucken ob es dann besser wird.

Das Problem gab es auch schon mit anderen SSD´s

Ich hatte das bei ner Samsung Evo 840 (glaube das war die) habe da einmal die Woche über 3 Jahre defragmentiert, die SSD lebt heute noch. Und hat nichtmal 1% der Lebenszeit eingebüßt.
 
An sich sollte die Platte aber nicht als Systemplatte dienen, sondern nur Daten speichern.
Ist schon klar. Du sollst nur mit einem frischen System auf einer firschen Platte testen. Was Du danach machst...
(Windows ohne Updates nur zu installieren und dann ohne Internet dauert ja nicht soo lange und man muss ja dabei dem PC nicht Händchen halten. Vielleicht ist die Sandisk momentan so versifft, dass andere SSDs indem Zustand auch langsam wären. Vor allem kann man das aus der Ferne nicht wissen.)
 
Trim funktioniert.

Refresh und Defragmentierung habe ich mal gemacht. Laut Test ist es zwar etwas schneller, in der Praxis merk ich davon aber nicht so viel.

Da ich die Daten inzwischen alle umgezogen habe, werde ich das Laufwerk wohl bei Gelegenheit ausbauen. Wollte damit eigentlich eine 1,5TB Daten-HDD im Notebook eblösen, aber ich glaube unter diesen Umständen kauf ich mir da lieber ne neue, die nicht von SanDisk kommt.

Vorher
2022-11-22 21.01.02 Results for D.png


Nachher

2022-11-24 02.08.16 Results for D.png
 
Mach doch die Sandisk mal platt und teste erneut, wenn alle Daten gesichert sind. Und falls noch nicht geschehen, Firmwarestand prüfen.....
 
Was ich speziell im Alltag bemerke ist, dass wenn ich z.B. Musik oder ein Video von der SSD abspiele und zeitgleich ein Programm starte, dann fängt das an zu stocken oder zu ruckeln.
Das ist das normale Verhalten von DRAM less SSDs, vor allem wenn es SATA SSDs sind, die NVMe SSDs können dies durch HMB noch ein gewisses Stück weit abfedern. In den internen SRAM des Controllers passt i.d.R. gerade mal ein Ausschnitt der Mappingtabelle der für einen Adressraum von 1GB reicht, eben genug für Benchmarks wie AS-SSD oder CDM in der Standardeinstellung. Bei mehreren parallelen Zugriffe ist dann die Gefahr groß, dass ständig für mehr oder weniger jeden Zugriff erstmal der passende Teil der Mappingtabelle nachgeladen werden muss und dies dauert beim Laden aus dem NAND eben um einiges länger als wenn es DRAM Cache gäbe in dem der Controller die gesamte Mappingtabelle halten könnte. Beim DRAM zu sparen ist eben am falschen Ende gespart, vor allem wenn eben mehr als ein Zugriff gleichzeitig erfolgt und es eine SATA SSD ist.

aber der normale Benchmark zeigt ein interessantes Verhalten. Es sind ja knapp 600GB belegt, was irgendwie auch zur Theorie von @Kenaz passt.
So ein Low-Level Benchmark ist für SSDs Blödsinn und ob es zur Theorie von @Kenaz passt, kann man schwer sagen. Es sollte auf jeden Fall klar sein, wieso bei mehr als 600GB schneller gelesen wird, denn da stehen ja keine gültigen Daten, der Controller muss also gar keine Daten aus dem NAND lesen, sondern liefert i.d.R. einfach nur Nullen zurück, was natürlich schneller geht als Daten aus dem NAND zu lesen. Außerdem muss man beachten, dass HD Tune in der Standardeinstellung nur Zugriffe über 64k macht und dies reicht noch einmal um bei SATA SSDs auf die volle Leserate zu kommen. Dann kommt noch oben drauf, dass der Controller die Daten ja beim Schreiben einer Datei so über die NAND Dies verteilt, dass diese Datei auch möglichst schnell geschrieben und wieder gelesen werden kann. Beim Low-Level Lesen wird aber nicht Dateiweise gelesen, sondern es werden einfach nur aufeinanderfolgende LBAs gelesen, egal zu welcher Datei sie gehören oder eben ob sie überhaupt mit Daten belegt sind. Dies verfälscht das Ergebniss zusätzlich, denn wenn da ein Haufen kleiner Dateien stehen, könnten deren Daten ja zufällig alle auf dem gleichen NAND Die sein und wären damit langsamer Low-Level zu lesen als wenn sie über mehrere NAND Dies verteilt sind, während es beim Lesen der einzelnen Dateien gar keinen Unterschied macht.

Ja, und zwar ein typisches Verhalten für "faule Daten", FW der SSD ist wohl zu lazy um selbst zu refreshen.
Das kann sein, ich will es hier nicht ausschließen, aber ein Beweis ist es nicht. Es kann auch einfach daran liegen, dass es eben eine DRAM less SSD ist und der Controller wird beim Lesen vieler alter Dateien ja ständig einen Teil der Mappingtabelle nachladen müssen, schreibt man dagegen gerade frisch eine Datei und liest diese, so steht sie ggf. noch im Pseudo-SLC Schreibcache und ebenso könnte der passende Teil der Mappingtabelle noch im SRAM des Controllers stehen, was beides das Lesen deutlich beschleunigt.
 
Ich übertrage grade alles (Mix aus großen und kleinen Dateien) auf eine neue Fastro MS200 (Datenträger 2),
Du hast über eine Lesegeschwindigkeit 4,3 MB/s laut Task Manager geklagt! CDM zeigt dann 414,xx MB/s. Räume dein versifftes Windows auf. Neuinstallation.

Wer Qualität will, muss die auch bezahlen... und Ordnung halten.
 
Samsung 980 PRO vs 980. Für mich kaum ein Unterschied.
Manchmal wundere ich mich...
Vieleicht solltest du mal die 980Pro auch in einen PCIe4.0 M.2 Slot stecken um den Unterschied bei CDM zu sehen?

..denn im Gegensatz zu der 980 non Pro verfügt die über PCIe4.0 Support.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh