Samsung 990 Pro wenige Betriebsstunden aber nur noch 94%

Heute bin ich schon bei nur noch 93%😧 jetzt gehts rasant dahin.
2033GB Lesevorgänge, 3350GB Schreibvorgänge, 46x eingeschaltet, 142 Std.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das klingt wirklich beunruhigend. Die 990 Pro in meinem Notebook ist noch auf 100%. Ich hatte 2 gekauft, eine für den Desktop, eine fürs Area51M. Werde heute Abend mal bei beiden 990 Pro sicherheitshalber einen Oberflächentest laufen lassen.

Vielleicht ist es ja auch ein Bug von Crystal Disk Info ??!
 
Bug von CrystalDiskInfo möchte ich fast ausschließen, da es ja nur die S.M.A.R.T. Werte der SSD ausliest. Gleiche Werte auch mit HWiNFO64.
 
...oder ein Firmwarebug.
Vertrauenserweckend ist das nicht gerade....
 
Werde heute Abend mal bei beiden 990 Pro sicherheitshalber einen Oberflächentest laufen lassen.
Was soll ein Oberflächentest bei dem Thema bringen? Wenn der auch schreibt, dann erhöht er den Verschleiß nur. Die S.M.A.R.T. Werte würden schon anzeigen wenn Daten nicht mehr lesbar waren.
Vielleicht ist es ja auch ein Bug von Crystal Disk Info ??!
Sehr unwahrscheinlich, da CDI die S.M.A.R.T. Werte ja nur ausliest. Keine Ahnung ob das bei NVMe SSDs jetzt anderes ist, aber bei SATA Platten musste das Programm welches diese ausliest nur Namen der Attribute selbst kennen, der Rest in der Tabelle unten kommt hingegen direkt vom Controller des Laufwerks. Selbst wenn es noch so ist, wäre dies bei NVMe SSDs egal, da hier endlich mal die Werte standardisiert wurden, zumindest die die CDI anzeigt. Herstellertools können ggf. noch weiter Werte auslesen, aber die sollten dann natürlich auch die korrekten Namen dieser Zusatzattribute kennen.
...oder ein Firmwarebug.
Das könnte sein, vielleicht wurde auch einfach nur eine zu kleine Zahl für die spezifizierten P/E Zyklen in der FW hinterlegt.
 
Frag. nach. bei Samsung... vllt kennen die den Bug... oder nicht. ;)
 
Klar, aber dies wäre dann einer Samsung Pro(sumer) SSD wirklich unwürdig. Ist ja schon traurig, dass die nun auf TLC umgestellt wurden, aber gut, Samsung war mit der 970 Pro der letzte Hersteller der noch eine SSD mit MLC rausgebracht hat, als die anderen schon nur noch welche mit TLC (oder gar QLC) gefertigt haben. Der Absatz der MLC Modelle war offenbar so schlecht, dass sie eben keine echten Nachfolger mehr bekommen haben, die Verkaufszahlen bei MF waren damals ja echt bescheiden im Vergleich zu den Evo Modellen, aber wenn schon TLC, dann sollte da auch solches mit einer ordentlicher Qualitätseinstufung
bzgl. der P/E Zyklen drin sein.
 
Hier mal meine Samsung 970 Evo zum Vergleich, aber ich würde auch einfach mal bei Samsung anfragen.

Mfg.
 

Anhänge

  • 970Evo.jpg
    970Evo.jpg
    69 KB · Aufrufe: 191
Danke dafür. Nun bei fast 16TB Host Writes für eine 1TB SSD wurde mit Sicherheit mehr als ein P/E Zyklus der NANDs verbraucht, womit klar ist, dass Samsung bei den NVMe SSDs den Zähler nicht mehr wie früher ab dem ersten P/E Zyklus auf 99 senkt. Wie viele P/E Zyklen genau verbraucht wurden, kann man schwer sagen, die einfache Rechnung die Host Writes durch die Kapazität zu teilen, ist nämlich sehr ungenau. Da fehlt nämlich einmal die Write Amplification, die u.a. von der Art der Schreibvorgänge und dem Füllstand der SSD (aus Sicht des Controller, wenn sie z.B.. verschlüsselt ist kann dies deutlich von dem aus Sicht des Users abweichen) abhängt, womit das Ergebnis höher ausfallen würde und dies kann im Extremfalls auch mehr als um den Faktor 10 sein.

Andererseits gibt es den Pseudo-SLC Schreibcache und die P/E Zyklen dort werden ggf. gar nicht mitgezählt, so ist es zumindest bei einigen SATA SSDs während andere für diese extra Attribute haben und würden Dateien die gelöscht oder überschrieben wurden bevor sie aus dem Pseudo-SLC Schreibcache in den normalen NAND Bereich übertragen wurden. Zu den Host Writes würden diese dann natürlich trotzdem zählen. Aber wie viel dies ausmacht dürfte selbst für den Benutzer schwer abschätzbar sein, denn es hängt ja nicht so sehr davon ab wie viel Zeit zwischen dem Schreiben und Löschen (oder Überschreiben) vergeht, sondern eher viel lange die SSD in der Zeit Idle ist. Wenn man was installiert und dabei erstmal Dateien entpackt und dann an ihre Ziel kopiert und danach gelöscht werden, stehen die Chance wohl meist ganz gut das diese temporären Dateien nur im Pseudo-SLC Schreibcache stehen, weil die SSD ja dabei die ganze Zeit beschäftigt ist. Aber schon wenn in der Zeit eine Interaktion des Users nötig ist, hängt es nicht nur davon ab wie lange dies gedauert hat, sondern eben auch was sonst noch auf die SSD zugreift.
 
Samsung 990 PRO mit 1TB
Entweder reklamieren oder die SSD jetzt nur zur Hälfte mit 500GB partitionieren. Dann auf den restlichen 500GB getrennt patitionieren, die Partition mit Windows "optimieren"/trimmen, dann die Partition löschen - komplett entfernen - und den Magician mal 50% Overprovisioning machen lassen. Ich bin noch nie auf den Gedanken gekommen, eine SSD mit mehr als 75% zu nutzen. 50% sind gut. Was soll der Geiz?!
 
Die bessere Frage wäre: Was soll der Unsinn? Die NVMe SSDs dürften alle getrimmt werden, denn das NVMe Protokoll ist erst nach der Einführung von TRIM entstanden, so dass es das Problem wie bei SATA, wo alte Treiber und uralte Windows / Linux Versionen kein TRIM unterstützt haben, nie gab. Damit ist es fast egal ob man die Hälfte der Partition einfach nur immer freilässt oder nur eine Partition über die Hälfte der Kapazität freilässt, wobei ersteres zumindest unter Windows zu bevorzugen ist. Dies hängt damit zusammen, wie NTFS organisiert ist, denn es reserviert per Default 12,5% der Kapazität für $MFT und belegt diesen Bereich nur im äußersten Notfall mit Userdaten, also wenn sonst nichts mehr frei ist. Dies führt dazu, dass Dateien dann extrem fragmentiert werden können, wenn das Filesystem so voll wird, dass NTFS schon fast diesen für den Master File Table reserviert Bereich nutzen muss. Fragmentierung bedeutet, dass die Dateien nicht mehr in einem zusammenhängenden Adressbereich geschrieben werden können, also nicht die nächsten Y Cluster ab Cluster X belegen, sondern eine ganze Liste solche Angaben geführt werden muss. Dies bedeutet, dass deren Verwaltungsdaten größer werden, also auch mehr auf die SSD geschrieben wird, dazu werden die Schreibvorgänger von langen sequentiellen Schreibzugriffen immer mehr zu kurzen, zufälligen Schreibzugriffen die tendenziell eine höhere WA verursachen und zu schlechter Letzt wird Windows beim nächsten Optimieren der SSD versuchen die Datei zu defragmentieren und dabei die Daten die im Bereich stehen der für $MFT reserviert ist, wie von dort zu entfernen. Auch dies führt zu mehr Schreibzugriffen.

Hat man nur eine große Partition und die Disziplin da Daten zu löschen wenn sie über 50% voll wird, so vermeidet man das der für $MFT reservierte Bereich jemals mit Userdaten belegt werden muss und die Chance des Filesystems einen zusammenhängenden Adressbereich zur Speicherung selbst großer Dateien zu finden um diesen ohne Fragmentierung speichern zu können, steigt ebenfalls, womit die Wahrscheinlichkeit massiv sinkt, dass die Optimierung jemals eine Datei defragmentiert, was sie nur bei extrem fragmentierten Dateien (schon um deren Verwaltungsdaten kleiner zu bekommen) und solche im für $MFT reservierten Bereich macht.

Klar macht das alles den Kohl nicht fett, aber wer sich eben wirklich auskennt, der wird verstehen warum das Overprovisioning wie es NVMe1.4 vorgeschlagen hat, eben meistens und auch in diesem Fall nicht die optimale Lösung ist. Dies ist es nur für SSDs die nicht getrimmt werden, da dort die SSD aus Sicht des Controllers früher oder später komplett voll sein wird, selbst wenn man alle Dateien löscht oder sie neu formatiert, außer man macht ein Secure Erase. Das SSDs nicht getrimmt wurden, war anfangs normal, dann wurde es aber immer unwahrscheinlicher und gerade bei NVMe würde ich mal sagen, dass dies nur bei SSDs in bestimmten RAID Konfigurationen (solchen mit Parity, denn die würde ja nicht stimmen, wenn alle SSDs Nullen oder gar Zufallsdaten beim Lesen der getrimmten LBAs wiedergegeben werden, oder mit schlecht gemachter RAID Lösung) der Fall sein kann. Dies gilt natürlich auch für SATA und SAS SSDs und bei SATA SSDs kann es auch vorkommen, wenn diese an einem SAS HBA/RAID Controller hängen oder man eben ein Uraltsystem hat bzw. noch uralte Treiber nutzt.
 
Was soll diese sinnlose Frage? Was für ein Konflikt sollte dies sein? Die Standards sind in aller Regel so gemacht, dass sie abwärtskompatible sind und NVMe ist da keine Ausnahme, zumal die meisten oder gar alle der Erweiterungen in einer neuen NVMe Revision sowieso optional sind. Windows und dessen Treiber nur einen Bruchteil der Möglichkeiten nutzen, denn die meisten sind für Enterpriseanwendungen gedacht.
 
Es geht weiter bergab:
 

Anhänge

  • 990Pro Desktop.jpg
    990Pro Desktop.jpg
    123,8 KB · Aufrufe: 229
  • 990Pro Notebook.jpg
    990Pro Notebook.jpg
    124,5 KB · Aufrufe: 224
Dann ist scheinbar nicht nur meine 990 Pro davon betroffen. Bin inzwischen bei 90% Restlebensdauer. Exeplodiert das Teil dann bei 0% (Selbstzerstörung) ? :oops:
 
Frohe Weihnachten !

Betreibst Du Deine auch im FullPower Mode ?
 
Das Speichervolumen wir immer größer und die P/E-Zyklen immer weniger. Kundenverarsche. Mich würde mal eine neue Auswertung von Großabnehmern wie Google interessieren.
 
Es geht weiter bergab:
Das ist definitiv nicht normal!

Meine älteste Crucial P5 Plus hat rund 26x soviel geschrieben und dümpelt immer noch bei 96%, laut CDI herum.
Die 980er mit der höheren Schreiblast von beiden hat auch knapp 8x soviel geschrieben und liegt bei 99%.

CDIy.png

..wenn da nicht irgendwo ein CDI Bug vor liegt oder bei der FW., der SSD, dann wären die 990er ja recht schnell platt
Gut, dass ich erst einmal die Finger von der gelassen habe. :unsure:


@ Holzi: Kommt noch! Vieleicht werden dir die nächsten 2~3k Schreiblast gleich 4% auf einmal abgezogen! It's not a trick, it's a Samsung 990. :bigok:
 
Zuletzt bearbeitet:
Bei mir ist der Standard-Mode aktiviert wie schon bei der 980 Pro. Die war wesentlich stärker beschrieben und hatte mehr Betriebsstunden, die war glaub ich bei 98% als ich sie verkauft habe.
 
Refurbished SSD kannst du ausschließen?

Mir hatte damals der DE WD-Support sm Telefon ganz dreist gesagt, dass die, wenn ich meine damalige WD850 wirklich direkt über Hersteller austauschen möchte, als Ersatz nur noch refurbished SSD zurück senden.
Habe dann doch die RMA gegen Geld zurück über den Händler (Amazon) gemacht. Wenn Samsung da (mittlerweile) genau so verfährt, na dann, prost Mahlzeit.
 
Bei der Kioxia hier rattert der Verschleißzähler auch gut runter.
Die kommt so vielleicht gerade mal auf 50% der versprochenen TBW.
 

Anhänge

  • Exceria Plus G2.png
    Exceria Plus G2.png
    22,6 KB · Aufrufe: 178
Bin inzwischen bei 90% Restlebensdauer...
Wow...das geht ja rasant, und wieviel TB inzwischen geschrieben? Ähm... bevor ich anschießend noch 10 weitere Fragen stelle - könntest Du bitte ab und zu den aktuellsten CrystalDisk Info Screenshot posten? Danke.
 
Hat damit aber nichts zu tun. Die kommen von dem MSI Müllbrett.
 
Die kommt so vielleicht gerade mal auf 50% der versprochenen TBW.
Bis der Zähler auf 0 bzw. 1 ist, bei manchen SSDs geht es ja nie auf 0 vielleicht, aber dann muss die SSD ja nicht am Ende sein. Aber ist komisch das SSDs großer Hersteller wie Kioxia und Samsung so ein Verhalten zeigen, zumal beides auch noch selbst NAND Hersteller sind.
 
Bei der Kioxia hier rattert der Verschleißzähler auch gut runter.
Die kommt so vielleicht gerade mal auf 50% der versprochenen TBW.
Nun gut, dass ist ja auch nur eine 500GB SSD, die nutzt halt schneller ab.
Auch wenn ich 82% jetzt für gerade einmal 13800GB written nicht so berauschend finde.
Ich weiß noch, meine alte 500GB P5 Plus hatte bei ca. 15000GB written noch 96 oder 95%.
Allgemein muss ich sagen, dass sich die Crucial SSDs hinsichtlich der "Abnutzung" recht gut ggü. der Samsung und WD schlagen.
Mir ist bis dato auch keine von denen ausgefallen, bei WD leider schon zwei.
 
Da wird es mal Zeit, dass jemand seine 990pro opfert und im Test komplett totschreibt um zu sehen was sie wirklich kann.
 
Zuletzt bearbeitet:
..oder einer der betroffenen User schildert diese Problematik mal den Samsung DE Support?

Ist definitiv die "günstigere" und intelligentere Methode. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh