Samsung 960 Pro 2 TB <200MB/s schreibend

c80

Enthusiast
Thread Starter
Mitglied seit
19.03.2011
Beiträge
79
Hallo,

ich brauch mal eure Hilfe. Mir ist heute aufgefallen, dass eine meiner SSD viel zu langsam ist und ich kann mir nicht erklären warum.

Ich habe sowohl mit aktuellem Windows 11, als auch mit aktuellem Ubuntu getestet. Da sich die andere SSD normal verhält und es unter Ubuntu auch so ist, denk ich, dass es nicht am Windows liegt.
Das Board ist ein Asus Maximus Hero XI (Wifi) und die CPU ein 9900KS.

Die Firmware ist laut Magician aktuell und ich nutze unter Windows den MS Treiber.

Hat jemand 'ne Idee, was das sein kann und was ich dagegen tun kann?
 

Anhänge

  • Bildschirmfoto vom 2022-10-29 20-02-22.png
    Bildschirmfoto vom 2022-10-29 20-02-22.png
    23,5 KB · Aufrufe: 81
  • 960 pro.png
    960 pro.png
    54,3 KB · Aufrufe: 79
  • pny.png
    pny.png
    41,5 KB · Aufrufe: 83
Ändert an meiner Diagnose fast nix und auf die SSD wurde schon viel geschrieben und außerdem sind die Betriebsstunden sehr hoch, umgerechnet über 2,5 Jahre Dauerbetrieb ist da schon ne hohe Hausnummer.


Den neuesten Samsung NVMe Treiber zu installieren ist da noch ne Mini-Chance.

Wenn dann sich die Schreibperformance auch nicht erholt, dann geht die SSD ziemlich sicher bald über den Jordan.
 
Zuletzt bearbeitet:
Sind 72 TB wirklich viel wenn die TBW 1,2 PB sind?

Na ja, ich sichere gerade die wichtigen Daten. Das meiste sind eh nur Spiele, die ich ja jederzeit wieder von Steam und Co laden kann und von fast allem anderen hab ich mindestens ein Backup.
 
Ich finde 72 TB jetzt nicht viel. Ich würde die M.2 mal in einen anderen PC ausprobieren.
 
  • Danke
Reaktionen: c80
Sind 72 TB wirklich viel wenn die TBW 1,2 PB sind?
Nein. Keine Ahnung was da schiefläuft, ich würde spontan auf den Schreibcache tippen, aber 175MB/s bei 4k QD1 schreibend brechen dagegen, die bekommt man nicht hin, wenn der Schreibcache deaktiviert ist. Benche doch mal unter Windows mit CrystalDiskMark und poste den Screenshot hier.
 
Ich bin nicht so ganz sicher, was du meinst. Hab mich mal etwas eingelesen und ein paar Kommandos ausprobiert. Interessant fand ich dieses Ergebnis:
Code:
chriss@9900KS-Ubuntu:~$ sudo nvme error-log /dev/nvme0n1
Error Log Entries for device:nvme0n1 entries:63
.................
 Entry[ 0]   
.................
error_count    : 1808
sqid        : 0
cmdid        : 0x1008
status_field    : 0x2002(INVALID_FIELD: A reserved coded value or an unsupported value in a defined field)
phase_tag    : 0
parm_err_loc    : 0x28
lba        : 0
nsid        : 0
vs        : 0
trtype        : The transport type is not indicated or the error is not transport related.
cs        : 0
trtype_spec_info: 0
Mir sagt es allerdings nichts. Ist das für dich hilfreich? Soll ich noch andere Kommandos ausführen?
Beitrag automatisch zusammengeführt:

Benche doch mal unter Windows mit CrystalDiskMark und poste den Screenshot hier.
Ich hab seit gestern ein paar Daten auf andere Laufwerke verschoben, so dass nun mehr Platz frei ist. Sonst habe ich noch nichts geändert. Sowohl in CDM, als auch im Magician sind die Werte jetzt wieder besser. Kann es daran gelegen haben, dass vorher nur ca. 100 GB frei waren?!
 

Anhänge

  • cdm.png
    cdm.png
    13 KB · Aufrufe: 52
  • mag.png
    mag.png
    55 KB · Aufrufe: 47
Zuletzt bearbeitet:
Natürlich und es sollten immer mindestens 10% frei sein!

Ist übrigens ne uralte goldene Regel und galt natürlich schon bei HDDs...

Wer sich da wundert wenn ne SSD nur noch 5% freien Speicher hat und die Schreibperformance absolut in den Keller geht...

Das ist sowas von absolut normal!

Auf so nen absoluten Anfängerfehler kommt man halt nicht, wenn derjenige seine Postings wie du verfaßt!
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: c80
Wer sich da wundert wenn ne SSD nur noch 5% freien Speicher hat und die Schreibperformance absolut in den Keller geht...

Das ist sowas von absolut normal!
Mir war nicht klar, dass das normal ist. Die andere SSD hat nur 1% frei und zeigt dieses Verhalten nicht (siehe Anhang). Ich dachte, dass eine SSD eh immer mehr Speicher hat als angegeben, damit genau sowas nicht passiert.

Wie geh ich dafür am besten vor? Reicht es eine Partition soweit zu verkleinern, dass 10% des Laufwerks unbenutzt sind, oder muss ich die 10% bei jeder Partition frei lassen? Oder wäre es besser hierfür in Magician Over Provisioning zu konfigurieren? Oder ist OP wieder was anderes?
 

Anhänge

  • cdm pny.png
    cdm pny.png
    12,2 KB · Aufrufe: 35
Reicht es eine Partition soweit zu verkleinern, dass 10% des Laufwerks unbenutzt sind?
Entweder das oder Du richtest mittels Magician (falls das sowas anbietet) Overprovisioning ein. Hat den gleichen Effekt, nur das Du nicht an die Partition ran musst....
 
  • Danke
Reaktionen: c80
Auf so nen absoluten Anfängerfehler kommt man halt nicht, wenn derjenige seine Postings wie du verfaßt!
Ach, ich Esel! an so etwas hätte ich auch nicht gedacht. Ich hatte noch niemals vor, einen Datenträger zu viel mehr als 50% auszulasten.
Wie geh ich dafür am besten vor? Reicht es eine Partition soweit zu verkleinern, dass 10% des Laufwerks unbenutzt sind,

Eine Partition verkleinern genügt wohl. Aber es gibt auch einen Menüpunkt im Magician. Und es gibt TRIM. Heißt wohl jetzt in Windows Optimieren.
 
  • Danke
Reaktionen: c80
Wie und wo du da für den freien Speicherplatz sorgst ist AFAIK total egal.

Und es gibt SSDs für die die goldene Regel nicht gilt, das muß man aber immer schon selbst testen.
 
  • Danke
Reaktionen: c80
Auf so nen absoluten Anfängerfehler kommt man halt nicht, wenn derjenige seine Postings wie du verfaßt!
Tut mir leid, aber ich verstehe nicht ganz was du meinst. Was hab ich den beim Verfassen falsch gemacht?

Man kann übrigens im Screenshot vom Magician im ersten Beitrag sehen, dass 1,7 von 1,8 TB benutzt sind.
 
Die SSD ist ziemlich voll.
So wird der Pseudo SLC Cache quasi auf null redziert und die Geschwindigkeit bricht ein.
 
Du musst das TRIM Commando ausführen, das passiert durch das "defragmentieren". Dadurch werden ungenutze Blöcke vom Filesystem dem Flashcontroller mitgeteilt und diese werden dann in der Nutztabelle im SSD Controller verworfen, sodass ein Schreiben schneller geht.
Beitrag automatisch zusammengeführt:

1667124006159.png
 
Hätte aber echt nicht gedacht, dass eine 960 Pro jemals zu voll werden kann. Da ist doch guter, alter MLC verbaut und es gibt gar keinen SLC-Cache, wie bei allen modernen SSDs.
Alles klar, vielleicht kann wirklich nur 3DXpoint es sich leisten, bis zum Rand gefüllt zu werden ohne reduzierte Performance.
 
200 MB/s schreibend sind trotz hohen Füllstand für den MLC NAND arg wenig. Und nur 30 MB/s lesend bei 4K sind auch sehr schlecht.
 
"Was hab ich den beim Verfassen falsch gemacht?"

Nix, außer nicht explizit anzugeben, das du die SSD bis zum Anschlag befüllt hast.

Und bei dem wie deine Postings verfaßt sind ging Ich davon aus es nicht mit nem Anfänger zu tun zu haben und den zweiten Magician Screenshot habe Ich mir auch deshalb nicht genau angeguckt.

Ist übrigens auch keinem anderem aufgefallen bzw richtig interpretiert worden...
 
Zuletzt bearbeitet:
Kann es daran gelegen haben, dass vorher nur ca. 100 GB frei waren?!
Das ist durchaus anzunehmen. Benche doch noch einmal unter Linux zum Vergleich.
Wie geh ich dafür am besten vor? Reicht es eine Partition soweit zu verkleinern, dass 10% des Laufwerks unbenutzt sind, oder muss ich die 10% bei jeder Partition frei lassen?
Also ich würde einfach immer wenn eine Partition zu mehr als 90% gefüllt ist, mal etwas löschen / verschieben.

Du musst das TRIM Commando ausführen, das passiert durch das "defragmentieren".
Windows macht TRIM automatisch beim Löschen und bei Linux sollte es inzwischen auch so sein, dass bei der Installation für SSDs die discard Option gesetzt wird. Aber hiernach funktioniert discard wohl nicht für NTFS Partitionen.

Alles klar, vielleicht kann wirklich nur 3DXpoint es sich leisten, bis zum Rand gefüllt zu werden ohne reduzierte Performance.
Da müssen ja auch keine Blöcke gelöscht werden um erst wieder etwas schreiben zu können, sondern man kann jedes Byte einzeln überschreiben wie bei normalen DRAM.

Und nur 30 MB/s lesend bei 4K sind auch sehr schlecht.
Dieser Wert hängt aber sehr vom System und dessen Energiespareinstellungen ab.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh