Cruical MX 500 2TB wenn die Platte voll ist - nur Schreibrate runter?

Thread Starter
Mitglied seit
05.02.2021
Beiträge
153
Mal eine Frage. Ich haue meine Platten immer fast komplett voll von meiner 2 TB SSD Cruical MX 500 werde ich am Ende nur noch 50-80 GB frei lassen.
Ich installiere wirklich viele Spiele bis die SSD fast voll ist.
Was meine Frage ist: Dabei geht dann nur die Schreibrate runter , die Leserate bzw die Geschwindigkeit beim lesen (was ja wichtiger ist) bleibt enthalten und die Spiele + Windows lädt nocht genau so schnell
Richtig ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mal eine Frage. Ich haue meine Platten immer fast komplett voll von meiner 2 TB SSD Cruical MX 500 werde ich am Ende nur noch 50-80 GB frei lassen.
Ich installiere wirklich viele Spiele bis die SSD fast voll ist.
Jede SSD brauch etwas "Luft zum Atmen"...Je nach NAND-Flash Technologie mal mehr (QLC), mal weniger (SLC)... Es ist halt ratsam in Deinem Fall (TLC) ca. 5% frei zu lassen, mindestens 3%. Wenn Du nicht stoppen kannst und gewohnt bist alles voll zu hauen, dann rate ich Dir Over-Provisioning einzurichten. Geht über Crucial Storage Executive. Bei Samsung geht's über Magician und dort werden 10% (jedoch mindestens 1% der Kapazität!) per default vorgeschlagen.
Was meine Frage ist: Dabei geht dann nur die Schreibrate runter , die Leserate bzw die Geschwindigkeit beim lesen (was ja wichtiger ist) bleibt enthalten und die Spiele + Windows lädt nocht genau so schnell
Richtig ?
Jawohl, Schreibrate geht runter, SSD werkelt aber im Hintergrund und optimiert sich selbst - evtl. ein Störfaktor. Sequentielle Leserate bleibt aber gleich, jedoch die Random/4K- Leserate geht ebenfalls runter, was für Deine Spiele und vor allem Windows wichtiger sein könnte. Meine Crucial MX500 sind davon tendenziell mehr betroffen als meine Samsung Evo, obwohl sie ebenfalls auf TLC basieren. Deswegen würde ich Dir vorschlagen einfach 5% Over-Provisioning einzurichten und dann kannst ruhig vollklatschen. Ich hab's nicht gemacht, weil ich weiß, dass bei mir mindestens 15% immer frei sind.
 
Jede SSD brauch etwas "Luft zum Atmen"...Je nach NAND-Flash Technologie mal mehr (QLC), mal weniger (SLC)... Es ist halt ratsam in Deinem Fall (TLC) ca. 5% frei zu lassen, mindestens 3%. Wenn Du nicht stoppen kannst und gewohnt bist alles voll zu hauen, dann rate ich Dir Over-Provisioning einzurichten. Geht über Crucial Storage Executive. Bei Samsung geht's über Magician und dort werden 10% (jedoch mindestens 1% der Kapazität!) per default vorgeschlagen.

Jawohl, Schreibrate geht runter, SSD werkelt aber im Hintergrund und optimiert sich selbst - evtl. ein Störfaktor. Sequentielle Leserate bleibt aber gleich, jedoch die Random/4K- Leserate geht ebenfalls runter, was für Deine Spiele und vor allem Windows wichtiger sein könnte. Meine Crucial MX500 sind davon tendenziell mehr betroffen als meine Samsung Evo, obwohl sie ebenfalls auf TLC basieren. Deswegen würde ich Dir vorschlagen einfach 5% Over-Provisioning einzurichten und dann kannst ruhig vollklatschen. Ich hab's nicht gemacht, weil ich weiß, dass bei mir mindestens 15% immer frei sind.
Ich danke dir!! Ich könnte auch 100-150 GB frei lassen ...das wäre kein Thema , dann bräuchte ich das Over-Provisioning ja nicht einrichten!?
Nur verstehe ich das nicht. Wenn ich die 100 GB frei lasse , bleibt die Leserate auch bei den 4K Random dann oben?

Es gibt auch immer wieder Aussagen das man eine SSD zu 20% frei lassen soll das wären fast 300 GB das wäre ja doch ein bisschen zu viel an ungenutzer Speicherplatz.
 
Ich danke dir!! Ich könnte auch 100-150 GB frei lassen ...das wäre kein Thema .
Nur verstehe ich das nicht. Wenn ich die 100 GB frei lasse , blebt dann die Leserate auch bei den 4K Random oben?

Es gibt auch immer wieder Aussagen das man eine SSD zu 20% frei lassen soll das wären fast 300 GB das wäre ja doch ein bisschen zu viel an ungenutzer Speicherplatz.
Nein, 20% (gar bis 25%) beziehen sich eher auf QLC-SSDs, die brechen beim Vollwerden viel stärker ein und auch nicht nur in Benchmarks, sondern in Real-World spürbar. Vor allem DRAM-lose SSDs sind von "Stottern" beim Nachladen in Spielen betroffen - das trifft aber nicht auf Deine MX500 zu.
Warum sich eine SSD im Hintergrund optimiert, was ist statisches/dynamisches Wear-Leveling bzw. Write-Amplification? - Dafür gab es mal einen hilfreichen Artikel, falls Du Zeit hast.
Nun, Deine 2TB-SSD hat bereits einiges reserviert, genauer gesagt: von den eigentlich vorhandenen 2199GB (=2048GiB) siehst Du nur 2000 GB (=1863GiB) in der User-Area. Um auf sicher zu gehen, lass doch glatte 1700 oder 1750 GiB für Dich und verzichte so auf 113 GiB, also 1863 - 1750 = 113 GiB für Over-Provisioning (= ~6%, was mMn mehr als genug ist).
 
@massaker ich danke dir ... ja ich werde so um die 100-130 GB frei lassen.

Also genau genommen sind ja von den 2 TB nur 1,81 GB frei zu Verfügung. Aber wie gesagt werde ich so um die 100-130 GB frei lassen ..habe ja auch noch eine zweite 2 TB MX500 ;-)
 
@massaker ich danke dir ... ja ich werde so um die 100-130 GB frei lassen.

Also genau genommen sind ja von den 2 TB nur 1,81 GB frei zu Verfügung. Aber wie gesagt werde ich so um die 100-130 GB frei lassen ..habe ja auch noch eine zweite 2 TB MX500 ;-)
Ja, Du meinst 1,81 TB werden Dir angezeigt. Das ist weil 1863GB /1024 = 1,819 TiB sind. Also rundet Windows grob auf 1,81 TB ab.
100-130GB frei lassen klingt sehr vernünftig, ich habe übrigens auch 2x 2TB MX500, willkommen im Club :bigok:
 
Windows zeigt auch den anderen Wert an ;):
Screenshot 2021-04-27 201444.jpg
 
Ja, Du meinst 1,81 TB werden Dir angezeigt. Das ist weil 1863GB /1024 = 1,819 TiB sind. Also rundet Windows grob auf 1,81 TB ab.
100-130GB frei lassen klingt sehr vernünftig, ich habe übrigens auch 2x 2TB MX500, willkommen im Club :bigok:
Die erste 2TB MX500 hat mich so begeistert das ich mir gleich noch eine geholt habe :d

Eine andere Frage hätte ich dennoch
Bei HWINFO wird mir 1 Interface CRC Error angezeigt ..wie der Zustande gekommen ist ..eine Ahnung ? Einer ist jetzt aber auch nicht ein Problem zur Sorge ,denke ich !?
 

Anhänge

  • 1.png
    1.png
    1,9 KB · Aufrufe: 82
Was meine Frage ist: Dabei geht dann nur die Schreibrate runter , die Leserate bzw die Geschwindigkeit beim lesen (was ja wichtiger ist) bleibt enthalten
Die Leserate der SSD selbst kann bei einigen SSDs leiden, einfach weil sie wenn sie sehr voll sind die Daten nicht optimal über die NAND Dies verteilt schreiben können und damit danach nicht so schnell lesen können, denn die Geschwindigkeit kommt ja schon der Parallelität, aber bei SATA SSDs ist dies weniger ein Problem als bei NVMe SSDs und je mehr NAND Dies sie hat, umso weniger als bei solchen mit kleineren Kapazitäten, also weniger NAND Dies.
SSD werkelt aber im Hintergrund und optimiert sich selbst - evtl. ein Störfaktor. Sequentielle Leserate bleibt aber gleich, jedoch die Random/4K- Leserate geht ebenfalls runter,
Wieso sollte die 4k Leserate runtergehen? Hast Du dazu Belege? Es wird eher die sequentielle Leserate leiden, eben wegen der möglichen Einschränkungen bei der Verteilung beim Schreiben und die korrigieren die Controller in der Idle-GC nicht unbedingt, da dies die WA erhöhen würde und dazu kommt noch der Effekt des Filesystems. Denn je voller das Filesystem wird, umso mehr fragmentiert es die Dateien, die Fragmentierung ist einzig und alleine eine Sache des Filesystems und hat gar nichts damit zu tun wie die SSD die Daten intern speichert!

Wenn eine Datei fragmentiert ist, bedeutet dies das diese Dateie nicht im Stück ab einem bestimmten Cluster auf den darauffolgenden Cluster des Filesystems gespeichert wurd, sondern wie viele kleine Daten an unterschiedlichen Adressen abgelegt werden müssen, weil es keine Lücke in der Belegung gab die groß genug gewesen wäre sie am Stück aufzunehmen. Je mehr Dateien davon betroffen sind, umso höher ist der Fragmentierungsgrad des Filesystems. Die Aufteilung der Dateien auf die Cluster des Filesystems kann der Controller der SSD nicht beeinflussen, dies verwaltet alleine das Betriebssystem des Rechners und es Einfluss auf die Art der Zugriffe beim Lesen (und natürlich auch beim Schreiben) der betroffenen Datei, denn jedes Fragment muss einzeln gelesen werden, als wäre es eine eigene Datei. Damit werden statt einiger langer viele kürzere Zugriffe nötig um sie zu lesen und bei kurzen Zugriffen lesen SSDs langsamer als bei langen Zugriffen, vergleiche nur mal die 4k Lesend, der kürzeste Zugriff mit den seq. Lesenraten. Aber im Vergleich zu einer HDD muss die Fragmentierung bei einer SSD schon sehr stark sein um spürbar weniger Leseperformance zu ergeben, die Datei muss also wirklich in viele kleine Fragmente aufgeteilt sein, bevor man dies merken würde, zumal bei einer SSD mit vollem DRAM Cache. Bei einer DRAM less wäre es schlimmer, weil dann deren Controller schlimmstenfalls für jeden Cluster an dem Ein Fragment beginnt, erst den passenden Teil der Mappingtabelle aus dem NAND nachladen müsste.

Fragmentierung gibt es also SSDs genauso wie bei HDDs, weil es eben eine Sache des Filesystems und nicht des Mediums ist, weshalb aus die Idle-GC daran nichts ändern kann, sie beeiflusst ja nicht die Zuordnung der Dateien auf die Cluster des Filesystems, sondern nur wo die Daten für eine bestimmte externe Adrese im NAND stehen. Der Einfluss der Fragmentierung auf die Performance ist aber bei SSD ungleich geringer als bei HDDs.
Bei HWINFO wird mir 1 Interface CRC Error angezeigt ..wie der Zustande gekommen ist ..eine Ahnung ?
Schau mal mit CrystalDiskInfo auf den Rohwert vom Attribut C7, der dürfte bei Dir 1 sein und wenn er nicht weiter steigt, ist alles in Ordnung. Wenn er mit der Zeit ansteigt, gibt es ein Problem mit dem SATA Datenkabel, ggf. der Backplane eines Hot-Swap Rahmens, sollte Du sowas nutzen. Meist ist nur ein Steckt des Kabels nicht wirklich fest, aber manchmal hat das Kabel auch einen Schaden, dies passiert schnell wenn man mal am Kabel statt am Stecker gezogen hat, was ja auch manchmal schwer zu vermeiden ist. Diese Schäden sieht man den Kabeln nicht an, aber sie erzeugen halt hinterher dann Übertragungsfehler und genau diese zählt der Rohwert vom Attribut 0xC7. Es ist ein Lebenszeitzähler, er sollte also nicht steigen, denn wenn er steigt, dann bedeutet dies das neue Fehler aufgetreten sind. Wurde das Problem behohen, dann fällt er nicht wieder auf 0 zurück, was aber nicht schlimm ist, er darf nur nicht ansteigen.
 
CDI zeigt mir alles okay auf C7 an ;) die Smartwerte sind auch alle sehr gut
CDI zeigt immer alles OK bei C7 an, Du musst schon selbst auf den Rohwert (die ganz rechte Spalte) schauen und beobachten ob der steigt. Ggf. wird er wenn Fehler auftreten, trotzdem nur einmal pro Einschaltvorgang um 1 hochgezählt, schau also auch in den folgenden Tagen immer mal wieder drauf. CDI schaut übrigens nur auf ganz wenige Attribute um seine Bewertung vorzunehmen, daher sollte man schon die einzelnen Werte betrachten und nicht nur auf die Bewertung schauen.
 
CDI zeigt immer alles OK bei C7 an, Du musst schon selbst auf den Rohwert (die ganz rechte Spalte) schauen und beobachten ob der steigt. Ggf. wird er wenn Fehler auftreten, trotzdem nur einmal pro Einschaltvorgang um 1 hochgezählt, schau also auch in den folgenden Tagen immer mal wieder drauf. CDI schaut übrigens nur auf ganz wenige Attribute um seine Bewertung vorzunehmen, daher sollte man schon die einzelnen Werte betrachten und nicht nur auf die Bewertung schauen.

Der steht auch auf 1 mir ist das schon mit dem Interface Error vor einigen Wochen aufgefallen seit dem steht der auf 1 ..also scheint es da wirklich kein Problem zu geben !?
Ich habe von CDI mal nen Screenshot gemacht. Ich denke die Werte sind alle soweit ganz gut

1.png
 
Der steht auch auf 1 mir ist das schon mit dem Interface Error vor einigen Wochen aufgefallen seit dem steht der auf 1 ..also scheint es da wirklich kein Problem zu geben !?
Wenn der Wert nun auf 1 stehenbleibt, gibt es kein Problem. Es gab mal eines, aber inzwischen wurde dies behoben. Vielleicht wer der SATA Datenstecker am Anfang nicht ordentlich drauf als der Rechner mit der neuen SSD einmal eingeschaltet wurde und beim definitiven Zusammenbau war er dann korrekt aufgesteckt. Aber was genau passiert ist, kann ich nur vermuten, Du solltest es wissen. Aber wie gesagt, wenn der Wert nun auf 1 stehenbleibt, ist alles gut.
 
Dann ist es bei der MX500 so, bei den Samsung SSDs gibt es diesen Effekt nicht, wie hier für die 970 Evo und hier für die 860 4TB Evo und Pro zu sehen ist. Wobei gerade die 4k QD1 Werte immer sehr vom System und dessen Energiesparzuständen abhängen, da kann schon mehr Last im HIntergrund die Werte verändern, weil das System dann nicht in die tieferen Energiesparzustände geht.
 
Die 13 MB/s weniger bei 4K bei einer Rate von 3% Frei..sind das jetzt extrem viel in dem die SSD fällt ? 13MB klingen im ersten Moment nach nicht wirklich viel
 
Darf ich mich einklinken? Wenn ich jetzt 10% frei lassen will, ist da unpartitionierter Speicherplatz gemeint oder lasse ich auf einer Partition (wenn es nur eine gibt) 10% frei?
 
Unpartitionierter Speicherplatz steht der SSD jederzeit uneingeschränkt für interne Zwecke zur Verfügung. Mehr mußte nicht wissen....
 
Wenn ich jetzt 10% frei lassen will, ist da unpartitionierter Speicherplatz gemeint oder lasse ich auf einer Partition (wenn es nur eine gibt) 10% frei?
Wenn TRIM funktioniert, was man mit dem Tool TrimCheck prüfen kann (man lässt es zweimal laufen, beim ersten mal wird die Testdatei erzeugt und gelöscht, beim zweiten mal wird geschaut ob TRIM funktioniert hat), dann ist das egal. Wenn TRIM nicht funiktioniert, dann nutzt es auch nicht nachträglich eine Partition zu verkleinern, da der Adressbereich den man ihr wegnimmt ja schon einmal beschrieben wurden und ohne TRIM bleiben diese Daten für den Controller so lange gültig bis sie überschrieben wurden oder ein Secure Erase erfolgt, dann stimmt also die Aussage aus Post #18 nicht! Wenn TRIM funktioniert, dann reicht es aber eben auch einfach entsprechend Dateien zu löschen, also Aufzuräumen und dem Controller steht der Speicherplatz den diese belegt hatte, auch wieder für interne Zwecke zur Verfügung, genau dafür wurde TRIM ja auch eingeführt.

In dem Sinne muss ich Luxxiator also widersprechen, denn dies gilt so nur, wenn man bei der neuen oder per Secure Erase gelöschten SSD einen Bereich unpartitioniert lässt, nicht aber auf jeden Fall wenn man Partitionen nachträglich verkleinert und schon gar nicht, wenn diese Partition eben vorher vollgeschrieben war und TRIM nicht funktioniert.
 
Ich bin natürlich davon ausgegangen, das die Partition vor der Installation von Windows entsprechend kleiner erstellt wurde. Ohne TRIM ist bei SSD´s grundsätzlich schon mal schlecht....
 
Man kann doch die Größe der Partitionen auch während der Installation anpassen, oder geht das nicht mehr? Vorher die Partitionen anzulegen ist zwar auch möglich, man sollte sich aber dann gut damit auskennen, damit es hinterher keine Probleme gibt, wie z.B. weil die falsche Art der Partitionierung (MBR oder GPT) gewählt wurde.
 
Ich habe mich etwas blöd ausgedrückt: Ich meinte mit vorher natürlich im Rahmen des Setups sprich Windows landet dann auf der entsprechend kleineren Partition. Hinterher die Partitionsgrößen anzupassen geht zwar mit Boardmitteln auch, aber halt nicht immer....
 
Hinterher die Partitionsgrößen anzupassen geht zwar mit Boardmitteln auch, aber halt nicht immer....
Verkleinern geht immer, soweit wie der letzte belegte Cluster ist und vergrößern geht nur "nach rechts", also wenn in der Datenträgerverwaltung rechts daneben unbelegter Speicherplatz vorhanden ist, nicht aber wenn sich direkt anschließend eine Partition wie z.B. die Wiederherstellungspartition befindet.
 
Ist bekannt, danke...:-)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh