so aktiviere ich immer den Standbymodus "Suspend to RAM" only. Das schadet der SSD zumindest nicht, denke ich.
Nein, natürlich schadet es einer SSD nicht, wenn nicht auf sie geschrieben wird, aber es muss halt jeder selbst wissen, wenn zwischenzeitlich ein Stromausfall passiert oder z.B. der Akku des Notebooks leer ist, sind die Daten im RAM halt weg.
bei SSD kann eine (unregelmäßige) Defragmentierung sinnvoll sein? Habe ich mich gerade verlesen? Alle Welt meint doch, das wäre sinnlos aufgrund der SSD-Technik?!
Es geht vor allem um die Zugriffe, die orientieren sich aber nur am Filesystem, denn sollen ja Dateien gelesen oder geschrieben werden und die müssen irgendwo auf dem globalen Adressraum eines Laufwerks abgelegt werden. Diese globale Adressraum der Platten, egal ob HDD oder SSD, teilt man zuerst in Partitionen auf, wobei es auch nur eine geben kann, aber wenn es kein Supperfloppyformat (für USB Sticks) ist, dann muss es eine Partitionstabelle und mindestens eine Partition gehen und eine Platte normal unter Windows nutzen zu können.
Den Adressraum jeder Partition verwaltet das Filesystem und es darf eben auf jeder Adresse nur eine Datei abgelegt werden, sonst gibt es Datensalat. Das ist am Anfang einfach, da werden die Dateien einfach hintereinander abgelegt, nur mit der Zeit kommt es eben dazu, dass Dateien wie Logdateien wachsen und mehr Platz brauchen, dann muss ein neues Fragment angelegt werden und dies liegt dann woanders, wenn der Platz direkt hinter der Dateien schon belegt ist oder es werden eben Dateien gelöscht, so entstehen Lücken mit unbelegten Adressen und wenn dann eine Datei geschrieben wird für die es keine ausreichend große Lücke gibt, muss diese ebenfalls in Fragmenten abgelegt werden. Das alles hat noch nichts mit der Frage zu tun ob das Filesystem auf einer HDD oder eine SSD liegt, die Fragmentierung ist eben rein eine Sache des Filesystems.
Das macht erst einen Unterschied wenn man so eine fragmentierte Datei liest, denn dann müssen der Reihe nach alle Fragmente gelesen werden, u.U. geht auch ein Teil parallel aber im Prinzip muss trotzdem eben Fragmente so gelesen werden als wäre es eine eigene Datei. Das bedeutet aber auch, dass das Filesystem für jedes Fragment jeweils einen Lesebefehl ausführen muss und nicht langen sequentielle Zugriffe auf die ganze Datei auf einmal machen kann, die ATA Befehle erlauben ja die Adressierung von bis zu 2^16 aufeinanderfolgende LBAs, also 32MiB pro Befehl. Moderne SATA SSDs schaffen erst bei Zugriffen die über 256k oder 512k gehen die maximalen Transferraten, auch wenn es bei ATTO viel früher zu sein scheint, die arbeiten dort aber mit 4 Overlapping I/Os.
Sind die Fragmente entsprechend klein, ein Cluster ist die kleinste mögliche Größe, so kann sich mal jeder ansehen was so eine SSD bei 4k Lesend schafft und selbst parallel gelesen wird, sind eben bei 4kQD32 bzw. 4k_64 eben nicht die gleichen Werte wie beim sequentiellen Lesen. HDDs müssen beim Zugriff auf jedes Fragmente auch noch langsame Kopfbewegungen machen, aber das ist nicht Fragmentierung sondern die Folge von Fragmentierung weil diese eben andere Zugriffe erzeugt die statt sequentiell eben zufällig sind. Weil die langen Zugriffszeiten der HDDs wegfallen, sind auch die Folgen der Fragmentierung bei SSDs weitaus geringer, aber man kann sie zuweilen bei SSDs auch in Benchmarks sehen, die sequentiellen Schreibraten leiden dann vor allem, eben weil die Testdatei gar nicht wirklich so sequentielle geschrieben wurde, sondern sich über viele Fragmente verteilt, wenn es im Filesystem keine passend große Lücke mehr gab. Löscht man dann eine größere ältere Datei und gibt damit so eine Lücke wieder frei, so stimmt dann die sequentielle Schreibrate plötzlich wieder.
Das Fragmentierung die Dateien die am Anfang geschrieben und nie verändert wurden bzw. nie gewachsen sind, überhaupt nicht betrifft, sollte auch klar sein und hat auch nichts mit der Frage SSD oder HDD zu tun.
Ein anderes Problem der Fragmentierung sind die aufgeblähten Verwaltungsdaten des Filesystem, denn es muss ja für jedes Fragment einen Eintrag geben und das wurde glaube ich auch von Microsoft als Grund angeführt. Es kann sogar so schlimm werden, dass man ein FAT32 nicht in NTFS konvertieren kann, weil das Filesystem zu stark fragmentiert ist, NTFS scheint da weniger Fragmentierung zu vertragen und deshalb liefert MS ja auch einen Defragmentierdienst mit.
Fragmentierung bringt also keine Vorteile sondern nur Nachteile, ob oder ab wann diese so massiv werden, dass man auch mal seine SSD komplett defragmentiert, muss jeder selbst wissen. Für die SSD ist es wie für die HDD nur eine Reihe von Lese- und Schreibzugriffen und wenn dabei eine kaputt geht, wäre sie sowieso bald hin gewesen.