SSD Lebensdauer: Ruhezustand, Suchindizierung, Wiederherstellung?

Ich nutze mit meiner SSD folgende Dienste:

  • Ruhezustand

    Stimmen: 15 60,0%
  • Wiederherstellung

    Stimmen: 14 56,0%
  • Suchindizierung

    Stimmen: 18 72,0%
  • nichts davon

    Stimmen: 6 24,0%

  • Anzahl der Umfrageteilnehmer
    25

Finki

Enthusiast
Thread Starter
Mitglied seit
02.10.2007
Beiträge
23
Hallo zusammen,

meine 850 Evo läuft nun mit Win 7 Pro. Im Vergleich zur alten HDD ist das schon ein krasser Unterschied auf meinem relativ lahmen i2100T-System.

Bisher nutzte ich immer den Ruhezustand, weil ich viele Programme offen habe und täglich brauche. Daher wäre mir die weitere Nutzung lieb gewesen, aber ich las Empfehlungen, sowohl auf den Ruhezustand als auch die Suchindizierung und die Wiederherstellung der Lebensdauer der SSD zuliebe zu verzichten.

Andererseits fand ich auch diverse Tests und Meinungen, dass man eine SSD damit kaum kaputtbekommt, vom Pech eines Montagsgeräts mal abgesehen (was ich als HDD auch schon hatte). Backup mach ich natürlich täglich.

Aber mich würde trotzdem noch interessieren, ob ich die 3 genannten Dienste unbedenklich nutzen kann oder wie die Meinungen dazu aussehen. Vielen Dank.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei normaler Nutzung halten SSDs länger als Festplatten, wenn der Controller keine Bugs hat und genug Zellen in Reserve sind. Selbst für kritische Anwendungen wie Datenbankserver gibt es mittlerweile kaum kaputtschreibbare SSDs zu einem bezahlbaren Preis: http://geizhals.de/1299604
Wenn man extrem viel schreibt, kann man solche SSDs natürlich auch privat einsetzen.
 
Was meinst Du mit Zellen in Reserve, das OC? Sollte man die OC-Funktion der Samsung-Platte unbedingt aktivieren?
 
Mit Zellen in Reserve meine ich, dass der Controller kaputte Zellen durch Reservezellen der SSD ersetzt. Ist eine Zelle defekt(=nicht mehr beschreibbar), schreibt er die Daten auf eine Reservezelle.

Bei der verlinkten SSD müsste man schon mehrere hundert Gigabyte am Tag schreiben, um sie im Durchschnitt innerhalb von 10 Jahren kaputt zu bekommen. Also keine Bange - auch die normalen Flashspeicher gehen vom Heimgebrauch nicht kaputt ;)

Ich denke mal, dass sich das Gerücht eher wegen anfänglicher SSDs mit völlig verbuggten Controllern hält, die es heutzutage eigentlich nicht mehr gibt. Allerdings pfuschen manche an der Kühlung und so weiter. Dafür gibt's aber hier die Beratung wie bei anderer Hardware auch. Allgemeine technische Nachteile von SSDs sehe ich nicht mehr.
 
Nutz die SSD einfach normal, die NANDs der 850 Evo sind mit 3000 P/E Zyklen spezifiziert, die wirst Du auch mit den Ruhzustand nicht aufgebraucht bekommen, selbst wenn der dreimal am Tage genutzt wird. Mache Dir keine Sorgen um die Haltbarkeit, da wird oft immer noch eine übertrieben Hysterie im Netz rum getrieben, obwohl diverse Endurance Test gezeigt haben, dass ordentliche SSDs viele Hundert TBW bis einige PBW aushalten.
 
Echt, 3000? Ich habe irgendwie 1000 im Kopf, was natürlich auch schon nicht übel ist.

Aber folgende Frage dazu: Wenn ich von 250 GB z.B. 150 GB belegt habe mit Windows und Daten, dann bleiben für Ruhezustand und Co doch nur noch 100 GB, da die belegten Bereiches des Flash ja nicht mehr durchrotiert werden, oder?

Müsste man da nicht immer wieder mal seine (statischen) Dateien neu schreiben, damit die Rotation über die gesamten Nands geht?
 
Die planaren 21nm TLC NANDs der 840er waren mit 1000 P/E Zyklen spezifiziert, die 19nm der 840 Evo sogar mit etwa 1200, aber die 850 Evo hat eben 3D NAND mit viel größeren Zellen und damit auch viel mehr Haltbarkeit, weil da auch viel mehr Elektronen in einer Zelle sind und damit auch viel mehr Elektronen den Unterschied zwischen zwei Ladungszuständen ausmacht. Damit sind diese leichter zu unterscheiden, was einmal eben die Haltbarkeit erhöht und auch das Schreiben beschleunigt, denn man muss die Elektronen ja dabei nicht so genau dosieren.

Statische Daten braucht man nicht neu schreiben, die Controller der SSDs machen das schon selbst um ein Wear-Leveling, also einen gleichmäßigen Verschleiß der Zellen zu erzielen. Nutze die SSD einfach wie das was sie im Grunde auch nur ist: Eine schnelle HDD. Etwas besonderes zu Beachten gibt es seit Win 7 auch nicht mehr, denn das macht Windows schon selbst und besser als wenn man ihm da selbst ins Handwerk pfuscht, denn Windows bencht die SSDs sogar um die Services optimal darauf einzustellen.
 
Das Wear-Leveling verteilt also die statischen Daten regelmäßig neu? Sehr praktisch. Dann hoffe ich mal, dass meine 850er nicht negativ aus der Reihe fällt.
 
Genau dazu ist es da und bei jeder SSD müssen die Daten auch immer mal wieder refresht werden, schon weil es Dinge wie Read Disturb gibt, die Ladung der Zellen beim Auslesen also auch leidet und irgendwann eben erneuert werden muss. Man kann die Daten also vielleicht 100, 1.000 oder 10.000 mal Lesen, aber dann müssen sie auch mal wieder neu geschrieben werden und passiert immer woanders und dann wählt der Controller dafür hoffentlich auch Zellen die schon mehr Abnutzung haben.
 
Ah, d.h. wenn man eine SSD eine Zeit lang nicht nutzt, löschen sich die Daten von selbst? Oder gilt das nur für das Auslesen?
 
@Holt
Auch wenn Windows ab Win 7 SSDs erkennt, so sehe ich nach einer Neuinstallation immer defrag in der Aufgabenplanung und deaktiviere diesen manuell. Sind diese defrag-Aufgaben auch egal für heutige SSDs?
 
Finki, irgendwann nach Jahren und abhängig von den konkreten NANDs und der Lagertemperatur werden die Daten mal weg sein, aber leider auch die FW des Controllers (die steht ja auch im NAND) und damit wird die SSD dann nicht mehr funktionieren. Das sollte aber nur passieren, wenn sie dauernd stromlos gelagert wird, ansonsten sollte der Controller für ausreichend frühe Refreshes der NANDs sorgen und wenn NAND Zellen sehr oft gelesen werden, müssen sie früher wieder refresht werden. Wie gut das welcher Controller mit welchen NANDs im Griff hat, kann man meist erst nach einiger Zeit sehen, wie eben z.B. bei der 840 Evo, da hat es bis zum letzten FW Update nicht gepasst. Wird zu oft refresht, geht das ja auch auf die Haltbarkeit, deshalb muss man das schon gut auf die NANDs abstimmen.

Mandara, mit Windows 7 kannst Du eine SSD nur von Hand defragmentieren und das kann auch mal sinnvoll sein, wenn auch weit wenig häufig als bei HDDs. Win 7 nimmt aber niemals eine SSD in den Zeitplan für die Automatische Defragmentierung auf, es wirft sie nach dem Klonen beim ersten Start des Dienstes dort auch raus und man kann sie auch nicht von Hand eintragen. Da passiert also nichts automatisch, wie es bei HDDs der Fall ist. Mit Win 8 wurde das geändert, da werden aber SSDs nicht wirklich defragmentiert (allenfalls ganz bisschen, sollten Dateien extrem viele Fragment haben, was auch sinnvoll ist), sondern vor allem ein Batch-TRIM gemacht, wie beim fstrim von Linux. Daher sollte man die SSD ab Win 8 schon im Zeitplaner lassen und Windows packt sie auch von selbst dort rein. Außerdem sollte der Dienst aktiviert bleiben, bei Win 7 wenn man noch eine HDD im Rechner hat und diese defragmentiert haben möchte, dann ebenfalls. Lässt man ihn bei Win 7 an, aber hat nur SSDs im Rechner, so tut er eben einfach nichts, also macht es auch nichts ihn an zu lassen, es ist also schlicht überflüssig bzw. schädlich ihn zu deaktivieren, denn dann werden bei Win 7 HDDs nicht defragmentiert und ab Win 8 wird auch kein Batch-TRIM für die SSDs ausgeführt.
 
Danke Holt. Das sind Argumente genug, die Aufgabe aktiviert zu lassen.

Auch wenn es kaum mehr Haltbarkeit bei neuen SSDs bringt, so aktiviere ich immer den Standbymodus "Suspend to RAM" only. Das schadet der SSD zumindest nicht, denke ich.
 
Zuletzt bearbeitet von einem Moderator:
Ist jetzt zwar OT, aber .... bei SSD kann eine (unregelmäßige) Defragmentierung sinnvoll sein? Habe ich mich gerade verlesen? Alle Welt meint doch, das wäre sinnlos aufgrund der SSD-Technik?! :hmm::confused:
 
Macht aus meiner Sicht auch keinen Sinn, da der Controller eigentlich die Zellen nicht linear assoziiert, wie es baubedingt bei einer Festplatte üblich ist. Allerdings kann ich mir auch gut vorstellen, dass Holt das begründen kann. :d Wäre selbst an der Antwort interessiert.
 
Wie kann man eigentlich bei der 850 Evo den Zustand des Wear-Leveling auslesen? Die Samsung-Software zeigt mir das nicht an - oder ich habe es bisher nicht gefunden.
 
Ein wirklich sehr detaillierter Text. Ich konnte den allerdings dann doch ein Stück weit nachvollziehen. Im Prinzip könnte man es, untechnisch gesehen, so zusammenfassen, dass bei SSDs der Unterschied, ob fragmentiert oder defragmentiert, in der Praxis kaum subjektiv feststellbar sein dürfte.
 
Wenn die Dateien vom Dateisystem "zerpflückt" gespeichert werden, kann es sein, dass die einzelnen Dateifragmente nicht optimal über die Kanäle der SSD verteilt sind und so nicht simultan gelesen werden können, was die Übertragungsleistung reduziert. Nur, wenn die Dateien "in einem Stück" auf Dateisystemebene gespeichert werden, ist es für die SSD möglich sie optimal über die Kanäle zu verteilen. SSDs arbeiten intern wie ein RAID. Die maximale Übertragungsleistung ist nur dann abrufbar, wenn die Dateien oder Dateifragmente gleichmäßig über die Kanäle verteilt sind.

Unter anderem aus diesem Grund defragmentiert Microsoft ab Windows 8 auch eine SSD gelegentlich sanft. Wenn das nichts bringen würde, wäre Microsoft nicht auf die Idee gekommen und hätte das auch nicht in Windows eingebaut. Aber jetzt kommt sicherlich wieder die Argumentation, dass die sowieso keine Ahnung haben und man besser selbst an der Konfiguration herumdoktort.

Eine gelegentliche Defragmentation einer SSD beschädigt sie nicht, verbessert aber unter Umständen die Leistung. Es spricht also nichts dagegen eine SSD ab und zu zu defragmentieren, wobei das Windows ab Version 8 sowieso gelegentlich tut.
 
so aktiviere ich immer den Standbymodus "Suspend to RAM" only. Das schadet der SSD zumindest nicht, denke ich.
Nein, natürlich schadet es einer SSD nicht, wenn nicht auf sie geschrieben wird, aber es muss halt jeder selbst wissen, wenn zwischenzeitlich ein Stromausfall passiert oder z.B. der Akku des Notebooks leer ist, sind die Daten im RAM halt weg.

bei SSD kann eine (unregelmäßige) Defragmentierung sinnvoll sein? Habe ich mich gerade verlesen? Alle Welt meint doch, das wäre sinnlos aufgrund der SSD-Technik?!
Es geht vor allem um die Zugriffe, die orientieren sich aber nur am Filesystem, denn sollen ja Dateien gelesen oder geschrieben werden und die müssen irgendwo auf dem globalen Adressraum eines Laufwerks abgelegt werden. Diese globale Adressraum der Platten, egal ob HDD oder SSD, teilt man zuerst in Partitionen auf, wobei es auch nur eine geben kann, aber wenn es kein Supperfloppyformat (für USB Sticks) ist, dann muss es eine Partitionstabelle und mindestens eine Partition gehen und eine Platte normal unter Windows nutzen zu können.

Den Adressraum jeder Partition verwaltet das Filesystem und es darf eben auf jeder Adresse nur eine Datei abgelegt werden, sonst gibt es Datensalat. Das ist am Anfang einfach, da werden die Dateien einfach hintereinander abgelegt, nur mit der Zeit kommt es eben dazu, dass Dateien wie Logdateien wachsen und mehr Platz brauchen, dann muss ein neues Fragment angelegt werden und dies liegt dann woanders, wenn der Platz direkt hinter der Dateien schon belegt ist oder es werden eben Dateien gelöscht, so entstehen Lücken mit unbelegten Adressen und wenn dann eine Datei geschrieben wird für die es keine ausreichend große Lücke gibt, muss diese ebenfalls in Fragmenten abgelegt werden. Das alles hat noch nichts mit der Frage zu tun ob das Filesystem auf einer HDD oder eine SSD liegt, die Fragmentierung ist eben rein eine Sache des Filesystems.

Das macht erst einen Unterschied wenn man so eine fragmentierte Datei liest, denn dann müssen der Reihe nach alle Fragmente gelesen werden, u.U. geht auch ein Teil parallel aber im Prinzip muss trotzdem eben Fragmente so gelesen werden als wäre es eine eigene Datei. Das bedeutet aber auch, dass das Filesystem für jedes Fragment jeweils einen Lesebefehl ausführen muss und nicht langen sequentielle Zugriffe auf die ganze Datei auf einmal machen kann, die ATA Befehle erlauben ja die Adressierung von bis zu 2^16 aufeinanderfolgende LBAs, also 32MiB pro Befehl. Moderne SATA SSDs schaffen erst bei Zugriffen die über 256k oder 512k gehen die maximalen Transferraten, auch wenn es bei ATTO viel früher zu sein scheint, die arbeiten dort aber mit 4 Overlapping I/Os.

Sind die Fragmente entsprechend klein, ein Cluster ist die kleinste mögliche Größe, so kann sich mal jeder ansehen was so eine SSD bei 4k Lesend schafft und selbst parallel gelesen wird, sind eben bei 4kQD32 bzw. 4k_64 eben nicht die gleichen Werte wie beim sequentiellen Lesen. HDDs müssen beim Zugriff auf jedes Fragmente auch noch langsame Kopfbewegungen machen, aber das ist nicht Fragmentierung sondern die Folge von Fragmentierung weil diese eben andere Zugriffe erzeugt die statt sequentiell eben zufällig sind. Weil die langen Zugriffszeiten der HDDs wegfallen, sind auch die Folgen der Fragmentierung bei SSDs weitaus geringer, aber man kann sie zuweilen bei SSDs auch in Benchmarks sehen, die sequentiellen Schreibraten leiden dann vor allem, eben weil die Testdatei gar nicht wirklich so sequentielle geschrieben wurde, sondern sich über viele Fragmente verteilt, wenn es im Filesystem keine passend große Lücke mehr gab. Löscht man dann eine größere ältere Datei und gibt damit so eine Lücke wieder frei, so stimmt dann die sequentielle Schreibrate plötzlich wieder.

Das Fragmentierung die Dateien die am Anfang geschrieben und nie verändert wurden bzw. nie gewachsen sind, überhaupt nicht betrifft, sollte auch klar sein und hat auch nichts mit der Frage SSD oder HDD zu tun.

Ein anderes Problem der Fragmentierung sind die aufgeblähten Verwaltungsdaten des Filesystem, denn es muss ja für jedes Fragment einen Eintrag geben und das wurde glaube ich auch von Microsoft als Grund angeführt. Es kann sogar so schlimm werden, dass man ein FAT32 nicht in NTFS konvertieren kann, weil das Filesystem zu stark fragmentiert ist, NTFS scheint da weniger Fragmentierung zu vertragen und deshalb liefert MS ja auch einen Defragmentierdienst mit.

Fragmentierung bringt also keine Vorteile sondern nur Nachteile, ob oder ab wann diese so massiv werden, dass man auch mal seine SSD komplett defragmentiert, muss jeder selbst wissen. Für die SSD ist es wie für die HDD nur eine Reihe von Lese- und Schreibzugriffen und wenn dabei eine kaputt geht, wäre sie sowieso bald hin gewesen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh