Defragmentieren von SSDs - doch sinnvoll

wie das genau abläuft weis ich leider nicht, wie gesagt die erste Defragmentierung hat meine bis dahin zwei Jahre alte 840er wieder extrem flott gemacht.
Ich frag mich jetzt echt ob ein Leben auf diesem Planeten noch Sinn macht. Warum schreibe ich hier eigentlich irgendwas?:wall:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn das "Laufwerke defragmentieren und optimieren"- UI bei jeder "Defragmentierung" auch den TRIM Befehl ausführt und ich erkläre, warum es wohl auf den TRIM- Befehl und nicht auf die Defragmentierung zurückzuführen ist, und zudem Einigkeit besteht, dass die Fragmentierung selbst rechnerisch keine Immensen Einbußen mit sich führen kann, wieso schreibst Du dann im unmittelbaren Post danach, dass bei Dir die Defragmentierung Deine SSD viel schneller gemacht hat? Das kapier ich einfach nicht. Sorry aber das kann mein armes Gehirn leider nicht wirklich verarbeiten und tut jetzt weh.
 
hallo oooverclocker,
es tut mir leid Dir Kopfweh zu bereiten, aber es ist leider so, ich habe die SSD defragmentiert (defrag - Befehl) und seit dieser Zeit
- kein lahmender Windows Start, die Programme, Office etc. laden ruck-zuck usw.
Ich bin froh dass es so ist.
Vielleicht hab ich auch eine wunder SSD ???
Keine Ahnung, aber seither kann ich mit meinem alten System wieder prima arbeiten.
Und ich hoffe es bleibt so, deshalb defragmentiere ich auch weiterhin.
Bis die SSD kaputt geht.
Sorry aber hier holt die Realität scheinbar die Theorie ein.
Bei mir war es Erfolreich und nicht nur messtechnisch sondern deutlich spürbar.
 
In den meisten SSD Review wird mehr oder weniger viel Müll geschrieben und jede SSDs hat eine Garbage Collection, jede halbwegs moderne auch eine Idle Garbage Collection (Idle-GC), so auch die 840 Evo. Das kann man auch an dem PCMark 8 Storage Consistency Test sehen, die Erholung in den Recovery Phasen zeigt die Wirkung der Idle-GC, hier sieht man die 840 Evo 250GB (orange Linie) wie sie sich geradezu vorbildlich erholt:

PCM8-Avg-BW-1.png

Wieso HT4U.net auf so eine falsche und bescheuerte Aussage kommt, weiß ich nicht, aber leider sind schlechte SSD Review viel häufiger als gute und ich kann und will nicht jeden Mist der da geschrieben wird immer richtigstellen müssen. Dann hätte ich gerade auch bei Seite die bei anderen Themen durch kompetent sind, wirklich viel zu tun. Nur weil jemand sich mit CPU, Mainboards, Grakas, Netzteile und/oder auch Festplatten auskennt, muss der von SSDs noch lange nicht so viel Ahnung haben wie er meint.

Edit: Ok, er kann natürlich Müll beseitigen aber halt nicht automatisch. Aber ich würde mal sagen, dass jeder wusste, was ich meine und das jetzt nur Wortklauberei ist.
Nein, das ist keine Wortklauberei, es ist nur ein Beleg für Desinformation, sei es aus Unwissenheit oder warum auch immer. Das Fazit "Für Datenbankanwendungen oder sonstige größere Lasten ist dieses Laufwerk nicht so sehr geeignet." ist korrekt, aber es liegt eben nicht daran das der " Controller keine proaktive Garbage-Collection durch"führen würden, sondern an den TLC NANDs. "Zur Performance-Wiederherstellung ist man also ganz auf TRIM in Verbindung mit dem Löschen von Dateien oder dem Überschreiben mit sequentiellen Daten angewiesen." Ist auch Quatsch, schon weil beim Überschreiben von Dateien gar kein TRIM zu Einsatz kommst, das ist auch nicht nötig, da jeder Controller einer SSD beim Überschreiben einer vorher schon belegte Adresse automatisch weiß, dass die alten Daten die vorher der Adresse zugewiesen waren, nun ungültig sind und gelöscht werden können.

Vor der Einführung von TRIM oder in Systmen wo TRIM nicht funktioniert ist das Überschreiben auch der einzige Weg auf dem ein Controller überhaupt erfahren konnte, welche Daten nun ungültig sind. SSDs können also niemals nur auf TRIM angewiesen sein, sie würden z.B. unter XP ja nicht länger funktionieren als bis alle NANDs einmal beschrieben wurden und bei typischen Enterpriseanwendungen wie Datenbanken oder Virtualisierung wird auch praktisch nie etwas gelöscht (und damit auch nie getrimmt), sondern immer nur überschrieben.

Das ist also schon von daher kompletter Humbug und außerdem ist der gleiche MEX Controller der 840 Evo auch in der 850 Pro (außer der 2TB) verbaut, in der 840 Evo 1TB und ist auch praktisch nur ein 100MHz höher taktender MDX aus der 840 und 840 Pro, unterstellt HT4U denen keine proaktive Garbage-Collection durch"führen?

wie das genau abläuft weis ich leider nicht, wie gesagt die erste Defragmentierung hat meine bis dahin zwei Jahre alte 840er wieder extrem flott gemacht.
Die ist auch ein Sonderfall, da bei der der Aspekt des Refreshs der Daten dazukommt.
 
wie defragmentiert man denn unter win 8/10 ? wenn ich optimieren drücke dann ist das bei meinen ssds in 3 sekunden durch. das kanns ja nicht sein oder?

 
Zuletzt bearbeitet:
Windows 8.1 hat doch Bordmittel die sich "optimieren" nennen und in regelmäßigen Zeitabständen das ausführen.
 
ich wills aber mal manuell machen und das geht anscheinend nicht.^^ automatisch hasse ich^^
 
doch, bei den meisten SSD´s dauert das trim des freien bereichs nicht länger als ein paar Sekunden, das passt schon.
Das geht recht fix
 
lt. des vom TE verlinkten Artikels defragmentiert Windows automatisch die SSD einmal im Monat!
Win7 nimmt SSD überhaupt nicht in den Zeitplandes Defragmentierdienstes auf, Win8(.1) schon, aber es macht keine Defragmenierung wie es bei HDDs gemacht wird und worum es hier geht, sondern ein Offline TRIM wie fstrim unter Linux, es werden also alle alb unbelegt erkanten LBAs getrimmt, aber keine Dateien bewegt.

Wie oooverclocker das Defragmentieren angestoßen hat, weiß ich auch nicht, vermutlich nur über eine Kommandozeile, die GUI erlaubt es meines Wissen nach nämlich nicht, das ging nur bei Win7, da kommt man die SSDs mit Windows Boardmitteln auch noch manuell defragmentieren.
Windows 8.1 hat doch Bordmittel die sich "optimieren" nennen und in regelmäßigen Zeitabständen das ausführen.
Was aber eben keine Defragmentierung sondern nur ein TRIM ist.
 
Nein, ich hatte ihn nur kurz überflogen, aber danke von mal für den Hinweis. Also defragmentiert Windows wenn die Snapshotfunktion aktiv ist, weil die Schreibrate auch fragmentierten SSDs schlechter ist, was sich ja auch mit dem deckt was ich geschrieben habe, nämlich das man es beim Schreiben am meisten merkt. Dabei beziehen sie sich da vor auf die Metadaten die ich zur Vereinfachung gar nicht erwähnt hatte, die aber bei jeder Fragmentierung noch hinzukommen. Was es genau mit der maximum file fragmentation auf sich hat und welche Limit Windows noch besitzt, ich dachte bei NTFS gäbe es da keine, werde ich mir noch mal durchlesen, aber jetzt habe ich dazu leider keine Zeit.

Ob einmal im Monat nun häufig ist oder nicht, hängt natürlich extrem von der Nutzung ab, aber bei Nutzung von Snapshot darf man wohl eine sehr intensive unterstellen.
 
Tja, Holt, dann kannst Du Dich jetzt leider hinter den Ersteller von Post 2 einreihen. Und leider sind damit auch alle Deine Posts in diesem Thread teils mit Fragezeichen versehen.

Da wie in jedem Forum die eigentliche Aussage irgendwann untergeht (hier kommt noch das nicht-lesen verlinkter Artikel, und/oder das Unververständnis der englischen Sprache dazu), hier noch mal in klarem Deutsch worum es geht:

Nachdem ein Blogger herausgefunden hat dass Windows 8 auf seinem System ungefähr ein Mal im Monat die SSD richtig defragmentiert (nicht Trim!), wurde das von Lesern des Blogs bestätigt, und als vermutlicher Bug veröffentlicht.

Erst lange Zeit später kam über einen Blog eines MS-Mitarbeiters die Bestätigung, dass dies nicht ein Bug sei, sondern Absicht.

Begründung: Die per Default aktive Systemwiederherstellung (VSS, Schattenkopie) muss volle Schreibgeschwindigkeit haben, sonst kann es zu einer Performanceeinbuße beim normalen Arbeiten kommen. Und die volle Schreibgeschwindigkeit ist nicht gegeben wenn die SSD zu stark fragmentiert ist (letzteres ist in diesem Forum schon oft genug erklärt worden).

Zweite Begründung: es scheint ein Limit für maximale Fragmentierung zu geben. Ist eine Datei zu sehr fragmentiert kann dies irgendwann vom Dateisystem nicht mehr abgebildet werden.

Für beide Begründungen wurden keine weiteren 'Werte' veröffentlicht, wo also genau diese Grenzen sind ist unklar.

Klar ist dagegen nunmehr: Das Mantra 'SSD niemals Defragmentieren' ist Unsinn, im Extremfall sogar Daten-gefährdend.

Unsinn ist es aber auch seine SSD nun jeden Tag zu Defragmentieren. Mit ein Mal im Monat WENN die SSD denn relevante Fragmentierung aufweist (Pinky's 5% sind IMHO kein Grund zu Defragmentieren) scheint man dagegen nichts falsch zu machen.

Ich wies außerdem darauf hin, dass dieser Sachverhalt (immerhin seit 2014 bekannt) immer noch von diversen Herstellern von Defragmentierungssoftware ignoriert wird. Dazu zählen O&O wie auch Piriform (Defraggler). Beide kolportieren weiterhin das 'Niemals SSD Defragmentieren' Mantra, und bieten daher außer Trim bzw. Nullenfülltrim keine speziellen Modi an mit denen man SSDs sinniger und vielleicht auch schonender in Schuss hält. Raxco (PerfectDisk) und Auslogics (Disk Defrag) dagegen bieten solche Modi in leicht verständlicher Form (wobei ich mir nicht sicher bin ob die wirklich vorher alles schon richtig verstanden haben, oder dies nur Auswüchse der Marketingabteilung waren, und es sich plötzlich als korrekt und richtig erwiesen hat...was'n Glück aber auch...).
 
Die Defragmentiereung wie Win8 bei aktiven volume snapshots macht, ist nicht mit einer zu vergelichen die normal Defragmentierprogramme oder auch Windows Defragmetierdienst für HDDs unter Win 7 gemacht hat, mache doch mal eine Analyse mit MyDefrag oder O&O Defrag, dann sieht Du das dort noch Dateien fragmentiert bleiben und vor allem aber, dass die Lücken überhaupt nicht zusammengeführt werden. So sieht das bei mir aus:

MyDefrag_Analyse_C.png

So viel hat sich auf meinem Windowslaufwerk seid dem letzten Defrag auch nicht getan:
Code:
TimeGenerated : 22.07.2015 16:44:35
Message       : The storage optimizer successfully completed retrim on (C:)

TimeGenerated : 22.07.2015 16:44:35
Message       : The storage optimizer successfully completed defragmentation on (C:)
Es geht dem Windows Defragger wohl wirklich vor allem darum exterm viele Fragmente zu verhindern und dabei möglichst wenig Daten zu verschieben.
 
Offene eine Powershell und führt dort diesen Befehl in einer Zeile aus:

get-eventLog -logname application -source "microsoft-windows-defrag" | sort timegenerated -desc | fl timegenerated, message

Diese Defragmentierung von Windows 8 würde ich jedenfalls nicht mit einer normalen Defragmentierung gleichsetzen, dazu wird dort viel zu wenig getan und es werden auch kaum bestehende Dateien bewegt.
 
Zuletzt bearbeitet:
Alle Defragmentierungsprogramme sperren doch bei SSDs Defrag, weil man SSDs auch nicht Defragmentieren soll, das macht O&O und auch anderen Programme.
 
Nicht alle Programme machen das und erkläre mal wieso man SSDs auch nicht Defragmentieren soll? Man braucht sie nur sehr selten zu defragmentieren und die meisten werden wohl ihr Windwos öfter mal neuinstallieren als eine Defragmentierung sinnvoll wäre, aber es macht eine SSD auch nicht kaputt oder erhöht den Verschleiß der NANDs so übermäßig, also das es ein Problem werden würde. Schon gleich gar nicht diese Extra-Light-Defragmentierung in Win8, die den Namen Defragmentierung kaum noch verdient hat. Es gibt auch keinen Grund die gegen die 3rd Party Tools wie O&O zu tauschen, außer man möchte denn irgendwann eine Fehlermeldung bekommen, wenn es doch mal eine große Datei schafft die maximum file fragmentation zu erreichen, was aber für Heimanwender kaum eine Gefahr darstellen dürfte.

Unter Win7 wurde auch nie eine SSD automatisch defragmentiert, da kann man die gar nicht in den Zeitplaner des Dienste eintragen und nach dem Klonen von HDD auf eine SSD fliegen SSDs auch sofort beim Start des Services raus, da kann man das Defragmentieren mit dem Windows Defragger bei SSD ber eben noch und auch nur manuell anstoßen, dann macht er das und er bewegt auch wirklich wie bei einer HDDs recht massiv die Dateien und konsolidiert den freien Platz auf der Partition. Aber eben nur, wenn man das wirklich von Hand startet, bei Win 8 geht das gar nicht, da kann man nur Optimieren wählen und je nachdem ob es eine HDD oder eine SSD ist, wird die entsprechende Aktion ausgegührt.

Übrigens lässt der Dienst selbst bei HDDs einiges an Fragmentierung durchgehen, die HDD haben bei mit laut Windows alle 0%, aber MyDefrag zeigt es anders. Es reicht dem Windows Dienst ganz offenbar, wenn die Fragmente nicht zu klein sind, was ja auch stimmt, denn selbst bei einer HDD spielt es ja bei größeren Dateien kaum eine Rolle, ob die nun in ein, zwei oder 3 Fragmenten vorliegen. Eine 1GB Datei zu lesen dauert bei 100MB/s immerhin 10s, ob da noch ein oder zwei mal eine Zugriffszeit von maximal so 20ms hinzukommt, ist doch echt nicht relevant, kommt die aber 100 oder gar 1000 mal dazu, weil die Datei stark fragmentiert ist, so sieht das ganz schon anders aus, da sind es dann schon am Ende womöglich schon 12 bzw 30s.

Lasst einfach alles wie es ist, Windows macht das schon sehr vernünftig und wird auch keine SSDs bei kaputtschreiben.
 
Deine Median gap ist ja noch kleiner als meine:

MyDefrag_Analyse_C_Stat.png

Dafür sind bei mir aber über 75% der Items (wohl die von den Dateien belegten Bytes) fragmentiert, obwol sie zuletzt am 22.07. davor am 19.06. usw. immer wieder mit dieser Defragmentierung "defragmentiert" wurde. Da hätte ein normales Defragmentierprogramm aber noch wirklich viel Arbeit vor sich :cool:
 
Die Holtschedefragmentierung, blablablabla. Bei mir hat sich die Schreibleistung durch das Defragmentieren meiner M550 deutlich verringert, von ~480MB/s auf 320MB/s, im Alltag zwar nicht spürbar aber trotzdem nervig.

Auf die Meinung dieses Typen werde ich in Zukunft jedenfalls verzichten. Wenn er Recht hätte, was ich bezweifle, hätten sich mit Sicherheit schon schlauere Menschen dazu geäußert.
 
Hier sind die Werte nach MyDefrag nicht nennenswert verändert (Atto Bench), mal etwas niedriger, mal etwas höher :

Samsung 840 EVO 250GB

Crucial MX100 512 GB (unten herum deutliche Zunahme Write, z.B. 4,0 von 101.929 auf 178.2349, ab 8,0 kaum noch Differenzen)
 
Bei mir hat sich die Schreibleistung durch das Defragmentieren meiner M550 deutlich verringert, von ~480MB/s auf 320MB/s, im Alltag zwar nicht spürbar aber trotzdem nervig.

Deine Signatur enthällt eine m500 240GB und eine AData S511 120GB, die m500 240GB schafft sowieso nur 250MB/s schreiben und der SSD sollte man nach der Defragmentierung natürlich auch Zeit lassen für die Idle-GC bevor man sie bencht, 10 Minuten mindestens, besser mehr. Benche also noch einmal, solltest Du nicht gewartet haben.
 
Alle Defragmentierungsprogramme sperren doch bei SSDs Defrag, weil man SSDs auch nicht Defragmentieren soll, das macht O&O und auch anderen Programme.

O&O sperrt gar nichts, damit habe ich schon mehrmals SSDs defragmentiert. Und mit allen anderen die ich kenne geht das auch.

- - - Updated - - -

Die Holtschedefragmentierung, blablablabla.
Auf die Meinung dieses Typen werde ich in Zukunft jedenfalls verzichten.

In diesem Thread ist es nicht die Holtsche, sondern meine Defragmentierung. Und auf DEINE Meinung kann ICH gut verzichten.
 
O&O sperrt gar nichts, damit habe ich schon mehrmals SSDs defragmentiert. Und mit allen anderen die ich kenne geht das auch.

- - - Updated - - -



In diesem Thread ist es nicht die Holtsche, sondern meine Defragmentierung. Und auf DEINE Meinung kann ICH gut verzichten.

Ich meine das O&O Defrag bei SSD warn meldung kommt wenn man sie Defragmentieren will.
Auch O&O haben erkannt das man SSD nicht Defragmentieren sollte.

Ich habe immer gehört und gelesen das man SSD nicht Defragmentieren sollte.
Ein SpeicherChip braucht man nicht Defragmentieren, aber mechanische Festplatte schon.

Ich habe meine Samsung SSD 840Pro 256GB und 840EVO 120GB noch nie Defragmentiert.

Ist auch nicht gut für die Lebensdauer wenn man SSD Defragmentiert.
 
Deine Signatur enthällt eine m500 240GB und eine AData S511 120GB, die m500 240GB schafft sowieso nur 250MB/s schreiben und der SSD sollte man nach der Defragmentierung natürlich auch Zeit lassen für die Idle-GC bevor man sie bencht, 10 Minuten mindestens, besser mehr. Benche also noch einmal, solltest Du nicht gewartet haben.

Die Signatur ist lange nichtmehr aktuell, kannst mir ruhig glauben das ich eine M550 meine. ;)

OK, mittlerweile scheint wieder alles i.O. zu sein, ich schätze das Windows erst mal ein Trim Befehl auslösen musste oder wie du schon sagtest für Idle-GC. Die Werte haben sich aber nicht wirklich verbessert.

Screenshot vor der Defragmentierung (ist ein älterer Screenshot als Windows neu installiert war)
vorher.jpg

Nach der Defragmentierung (die SSD war zu 38% Fragmentiert)
nachher.jpg

PS. Ich hatte die SSD vor kurzen, also als sie Fragmentiert war, schon mal gebencht, da waren die Werte auch nicht wirklich schlechter als sie es jetzt nach dem Defragmentieren sind.
 
Zuletzt bearbeitet:
Ich habe immer gehört und gelesen das man SSD nicht Defragmentieren sollte.
Nur weil man etwas oft hört und liest wird es nicht wahrer, was meist Du was die Leute in Deutschland zwischen 1933 und 1945 oft über bestimmte Personengruppen (die als Rassen bezeichnet wurden) wie Juden, Sinti und Roma oder Schwarze gehört und gelesen haben. Wir sind uns wohl hoffentlich einig, dass daran auch nichts wahr war.
Ein SpeicherChip braucht man nicht Defragmentieren, aber mechanische Festplatte schon.
Dann hast Du noch nicht verstanden das es um das Filesystem und nicht das draunterliegende Medium geht.
Ist auch nicht gut für die Lebensdauer wenn man SSD Defragmentiert.
Das stimmt zwar, aber der Einfluss ist so gering, dass man ihn vernachlässigen kann, sofern man es mit der Häufigkeit von Defragmentierungen nicht übertreibt. Selbst für die NANDs der 840 Evo sind 1200 P/E Zyklen spezifiziert und wenn sie nicht zu voll ist, sollte es vielleicht einen P/E Zyklus kosten, womit dann bei einer Defragmentierung pro Monat 100 Jahre dauern würde die Zyklen damit zu verbrauchen. Verbrauchst Du sowieso 1 Zyklen pro Woche, was nicht wenig wäre, denn wären es also 5 statt 4 pro Monat, bzw. 60 statt 48 im Jahr und die Zyklen würden für 20 statt für 25 Jahre reichen. Aber die NANDs Samsung SSD (wie sich zumindest alle Endurance Tests bei den NANDs von allen SSDs von NAND Herstellern gezeigt hat) halten in der Praxis viel mehr als die spezifizierten Zyklen aus und wirst Du 20 Jahre lange weiter eine 120GB SSD nutzen wollen? Und hält der Rest der SSD überhaupt so lange, oder geht was anderes kaputt?

Für die NANDs der 840 Pro sind 3000 P/E Zyklen spezifiziert, da reden wir dann von 50 statt 62 Jahren und um jede Wochen einen P/E Zyklus zu verbrauchen musst Du bei der täglich mindestens so 30GB schreiben! Also Haltbarkeit ist bei SSDs nicht das Thema wie es immer hingestellt wird, wie Du es wohl auch immer hörts und liest. Das schonen von SSDs ist total unnötig, oder gehst Du immer nur barfuß um die Schuhsohlen zu schonen?

nobbi69 und *******, womit habt ihr defragmentiert? Dann sehe ich bei ******* auch weiter sehr viele gaps, die wurden also nicht zusammengefasst. Bei nobbi69 sehe ich unterschiedliche Versionen von AS-SSD, da liegt zwischen den Benchmarks mehr als nur die Defragmentierung und damit sagt es dann wenig aus, zumal AS-SSD von Fragmentierung sowieso nur betroffen ist, wenn es eben keine passende Lücke für sein Testfile gibt, den geht die Fragmentierung anderer Dateien ja auch überhaupt nichts an.
 
Ok, dabei werden die Lücken nicht zusammengeführt um möglichst wenig Daten zu verschieben. Das ist natürlich dann eine ähnliche Defragmentierung Super-Light wie die von Windows 8.1 monatlich automatisch ausgeführte.
 
Das stimmt für die, die schon auf der SSD stehen, aber wenn neue Dateien geschrieben werden, könnten sie trotzdem fragmentieren, wenn Windows sie in eine der Lücken stopft deren Größe dann nicht reicht.

Wenn man die ganze Aspekte der Fragmentierung berücksichtigen will, sollte man übrigens aus das read look-ahead Feature nicht vergessen, dass hat Deine auch und es ist auch eingeschaltet, die Bit 6 im Word 85 der Idenifiy Device Data mir verraten hat. Damit wird der Controller veranlasst weitere, nachfolgende Daten schon mal in Cache zu laden, was natürlich unnütz ist, wenn der nächsten Zugriff auf ein anderes Fragment geht welches eben nicht in den nachfolgenden Adressen liegt, sondern ganz woanders.

Aber auch das dürfte bei SATA SSDs praktisch kaum Einfluss haben, da die Schnittstellen die potentiell möglich Leserate zu sehr einschränkt. Wenn man mal bedenkt was schon eine SM951 mit 128GB Kapazität für eine sequentielle Leserate erreicht, dann sollte klar sein wie viel schneller die Controller aus den NANDs lesen als per SATA übertragen können. Es könnte aber vielleicht hier die 5MB/s mehr bei Filebench erklären, denn sonst wurden ja öfter die Daten vorab gecacht, die dann vielleicht zu einer Datei in einem anderen Verzeichnis gehört haben oder eben nicht als nächste gelesen wurde, beim richtigen Defragmentieren werden dann aber die Dateien meist so hintereinander angeordnet wie sie auch zusammen in einem Verzeichnis stehen. Das sollte die Chancen erhöhen das Dank read look-ahead der Controller dann auch Daten der nächsten Datei die Filebench liest, schon mal im Cache stehen hat und (Cache) RAM ist immer noch schneller als NAND.
 
Also soweit ich diesen Thread und die Ergebnisse gelesen und hoffentlich verstanden habe, scheint es jedenfalls nicht so, als ob es sich als PC-Nutzer lohnen würde, über diese Thematik viel nachzudenken...
 
So könnte man es durchaus formulieren, aber das gilt auf für die Haltbarkeit der NANDs, die werden in den meisten Fälle ihre Nutzer überleben und sehr wahrscheinlich wird die SSD lange vor erreichen der spezifizierten P/E Zyklen den Geist wegen eines anderen Defektes aufgegeben haben, was ja im Prinzip jeden Tag passieren kann aber mit den Jahren immer wahrscheinlicher wird, es gehen ja auch Komponenten die keinem direkten Verschleiß unterliegen wie Netzteile, Grakas oder Mainboards mit den Jahren mal kaputt.

Andererseits habe ich auch schon erlebt, dass die Fragmentierung bei SSDs die lange(meist jahrelang) ohne Neuinstallation und recht gut gefüllt betrieben wurden, dann schon die Ergebnisse von AS-SSD beeinflusst haben und vor allem die seq. Schreibrate deutlich gesenkt haben. Schaut man sich mal an wie viele kleine Gaps doch so mit der Zeit im Filesystem entstehen, dann sollte es auch nicht verwundern, wenn die Testdatei sich über lauter kleine Lücke von wenigen Clustern Länge verteilen muss, kann ja von sequentiellen Transferraten auch nicht mehr so wirklich die Rede sein. Und wir sind ja in einem anspruchsvollerem Forum, da muss man dann auch mal die Hintergründe und Aspekte genauer beleuchten um dann eben entweder zu so einer Aussage zu kommen, oder eben nicht.

Praktisch dürfte für 99,9% der Heimanwender egal sein ob die SSD mehr oder weniger stark fragmentiert ist und ebenso ist es egal ob Windows 8 da nun eine Light-Defragmentierung vornimmt um wenigstens Fälle extremer Fragmentierung zu vermeiden, so was von der Sache her ja einerseits sinnvoll und zum anderen weit von einer klassischen Defragmentierung bei der die Dateien alle schön hintereinander und z.B. nach Namen und Ordnern alphabetisch sortiert, angeordnet werden.
 
Hi Holt,

also ich hatte wie schon gesagt die SSD vor kurzem schon mal gebencht, mit dem Aktuellen AS SSD Benchmark, das Ergebnis war ähnlich wie das was du auf meinem Screenshot „nachher“ sehen kannst. Durch das Defragmentieren hat sich bei mir spürbar nichts verändert, die Benchergebnisse sind so geringfügig unterschiedlich das mich das auch gewundert hätte.

Vielleicht habe ich die SSD aber auch falsch Defragmentiert, leider gibt es ja imo kein Defrag-Programm was zum Defragmentieren einer SSD ausgelegt ist. Meine SSD war zu 38% Fragmentiert, ich habe sie mit O&O 17 Defragmentiert, Defrag-Modus Space.

Es wär sehr Nett von Dir wenn du mir mitteilen könntest welches Programm und welchen Modus du empfiehlst, zum Defragmentieren einer SSD.

Die IDENTIFY_DEVICE Werte meiner SSDs habe ich dir per PM zugeschickt.
 
Hallo Holt,

ich habe nun mal ein Windows 8.1 64bit System mit Mydefrag defragmentiert. SSD ist eine Samsung 830 mit 128GB.
Nachdem die Defragmentierung durch war habe ich im Wartungscenter eine Wartung manuell gestartet.
Dies dauerte sage und schreibe über 6 Stunden.
Da ich auf diesem PC die Wartung bereits öfter ausgeführt habe (Dauer max. ca. 45 min), bin ich doch sehr verwundert.
Woher kommt dieser Zeitunterschied nach der Defragmentierung. Verändert die Defragmentierung die Datenstruktur so sehr dass Windows diese imense Zeit benötigt um sich in das geänderte Ablagesystem wieder reinzufinden?

Edit: MB-->GB
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh