[Kaufberatung] SSD-Kaufberatung/-Informationsthread + Diskussion (Bitte lesen!)

Die Fragmentierung des Filesystems geht auch bei SSDs auf die Performance! Das liegt einfach daran, dass kein Zugriff länger sein kann als das jeweilige Fragment der Datei, obendrein steigt er Verwaltungsaufwand des Filesystems, weil ja jedes Fragment registriert werden muss. Die kurzen Zugriffe verhindern dann hohe Transferraten, weil eben die Daten gut über die NAND Kanäle verteilt werden können. Die Performance leidet bei SSDs weniger als bei HDDs, weil deren langen Zugriffszeiten ja wegfallen, aber die Performance geht bei hoher Fragmentierung auch bei SSD runter.

Das der Controller der SSDs die Daten intern sowieso ganz anders anordnet als es nach außen scheint, hat damit überhaupt nichts zu tun und ändert am Problem der Fragmentierung es Filesystems nichts.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da muss man nur abwägen, ob einem das die Verringerung der Lebenszeit durch die Schreibvorgänge beim defragmentieren wert ist. Ich würd's für mich mit nein beantworten. Außerdem sollte man darauf hinweisen, dass es z.B. bei Vollverschlüsselung nutzlos ist, weil die Daten dann sowieso nach einem Zufallsmuster geschrieben werden.
 
Da muss man nur abwägen, ob einem das die Verringerung der Lebenszeit durch die Schreibvorgänge beim defragmentieren wert ist.

Wenn man ab und zu mal Defrag laufen lässt, dann hat das sicher keine nennenswerten Auswirkungen auf die Lebenszeit.

Ich selbst habe bisher aber noch keine meiner SSDs jemals defragmentiert weil ich noch nie den Eindruck hatte, dass dies nötig sei.
 
Heutzutage ist´s nicht mehr so wild und man kann die SSDs einfach nutzen :bigok:
Bis da die SSD aufgrund zu vieler Schreibzugriffe hinüber ist ist auch schon der Rest vom Computer Schrott.
 
Hallo ^^

habe jetzt meine Kingston SSD seit ca. 2,5 Jahren im Einsatz und wollte mal sehn ob mit ihr noch alles i.o. ist...

siehts soweit gut aus oder?
 

Anhänge

  • CDI.jpg
    CDI.jpg
    89,5 KB · Aufrufe: 90
  • ssdlife.jpg
    ssdlife.jpg
    54,8 KB · Aufrufe: 80
Bei den S.M.A.R.T. Attributen der Kingston kann man nicht wirklich sagen, wie gut sie ist und welchen Verschleiß die NANDs schon auf dem Buckel haben, denn ein entsprechendes Attribut fehlt bzw. ist unbekannt und daher kann auch SSDLife nur im Nebel stochern. Aber alle 6 oder 12 Monate einmal Defragmentieren wenn die Fragmentierung so stark wird, dass man diese bemerkt, beeinflusst die gesamte Haltbarkeit der SSD nicht wirklich, die Dinge haben so viele garantierte P/E Zyklen, das reicht meistens für Jahrzehnte.

Schau Dir mal diese C300 an, 415 Zyklen wurden in 3 Jahren verbraucht. Da braucht es noch 32 Jahre bis die Garantierten 5000 P/E Zyklen erreicht sind. Wäre die einmal im Monat defragmentiert worden und hätte das jeweils einen P/E Zyklus extra verbraucht, wäre es also in 27 Jahren so weit. Mal ehrlich, wer erwartet die SSD in 27 Jahren noch zu nutzen, aber in 32 Jahren dann nicht mehr? Würde 1x im Monat Defragmentieren also wirklich einen Unterschied in der Lebensdauer machen, wegen dem man nun grauen Harre bekommt? Die hat man in 27 Jahren dann sowieso :d
 
Bei den S.M.A.R.T. Attributen der Kingston kann man nicht wirklich sagen, wie gut sie ist und welchen Verschleiß die NANDs schon auf dem Buckel haben, denn ein entsprechendes Attribut fehlt bzw. ist unbekannt und daher kann auch SSDLife nur im Nebel stochern. Aber alle 6 oder 12 Monate einmal Defragmentieren wenn die Fragmentierung so stark wird, dass man diese bemerkt, beeinflusst die gesamte Haltbarkeit der SSD nicht wirklich, die Dinge haben so viele garantierte P/E Zyklen, das reicht meistens für Jahrzehnte.

Schau Dir mal diese C300 an, 415 Zyklen wurden in 3 Jahren verbraucht. Da braucht es noch 32 Jahre bis die Garantierten 5000 P/E Zyklen erreicht sind. Wäre die einmal im Monat defragmentiert worden und hätte das jeweils einen P/E Zyklus extra verbraucht, wäre es also in 27 Jahren so weit. Mal ehrlich, wer erwartet die SSD in 27 Jahren noch zu nutzen, aber in 32 Jahren dann nicht mehr? Würde 1x im Monat Defragmentieren also wirklich einen Unterschied in der Lebensdauer machen, wegen dem man nun grauen Harre bekommt? Die hat man in 27 Jahren dann sowieso :d

nice to know ^^ ganz normal mit der W7 defragmentieren?
 
Selbst wenn diese C300 nun jede Woche defragmentiert worden wäre und das jedesmal 2 P/E Zyklen kosten würde, wären das ungefähr 250 P/E Zyklen statt 141 die er im Jahr verbraucht hätte und damit würde es immer noch 20 Jahren dauern, bis die 5000 garantierten P/E Zyklen verbraucht sind, real halten die NANDs vermutlich mindestens doppelt so viele aus. Es wären jetzt also noch 17 Jahre statt der 32 Jahre übrig, ist das ein Drama? Manche tun hier ja so, als würde die SSD sofort verstreben, wenn man sie einmal defragmentiert, aber dem ist nicht so.

Bei jeder HDD mit mehr als den 25726 Betriebsstunden die die runter hat, würde keiner mehr viel Restlebensdauer erwarten, oder? Die wäre es dann schon als ein Beispiel besonderer Haltbarkeit gelobt worden!

- - - Updated - - -

nice to know ^^ ganz normal mit der W7 defragmentieren?
Ja, Du kannst sie ganz normale von Windows defragmentieren lassen. Es muss ja nicht perfekt defragmentiert und alles nach Namen oder letztem Zugriffe oder sonstwie optimiert angeordnet werden, was die professionellen Defragmentierprogramme so anbieten, es sollten nur die Dateien möglichst wieder zu einem Stück vereint und vor allem der Freie Bereich wieder zusammenhängend gemacht werden.

- - - Updated - - -

Und man sollte eben die Partitionen nie zu voll machen, so zwischen 10% bis 20% sollte frei bleiben. Einmal ist das für den Controller der SSD dann einfacher die Daten so optimal für die Performance über die NAND Kanäle zu verteilen, was er nicht kann wenn auf einigen Kanäle die NANDs keinen Platz mehr frei haben und dann fragmentiert auch das Filesystem nicht so sehr.
 
Free Auslogics Disk Defrag (Portable) macht das ganz schön. Da klebt er wieder zusammen (auf Defrag & Optimize stellen)
Viele Defragmentierungsprogramme machen das nämlich nicht. Genau das ist aber wichtig für die Zukunft, denn sonst bauen sich die Lücken grad wieder zu und es ist sofort wieder alles fragmentiert ;)
 
Der Windows Defragmentierer macht das meines Wissens aber auch und er bewegt meist nur die wirklich fragmentierten Dateien, was auch nicht so schlecht ist. Man braucht ja auf der SSD eben keine optimierte Anordnung, denn wo die Daten im Adressbereich stehen, ist ja nun einmal total egal, zumal sie im NAND ja wieder ganz wo anders liegen.
 
Windows macht es nicht - leider. Es klaffen immer noch viel zu viele Lücken.
 
Sorry Holt, ich kenn Deinen Hintergrund nicht, Du scheinst Dich aber nicht allzusehr mit SSD's beschäftigt zu haben. Ich bin alles andere als ein Experte, verfolge aber diverse Foren zum Thema seit ca. 3 Jahren und meine mitbekommen zu haben, dass das Defragmentieren einer SSD mit Windowsmitteln rein gar nichts bringt. Windows weiss im Gegensatz zu früher mit den HDD's nicht, wo was auf der SSD gespeichert ist. Das wird alles durch den SSD-Controller gemanaged. Ein Defragmentieren bringt also rein gar nichts, ausser, dass der SSD-Controller die Daten irgendwie hin und her schiebt.
Ich gebe Dir aber recht, dass sich ein Defragmentieren nicht wirklich relevant auf die Lebensdauer auswirkt - aber, wie gesagt - es bringt performance-technisch überhaupt gar nichts!
 
He "mfazza", wie kannst du Holt nur unterstellen, dass er sich nicht allzu sehr mit SSD's beschäftigt. Holt ist der Forengott, wenn es um SSDs geht. ;) Ist nur ein Spaß, aber wenn du hier oder bei Computerbase mal schaust, du siehst eigentlich nur den Namen Holt - dieser User ist voll die Spam-Maschine und weiß einfach alles! Dem musst du huldigen! :hail: Ich huldige ihm auch, um die Beiträge nicht ertragen zu müssen, ist er schon ewig auf der Igno-Liste, anders kann man hier auch gar nicht mehr lesen, hält ja sonst keiner aus.
 
Zuletzt bearbeitet:
Ich hatte vor Zeiten mal einen Test gemacht und dabei herausgefunden das nach dem Defragmentieren das Spiel Gothic 3 flüssiger lief.
Die Textur Zellen wurden schneller geladen. Wollte es erst auch nicht glauben doch Mir wurde durch einen praktischen Test das Gegenteil bewiesen.

serviert mit dem Tablett
 
Nachdem ich mit dem notebook in dem die ssd steckt nicht spiele, merk ich nach dem defrag keinen unterschied...

Ging auch sehr schnell...

Windows Defrag: ca. 5min
Defrag Tool: ca. 3min

Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Hallo Folks,

ich suche eine SSD für einen Bekannten. Sein Budget liegt bei maximal 70-100 EUR. Kurz und knapp, welches Modell bietet aktuell die höchste Performance?

Danke im Voraus
 
Dynamic, du meinst vermutlich 120/128GB und da du Performance erwähnst, kommt quasi nix an der Samsung 840 EVO vorbei. Günstiger und auch sehr gut ist Crucial M500, die is nur schreibend langsamer, was aber für eine Betriebssystem SSD unwichtig ist.

audianer, die V300 ist nichts, lese bitte die Amazonbewertungen, seit der Firmware 506 ist die ziemlich langsam, auch die Foren sind voll davon, dass Leute unzufrieden sind.
 
ah danke ! die M500 ist ja sogar noch einen Tick günstiger
 
Die Crucial m500 ist der Kingston V300 in jedem Fall vorzuziehen, selbst wenn sie ein paar Euro mehr kostet. Die NANDs in der V300 wechseln laufen, womit die reale Performance nicht vorherzusehen ist, da die ausgelieferten Exemplare nicht denen in den Reviews im Netz entsprechen. Obendrein war die Haltbarkeit der NANDs im Test bei ssdendurancetest.com ungenügend, die haben keine 450 P/E Zyklen überstanden, was eindeutig auf die Verwendung minderwertiger NANDs hindeutet. Da Kingston ja auch selbst keine NANDs fertigt, anders als Crucial die eine Marke von Micron sind, können sie anders auch keine SSD zu dem Preis anbietet und noch Gewinn damit erwirtschaften, da gute NANDs auf dem Markt knapp und teuer sind.

Das gibt Kingston auch offen zu:
 
sind diese Probleme bei der V100 auch zu erwarten?
 
Windows weiss im Gegensatz zu früher mit den HDD's nicht, wo was auf der SSD gespeichert ist. Das wird alles durch den SSD-Controller gemanaged.
Ja und nein! HDDs rechnen die LBAs stur auf CHS um und speichern die Daten dann dort, sofern der Sektor nicht durch einen Reservesektor ersetzt und daher umgemappt wurde. Bei SSDs mappt der Controller sowieso die ganze LBAs aus immer wieder anderen Adressen im Flash, da weiß nur er selbst, wo was steht. Aber das Filesystem muss ja trotzdem an die Daten kommen, sonst wären die ja verloren. Das geht eben über die Logische Block Adresse (LBA) und über die werden alle Daten zugeordnet, normalerweise immer 512 Byte für jede LBA.

Nun reichen 512 Byte aber natürlich für die Allermeisten Dateien nicht für aus und damit belegen sie dann mehrere bzw. sogar sehr viele LBAs, alleine schon weil die übliche Clustersize ja 4k beträgt, aber das ist für das eigentlich Problem gar nicht einmal relevant. Schreibt man nun eine 8k große Daten und dann eine 32k große, so belegt die 8k Datei z.B. die ersten 16 LBAs (0-15) und die 32k dann die folgenden 64 LBAs (16-79). Wird die 8k Datei nun vergrößert, etwa weil es eine Log-Datei ist die immer weiter wächst, wird sie fragmentieren, weil die nachfolgenden LBAs ja schon belegt sind, das 2. Fragment wird dann also z:B. die LBAs 80-87 belegen. Dahinter wird wieder eine andere Datei geschrieben und das nächste Fragment landet dann noch weiter hinten usw., sagen wir bis die Datei 128k groß ist.

Liest man diese ganze Datei, so wird eben kein einzelner Lesezugriff über 128k fällig, wie es der Fall wäre wenn die Daten nicht fragmentiert ist, sondern es müssen viele kleine Zugriffe über 8k oder 4k erfolgen, je nach Größe der einzelnen Fragmente und wenn Du Dir mal die Transferraten einer SSD im Verhältnis zum Zugriffslänge ansiehst, z:B. im Ergebnis von ATTO (obwohl der 4 Overlapping I/Os macht, also höhere Werte ausgibt als bei einem einzelnen Zugriff), dann weißt Du eben auch, dass die Transferraten bei 4k oder 8k immer weit unter denen bei 128k liegen und selbst bei 128k, der typischen Länge der Zugriffe bei IOMeter, erreichen die meisten SSD noch nicht einmal ihre Spitzenwerten.

Ein Defragmentieren bringt also rein gar nichts, ausser, dass der SSD-Controller die Daten irgendwie hin und her schiebt.
Deshalb bringt die Defragmentierung durchaus was, denn wenn eine Datei massiv fragmentiert ist, dann werden ja viele Zugriffe über kurzen Längen fällig und die sind nun einmal langsamer, die Daten ja auch intern nicht über so viele NANDs verteilt. Nach dem Defragmentieren liegen die Dateien dann wieder in Zusammenghängenden LBA Bereichen und können mit wenigen Befehlen die lange Zugriffe machen gelesen oder auch überschrieben werden. Wo die Daten im NAND liegen, spielt dabei keine Rolle!

sind diese Probleme bei der V100 auch zu erwarten?
Die Kingston V100 ist uralt, hat eine miesen JM618 Controller, nur SATA 3Gb/s und eine mehr als bescheidene Random Performance, die willst Du doch wohl nicht noch kaufen, zum die Neu alles andere als günstig ist. Wenn Du schon eine hast, dann sei beruhigt, die V100 ist eben alt und aus einer Zeit, als gute NANDs auch noch besser auf dem Markt verfügbar waren. Außerdem hat sie keinen Sandforce, man hätte bei der Verwendung anderer NANDs also auch andere Angaben zum Performance machen müssen. Die Datenkompression und das Benchen mit extrem komprimierbaren Daten beim Sandforce ersparen das dem Hersteller und der Kunde wird eben überrascht, was die reale Performance angeht, da reale Daten eben nie so extrem komprimierbar sind.
 
Ich bestaune gerade dein Wissen @Holt.
Finde ich beeindruckend und toll das Du so viele Tipps gibst :)
 
Die Kingston V100 ist uralt, hat eine miesen JM618 Controller, nur SATA 3Gb/s und eine mehr als bescheidene Random Performance, die willst Du doch wohl nicht noch kaufen, zum die Neu alles andere als günstig ist. Wenn Du schon eine hast, dann sei beruhigt, die V100 ist eben alt und aus einer Zeit, als gute NANDs auch noch besser auf dem Markt verfügbar waren. Außerdem hat sie keinen Sandforce, man hätte bei der Verwendung anderer NANDs also auch andere Angaben zum Performance machen müssen. Die Datenkompression und das Benchen mit extrem komprimierbaren Daten beim Sandforce ersparen das dem Hersteller und der Kunde wird eben überrascht, was die reale Performance angeht, da reale Daten eben nie so extrem komprimierbar sind.

natürlich will ich mir keine V100 kaufen XD hab die seit knapp 3 Jahren im Notebook und sie ist was den Speed betrifft um läääängen besser als die 5400rpm Platte die drin war und ich bin zufrieden ^^
 
Zuletzt bearbeitet:
...Deshalb bringt die Defragmentierung durchaus was, denn wenn eine Datei massiv fragmentiert ist, dann werden ja viele Zugriffe über kurzen Längen fällig und die sind nun einmal langsamer, die Daten ja auch intern nicht über so viele NANDs verteilt. Nach dem Defragmentieren liegen die Dateien dann wieder in Zusammenghängenden LBA Bereichen und können mit wenigen Befehlen die lange Zugriffe machen gelesen oder auch überschrieben werden. Wo die Daten im NAND liegen, spielt dabei keine Rolle!...

Bleibt die Frage für die Performance-Enthusiasten, mit welchem Defragmentationsprogramm bzw. welcher Defragmentiermethode (letzter Zugriff, nach Name, usw.) man die besten Ergebnisse erzielt. Selbst wenn diese äußerst gering sein sollten...
 
audianer, vor 3 Jahren sah der NAND Markt noch ganz anders aus, da wurden die guten NANDs noch massenweise an andere SSD Hersteller abgegeben. Diese V100 ist ja mehr oder weniger eine Toshiba, denn Toshiba hat lange die JMicron Controller verwendet, wenn auch mit eigenem Logo versehen.

stw500, Performance-Enthusiasten sollten zunächst mal auf jeder Partition ihrer SSD genug Platz freilassen, dann gibt es auch nicht so eine extreme Fragmentierung des Filesystems und dann wäre es wenig sinnvoll ein Defragmentierungsprogramm zu wählen, welches nach Name oder Zugriffsdaten alles umsortiert, sondern lieber eines welche die nicht fragmentierten Dateien möglichst nicht verschiebt. Wo, also ab welchem LBA, die Dateien liegen, spielt ja keine Rolle, da die Zugriffe auf alle LBA gleich schnell sind und die Daten eben in den NANDs sowieso ganz woanders geschrieben werden.

Das geht dabei auch weniger um die Schreibzugriffen, sondern mehr darum das Schattenfilesystem des Controllers nicht zu zerstören, denn Defragmentierprogramme verschieben ja immer nur kleine Bereiche und stückeln so die Datei wieder zusammen. Der Controller weiß aber natürlich nicht, was davon eine Datei ist, er kenne keine Dateien sondern nur Zugriffe auf zusammenhängende Bereiche und die ordnet er dann so an, dass sie auch schnell wieder gelesen werden können, er führt damit ein Schattenfilesystem, nur eben für die Zugriffe.

Das ist auch ein Grund, warum die Low-Level Benchmarks für SSDs nicht geeignet sind, den die lesen einfach zusammenhängend x kB ab einem bestimmten LBA und wenn diese ganz nicht zusammenhängend geschrieben wurden, können die Daten gar nicht optimal über die NAND Kanäle verteilt sein. Im besten Fall sind sie das, aber im schlechtesten liegen alle auf wild verteilt auf dem gleichen NAND Die und dann ist die Performance entsprechend schlecht. Wenn Bereiche nicht zusammenhängend geschrieben werden, optimiert der Controller die Verteilung der Daten eben auch nicht darauf, dass sie zusammenhängend gelesen werden.
 
Hallo,

ich suche eine SSD für meinen neuen Office PC.
Auf die SSD soll Win7 oder Win8 installiert werden, und dann halt diverse Programme.
Zur Zeit sind auf meiner Systemplatte 30 GB belegt, daher halte ich 128 GB für ausreichend.

Ich habe mir folgende ausgesucht:

Samsung SSD 840 EVO 120GB

Samsung SSD 840 Pro Series 128GB

Crucial M500 120GB

Welche soll ich nehmen, oder würdet ihr mir sogar eine komplett andere empfehlen?
Ich tendiere ja zur Samsung SSD 840 Pro Series 128GB, da sie 5 Jahre Garantie hat, und ich daher denke, dass die Qualität auch vorhanden ist.
 
Die 840 Pro ist für einen Office PC mächtig übertrieben, außer man muss unbedingt eine mit 5 Jahren Garantie haben, weil etwa aus haushaltsrechtlichen Gründen vorher kein Geld für einen Ersatz verfügbar wäre. Ansonsten lohnt der Aufpreis wegen der Garantie nicht, denn der ist ja höher als was die andere beiden nach dem Ende ihrer 3 Jahren Garantie noch wert sein werden, was etwa auf ein Viertel des Neupreises hinauslaufen dürfte.

Für den Preis der 840 Pro mit 128GB bekommst Du außerdem schon fast die Crucial m500 mit 240GB, die würde dann für künftige Programme mehr Reserven bieten, denn so 10 bis 15% sollte man immer frei lassen. Aber Wenn Du wirklich nur 30GB brauchst, mit all den versteckten Dateien wie der Auslagerungsdatei, etc., dann reicht die m500 mit 120GB auch und es gibt eigentlich keinen Grund 20% mehr für die Evo zu zahlen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh