[Kaufberatung] SSD-Kaufberatung/-Informationsthread + Diskussion (Bitte lesen!)

Ich halte dasa schon für eine gewisse Einbildung bzw sehr abhängig vom System.
Das es vom System abhängig ist, ist klar und das System was Du beschreibst sollte sowieso kaum fragmentieren.

Datenbanken die etliche tausend Operationen machen..
Datenbanken nutzen ja i.d.R. Dateien in denen sie ihre Daten ablegen und die können nur fragmentrieren weil sie eben ggf. wachsen, nur liegen die Infomationen sowieso total verteilt in den Dateien und es gibt daher eigentlich nur zufällige Zugriffe bei typischen Datenbankanwendungen, die Fragmentierung der Dateien oder ggf. eine Defragmentierung ändert daran auch nichts. Außerdem hat man meist so viele parallele Zugriffe, dass sowieso immer kreuz und quer über den Adressraum zugegriffen wird, da spielt das keine Rolle, so eine Anwendung ist eben mit der einer SSD als Systemlaufwerk unter Windows nicht vergleichbar.

Würde es etwas bringen, den freien Teil der SSD zu partitionieren und mit Secure Erase zu löschen oder ist dies nicht möglich?
Das geht nicht, da Secure Erease ein ATA Kommando ist welches den Contoller auffordert die ganzen Daten zu löchen und die Controller kennen keine Partitionen auf den Platten, das ist eine logische Aufteilung des Adressraumes durch das Betreibssystem.

Zitat AnandTech: "The slide Intel and Micron shared shows that their 3D NAND will have roughly the same number of electrons as their 50nm process did (or actually slightly more), which is over a tenfold improvement compared to the latest 16nm node."

Heißt doch das die kommenden Intel/Crucial-SSDs mit 3D-NAND (TLC) nicht mehr so gefährdet sind bzw. nicht mehr, als die derzeitigen MLC-Modelle?!
Wenn die Anzahl der Elektronen mehr als Verzehnfacht wird, dann wird die Anzahl die man braucht um dooppelt so viele Ladungszustände zu unterscheiden eben immer noch mehr als verfünffacht im Vergleich zu den aktuellen 16nm NANDs. Daher würde es mich sehr wundern, wenn die 3d-NANDs als TLC ähnliche Probleme wie die 840 Evo zeigen würden und es gibt ja auch immer noch die Möglichkeit dem mit automatischen Refreshes in der FW entgegen zu wirken. IMFT hat außerdem sowieso eine andere Architektur bei den NANDs wo mehr Logik für das Auslesen im Chip selbst steckt, das nennt Micron Compute-NANDs.
Bei den 850 Evos wird die Sache ähnlich liegen, nehme ich an?
Wie gesagt habe ich da weniger Sorgen, dass diese von dem Problem betroffen sein wird, denn auch bei Samsungs V-NANDs sind die Zellen ja im Vergleich zu den Zellen planarer NANDs riesig und halten daher auch viel mehr Elektronen.

Update nach einer Defragmentierung+Optimierung mit "Auslogics Disc Defrag":
Siehst Du, die immer gerne verbreitete Behauptung Fragmentierung hätte bei SSD überhaupt keinen Einfluss, ist eben nicht richtig, aber natürlich betrifft das immer nur Dateien, die wirklich fragmentiert sind, also i.d.R. die später geschriebenen als das Filesystem schon voll und fragmentiert war oder solche die mit der Zeit wachsen wie Logdateien oder auch die Registrydatei.

Habe bewusst dieses Programm genutzt, da ich vermeiden wollte das Win7 auch in Zukunft, automatisch meine SSD defragmentiert.
Die Sorge ist unbedründet, das Defragmentieren "von Hand", also indem man es bewusst auslöst, hat keinen Einfluss auf den Zeitplaner des Defragmentierdienstes, der nimmt bei Win7 eine SSD soweiso niemals auf.
Die SSD war übrigens zu 46% fragmentiert...
Das war schon nicht wenig, entsprechend klein und verteilt waren da dann auch die Lücke auf die neuen Dateien verteilt werden mussten. Andersrum waren aber wohl auch 54% der Dateien gar nicht von der Fragmentierung betroffen und Zugriffe auf diese Dateien werden natürlich durch das Defragmentieren nicht schneller.
Zusatzinfo: Die "Total Bytes Written" haben sich um 0,15TB erhöht. Nehme an, dass dies noch im Rahmen ist und nicht schädlich.
Du wirst es nicht merken, die 840 Pro hällt über ein PBW bis einige PBW aus bevor sie kaputt ist. Das System neu aufzusetzen hätte auch nicht weniger TBW gekostet und manche bevorzugen das, weil ja überall der Unsinn steht, dass Defragmentieren für SSDs ach so schädlich wäre.

Wann hast Du die SSD aufgesetzt, vor einem Jahr? Dann solltest Du in einem halben Jahr mal wieder schauen, wie sehr die fragmentiert ist und sie ggf. mal wieder defragmentieren, das wäre dann vielleicht 0,.3 TBW zusätzlich im Jahr, also absolut nicht der Rede wert. Anderseits ist der Effekt wirklich gering, selbst bei 46% Fragmentieurng waren die seq. Schreibrate, die am meisten leidet, gerade um etwa 20% gefallen, bei einer HDD hätte das viel dramatischer ausgesehen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Welcher RST Bug? Außerdem würde sie dann nach dem Defragmentieren ja auch nicht getrimmt werden, oder? Das 108GB frei sind, sagt ja auch nichts über die Größe der Lücken aus, sondern nur ewas über die Summe des Platzes alle Lücken in der Belegung der LBAs. Du kannst ja mal eine (Partition auf einer) SSD mit lauter durchnummerierten 4k Dateien (bei 4k Clustersize) beschreiben und jede mit einer gerade Endziffer im Namen löschen. Dann hast Du die Hälfte der Kapazität wieder frei, aber praktisch keine Lücke mit mehr als 4k. Dann wird auch der seq. Benchmark im Grund ein 4k bzw. 4k_32 Benchmark sein, je nachdem ob die einzelnen Fragmente parallel gescherieben und ungelesen werden oder nicht, wobei es Win 7 und höher bei SSDs im AHCI Modus parallel tun müsste.

Das ist dann zwar die extremste Fragmentierung und real wird sie so wohl nie auftreten, aber es zeigt eben deutlich, dass die Fragmentierung einen Einfluss hat und damit bleibt immer nur die Frage wie groß der jeweils komkret ist. Defragmentierprogramme fürhen ja normalerweise nicht nur die Fragmente der Dateien zusammen, sondern vereinen ja auch die Lücken, also unbelegten Cluster zu großen freien Bereichen zusammen damit neu geschriebene Programme eben nicht gleich fragmentiert angelegt werden müssen und genau da liegt der Unterschied den Eagle1 ermittelt hat.
 
Das geht nicht, da Secure Erease ein ATA Kommando ist welches den Contoller auffordert die ganzen Daten zu löchen und die Controller kennen keine Partitionen auf den Platten, das ist eine logische Aufteilung des Adressraumes durch das Betreibssystem.

Ok, danke für die Erklärung.

Wie gesagt habe ich da weniger Sorgen, dass diese von dem Problem betroffen sein wird, denn auch bei Samsungs V-NANDs sind die Zellen ja im Vergleich zu den Zellen planarer NANDs riesig und halten daher auch viel mehr Elektronen.

Klingt durchaus positiv.

Siehst Du, die immer gerne verbreitete Behauptung Fragmentierung hätte bei SSD überhaupt keinen Einfluss, ist eben nicht richtig, aber natürlich betrifft das immer nur Dateien, die wirklich fragmentiert sind, also i.d.R. die später geschriebenen als das Filesystem schon voll und fragmentiert war oder solche die mit der Zeit wachsen wie Logdateien oder auch die Registrydatei.

War wirklich überrascht als du vorgeschlagen hast, zu defragmentieren. Wie man sieht, hat es allerdings etwas gebracht.

Die Sorge ist unbedründet, das Defragmentieren "von Hand", also indem man es bewusst auslöst, hat keinen Einfluss auf den Zeitplaner des Defragmentierdienstes, der nimmt bei Win7 eine SSD soweiso niemals auf.

War mir nicht sicher. Gut zu wissen das es auch ohne Zusatzsoftware funktioniert.
Wie sieht es aber mit dem „Optimierung“ aus. Bringt diese etwas und erfolgt diese auch bei der Windows-Defragmentierung?

Das System neu aufzusetzen hätte auch nicht weniger TBW gekostet und manche bevorzugen das, weil ja überall der Unsinn steht, dass Defragmentieren für SSDs ach so schädlich wäre.

Habe ich mir auch schon gedacht. Hast mir einiges an Zeit erspart. Vielen Dank dafür! :)

Wann hast Du die SSD aufgesetzt, vor einem Jahr? Dann solltest Du in einem halben Jahr mal wieder schauen, wie sehr die fragmentiert ist und sie ggf. mal wieder defragmentieren, das wäre dann vielleicht 0,.3 TBW zusätzlich im Jahr, also absolut nicht der Rede wert.

Habe das System im Sep. 2013 aufgesetzt. Seitdem lief es eigentlich ohne Problem oder Preformance-Engpässe.

- - - Updated - - -

Wie kommt eigentlich dieser große frei Bereich zustande.

>>> Defrag.jpg

Dachte bei den SSDs wird alles zusammenhängend gespeichert?
 
Zuletzt bearbeitet:
Ich benutze das gleiche Tool um selten meine SSD zu defragmentieren. Ich wähle Defrag & Optimize.

Das Programm hatte ich mal auf einer Windows Live CD ebenfalls.
Leider weiß ich aktuell nicht wo sich die Disc befindet. Damit defragmentierte er so das alle Daten zusammen gepresst wurden zu einem Block. Danach kommt dann der komplette freie Bereich.
Es gibt keine leeren Felder mehr.

Im Windowsbetrieb werden eine Menge Daten nicht derart großräumig verschoben da diese in Benutzung sind.

Daher ist die Defragmentierung über eine Live CD die sorgfältigere Variante. Sind keine Daten in Benutzung können alle Daten verschoben werden.
Gut ist das falls extrem lange Daten sich in die Freiräume quetschen wollen aber zu lange dafür sind und in Folge dessen fragmentiert abgelegt werden.

Die sorgfältigere Variante ist also auch ein Blick wert da präventiv nach der Defragmentierung bei Zunahme an Daten eine geringere Wiederfragmentierung somit anfallen wird.

vom Handy getippselt
 
Zuletzt bearbeitet:
Wie sieht es aber mit dem „Optimierung“ aus. Bringt diese etwas und erfolgt diese auch bei der Windows-Defragmentierung?
Diese Optimierung, also das Batch-TRIM, kann Windows erst seid Win 8 und dann defragmentiert es SSD gar nicht, soweit ich weiß.

Wie kommt eigentlich dieser große frei Bereich zustande.
Das dürfte nach dem Defragmentieren gewesen sein, eine Systemplatte würde nach so lange Zeit kaum so aussehen und wenn es davor war, würde es mich schon wundern, warum die Testdatei dann zerstückelt abgelegt wurde.

Dachte bei den SSDs wird alles zusammenhängend gespeichert?
Was Du siehst ist die Belegung des Filesystems, also welche Cluster mit Dateien belegt sind, das hat mit der Belegung der NANDs in der SSD nichts zu tun. Meines Wissens verteilt Windows auf SSDs die Dateien nicht anders auf die Cluster als bei HDDs auch.

Im Windowsbetrieb werden eine Menge Daten nicht derart großräumig verschoben da diese in Benutzung sind.
Das stimmt, aber es gilt nicht für die Metadateien von NTFS, die fangen mit $ (z.B. $MFT) an und man sieht sie eigentlich nur in den Defragmentierprogrammen.

Die sorgfältigere Variante ist also auch ein Blick wert da präventiv nach der Defragmentierung bei Zunahme an Daten eine geringere Wiederfragmentierung somit anfallen wird.
Deswegen fassen die Defragmentierprogramme i.d.R. eben die Lücken, also unbelegten Cluster, ja auch zu großen Bereichen zusammen, sonst würden ja neue Dateien sofort wieder fragmentiert sein, weil sie eben kein Chance hatte in einem Fragment am Stück abgelegt zu werden.
 
Wollte man eine SSD durch gelegentliches Defragmentieren zerstören dürften Jahrzehnte ins Land ziehen.

vom Handy getippselt
 
Mist, man hätte die Chance nützen können, um manuell zu trimmen, um mal zu gucken, welchen Einfluss das gehabt hätte. ;)

Bin für alle Vorschläge offen. Wenn ihr noch andere Versuche unternehmen wollt, sagt mir wie ich diese umsetzten kann. Solange keine Gefahr für meine Daten besteht kann ich das gerne versuchen. ;)
Hätte noch eine 830 (256GB) im Notebook (Sata II). Diese dürfte in einem ähnlichen "Zustand" sein...
Es gäbe auch noch eine Vertex 2 (128 GB) in meinem Backup-Rechner (Sata II). Diese läuft sogar ohne Trim (790FX-GD70).

@Holt: Ich bedanke mich erneut für die Erklärung!
 
Zuletzt bearbeitet:
P.S.: Macht es Sinn, die Optimierung nochmals durchzuführen, damit die "Lücke" aufgefüllt wird oder ist das gerade bei einer SSD unnötig?

- - - Updated - - -

Also wenn Du lustig bist, kannst Du ja mal folgendes versuchen, ist aber die Frage ob diese SSD überhaupt stark fragmentiert ist. Mehr kommt gleich.

Ich bin immer lustig... :bigok:

- - - Updated - - -

Dann mittels ForceTrim das Volume unter Windows 7 trimmen.

Funktioniert das auch auf dem Non-Trim-System, mit 790FX-Chipsatz?

Volume für ein paar Minuten ruhen lassen.

Weshalb ruhen?

PS: Muss mal auf ein neues Hashtool umsteigen.

Was ist das... :confused:
 
Kurze Frage: Die Funktion "Preformance Optimization", von Samsung Magican, erfüllt doch die selbe Aufgabe?
 
Ist diese Software wirklich sicher? Bin da immer etwas skeptisch...

P.S.: Auf dem Notebook ist die SSD partitioniert. Hat bestimmte Gründe, also bitte nicht meckern. C ist zu 28% fragmentiert und E zu 75%... :eek:
 
Wie lange braucht so ein Trim-Run?
 
Hat sich erledigt. Ist schon fertig. Jetzt warte ich ein paar Minuten...
 
C und E sind sich von den Messwerte, vor dem trimmen, sehr ähnlich. Kann mir fast nicht vorstellen, dass es einen Unterschied macht, welche Partition man bencht?! Werde aber vorsichtshalber beide benchen.

- - - Updated - - -

Hast recht. Habe es damals schon deaktiviert...

- - - Updated - - -

Soo... Die Bench nach dem Trim-Befehl läuft...

- - - Updated - - -

Wie es scheint, hat sich nicht viel getan.
Bilder folgen noch...
Das trimmen hatte auch keine Einfluss auf die Fragmentierung. Nur bei E sind es jetzt 74%, statt 75%. Nehme an das liegt im Bereich der Messtoleranz.

Werde jetzt defragmentieren, dann warten und dann wieder benchen...

- - - Updated - - -

So...

Alte Benchmark aus dem Jahre 2013:

as-ssd-bench SAMSUNG SSD 830  13.03.2013 13-47-04.png

Benchmark C und E, vor dem manuellen Trim-Befehl:

as-ssd-bench SAMSUNG SSD 830  29.03.2015 13-23-41.png

as-ssd-bench SAMSUNG SSD 830  29.03.2015 13-32-18.png

C und E nach dem trimmen:

as-ssd-bench SAMSUNG SSD 830  29.03.2015 13-52-43.png

as-ssd-bench SAMSUNG SSD 830  29.03.2015 13-56-41.png

Wie man sieht, sieht man nichts...:bigok:

- - - Updated - - -

Bitte nicht über die insgesamt niedrigen Werte wundern. Die SSD ist in einem Notebook mit i5-Prozi. Da geht wohl nicht viel mehr...
 
P.S.: Würdest du mir nochmal erklären, worum es dir bei dem Hash-Tool geht. Habe das nicht ganz verstanden...:confused:

- - - Updated - - -

Bin auch gespannt...

- - - Updated - - -

Dauert leider etwas länger mit dem NB... Zumal die 830 mehr befüllt ist...

- - - Updated - - -

C ist aber immerhin schon auf 0% Fragmentierung. Jetzt wird gerade "optimiert"... Dann kommt E dran...

- - - Updated - - -

Läuft ja hier wie im Sport-Live-Ticker... :)

- - - Updated - - -

Götze schießt...

und Tor... Tor... Tor... :banana:
 
OK, verstanden.

- - - Updated - - -

Die Optimierung dauert deutlich länger als das defragmentieren selbst... :sleep:

Ist auch irgendwie logisch. Schließlich müssen ganze Datensätze verschoben werden und nicht nur ein paar Fragmente.

- - - Updated - - -

Defrag&Optimize ist beendet. Ich warte jetzt noch 10 Minuten und dann kommen die Ergebnisse... :popcorn:
 
Bei meiner 840 Pro hat es ja scheinbar funktioniert: Hatte vorher einen Score von 261 beim Schreiben. Nach dem Defragmentieren lag der Score bei 375.

- - - Updated - - -

Bench läuft gerade...
 
Tja...:(

as-ssd-bench SAMSUNG SSD 830  29.03.2015 15-03-44.png

as-ssd-bench SAMSUNG SSD 830  29.03.2015 15-15-11.png

Hat dieses mal wohl wirklich nicht geholfen... :(

- - - Updated - - -

Jetzt bleibt noch ein Test: Meine 840 benchen, dann ForceTrim laufen lassen, und warten. Wenn die Werte danach besser sind, lag es wohl wirklich am Trim-Befehl.
 
Zuletzt bearbeitet:
Wenn Du noch eine 840 ohne Pro hast, da gibt es ja ganz andere Probleme, die sich aber nicht mit einem AS SSD Bench darstellen lassen.

Ist zum Glück eine 840 Pro. Um die normale 840, habe ich damals einen großen Bogen gemacht. Wie sich bestätigt hat, war diese Entscheidung goldrichtig...

- - - Updated - - -

Ich frage mich nur, warum ich nicht mehr die alten Werte erreiche.
Z.B. diese hier: Anhang anzeigen 317562
Die SSD war damals fast genauso voll.

- - - Updated - - -

Mir geht es nicht um Benchrekorde! Ich würde nur gerne verstehen warum die Leistung, wenn auch minimal, einbricht.
 
Mensch... wieder was gelernt! Merci!

Habe gerade bemerkt, dass die 790FX-Chipsets nun doch Trim unterstützen. Mit dem Treiber "Omega 14.12" sollte dies doch funktionieren? Wenn ich diesen installiere und "ForceTrim" durchlaufen lasse, müssten sich die Werte doch besseren, richtig?
 
Müsste eigentlich laufen.
Die Werte haben sich seid langem nicht mehr verschlechtert. Dachte damals das dies auf die gute Garbage-Collection der Sandforce-SSD zurückzuführen wäre, doch jetzt sehe ich, dass ich bereits einen trim-fähigen Treiber installiert hatte. :hmm:

Seid wann gibt es diesen Button? Habe immer wieder gelesen, dass manch einer, ein "Danke" erhalten hat, wusste aber nie wie das funktioniert...
Wow, habe sogar ein "Danke" erhalten. *Freu* :banana:

- - - Updated - - -

So, hab ein paar "Danke" verteilt! Werde dies auch in Zukunft nutzen, wenn man schon so umfangreich informiert wird... :)
 
Defrag macht nur selten Sinn.
Dann wenn danach die Performance wieder gestiegen ist wird sich beim nächsten Defrag nix verbessern mehr was logisch ist.

Das hängt auch etwas von den Eigenarten der SSD ab ob Defrag Sinn macht.


Zu viel bringt nix. Selten mal macht je nach Nutzung Sinn.

Wer z.B. 1 Jahr lang nix gemacht hat wird durchs Defrag eher mal bemerken das es flotter wurde.



vom Handy getippselt
 
Jetzt bestehen nur noch zwei Fragen, die meiner Kaufentscheidung im Wege stehen:

1.) In diesem PCMark 8 Consistency Test, schneidet die Sandisk Extrem Pro und die 850 Pro deutlich besser ab. Ich gehe davon aus, dass die 840 Pro ähnlich liegen würde?!
Warum fallen die MX100 und die 850 Evo, vergleichsweise stark, ab und inwieweit ist das Praxisrelevant. Welche Tätigkeit würde einen solchen Zustand herbeiführen.

2.) Hier ist zu sehen, dass die MX100 beim lesen kleiner Dateien, deutlich langsamer ist. Das ganze zieht sich fast bis 64KB. Welche Bereiche/Tätigkeiten betrifft dies besonders?

Mein Bauchgefühl lässt mich derzeit zu einer Sandisk/Samsung Pro greifen.
Andererseits bliebe noch die Möglichkeit, die 840Pro durch eine zweite 256GB SSD (z.B. MX100) zu ergänzen und eine anderne MX100 (256GB) in mein Notebook zu packen. Wenn ich mir die Leistung der 830 in meinem i5-Notebook ansehe, bezweifle ich das es einen Unterschied macht, welche SSD im alten NB landet...
 
Zuletzt bearbeitet:
Bin mir nicht mehr sicher, aber gab es nicht RST Versionen, die TRIM blockiert haben?
Seid der Version 9.6 unterstützt der TRIM, mit Drive Controller Info kann man leicht sehen welche Version man installiert hat.

Prüfe ob TRIM wirklich funktioniert kann man nur mit dem Tool TrimCheck. Man lässt es zweimal laufen, beim ersten mal wird die Testdatei erzeugt und gelöscht, beim zweiten mal wird geschaut ob TRIM funktioniert hat. Dazwischen sollte man nichts am Rechner machen und ein paar Minuten warten. Wurde TRIM nicht als funktionierend erkannt, kann man es auch erneut laufen lassen und es prüft die Daten noch einmal. TrimCheck muss auf der SSD liegen, wenn es ausgeführt wird, der User muss in dem Verzeichnis Schreibrechte haben und es darf weder verschlüsselt noch komprimiert sein.


Macht es Sinn, die Optimierung nochmals durchzuführen, damit die "Lücke" aufgefüllt wird oder ist das gerade bei einer SSD unnötig?
Welche Optimierung? Meinst Du Defragmentieren oder ein Batch-TRIM? Defragmentieren wird sich bei AS-SSD kaum zeigen, da es ja genug große Lücken gibt und Windows dort dann die Testdatei von AS-SSD an einem Stück ablegen kann.

Funktioniert das auch auf dem Non-Trim-System, mit 790FX-Chipsatz?
Wieso Non-TRIM? Das würde ich bei dem System klar mit Trimcheck prüfen und wenn es nicht geht, poste den Screenshot von Drive Controller Info.

Bringt das hier eigentlich auch etwas, bei meinem Desktop-System?

>>> AHCI Link Power Management - Enable HIPM and DIPM - Windows 7 Help Forums
LPM würde ich auf Desktops immer deaktiveren, es kostet immer Performance und auf diese paar gesparten mW kommt es nicht an, das ist nur für Notebooks und allenfalls für Mini-PCs wie ein NUC interessant, wenn dort die SSD sonst recht warm wird.
Das trimmen hatte auch keine Einfluss auf die Fragmentierung.
Richtig, das eine hat mit dem anderen nichts zu tun.
Wie man sieht, sieht man nichts...:bigok:
An SATA 3Gb/s wirst Du auch so schnell keinen Unterschied benchen können, wie Du siehst was bei der 840 Pro die seq. Schreibrate auch mit der Fragmentietung bei über 400MB/s und damit hätte auch dort klar die Schnittstelle limiert und ein Unterschied wäre nicht zu sehen gewesen.

Defrag macht nur selten Sinn.
Das stimmt, da der Einfluss der Fragmentierung eben bei SSDs sehr gering ist, aber wie man sieht, kann er eben schon sichtbar werden und Eagle1 hatte ja gefragt, warum seine Schreibrate so schlecht war, schlechter als am Anfang und war eben die Fragmentierung schuld. Wäre es fehlenes TRIM weil etwa der Treiber es nicht unterstützt, wäre sie nur noch schlechter weil dann auch die ganze TRIM Tool nichts trimmen können. Allenfalls Magician könnte das, wenn sie dort statt der normalen TRIM Befehle andere Kommandos nutzen die die FW aber als TRIM versteht und die der Treiber auch durchlässt.
Das hängt auch etwas von den Eigenarten der SSD ab ob Defrag Sinn macht.
Fragmentierung ist eine Sache des Filesystems und NTFS ist auf SSDs wie HDDs das gleiche. Die Eigenarten der SSD haben damit nichts zu tun, nur die sehr geringe Zugriffszeit bewirkt eben, dass der Einfluss der Fragmentierung, also das mehr und kürzere Zugriffe stattfinden, bei SSDs weitaus geringer als bei HDDs ist.

- - - Updated - - -

Defrag soll ja als erstes die Leseleistung verbessern und nicht die Schreibleistung, wie hier im Beispiel.
Nein umgekehrt, die Leserate von SSDs wird schon sowieso dermassen von der SATA Schnittstelle beschnitten (eine SM951 128GB liest mit 2GB/s), da fällt die Fragmentierung weniger auf, die Schreibleistung ist bei NAND immer geringer (bei 4k sieht man das aber nur, wenn man den Schreibcache deaktiviert, dann sind es nur noch wenige MB/s!) und daher leidet seq. Schreibrate bei der Fragmentierung am meisten.
Ob Defrag überhaupt bei modernen SSDs etwas bringt, ist noch nicht abschließend geklärt worden. Scheint auch keinen zu interessieren.
Natürlich ist das klar, dass es etwas bringt, weil es eben auf die Art der Zugriffe auf die SSD Auswirkungen hat. Die "Fachpresse" redet sich darauf hinaus, dass der Einfluss im Alltag so gering ist, dass man eben der Einfachheit halber behauptet er wäre nicht vorhanden, was zwar falsch ist, aber auch irgendwo verständlich wenn ich sehe wie schwer es selbst hier bei Luxx viele fällt die Zusammenhänge zu verstehen. Wer keine Ahnung von Filesystemen und ATA Befehlen hat und nicht weiß was in welchem Layer des Betreibssystems wo passiert wenn man eine Datei liest oder schreibt, der hat auch keine Chance dies wirklich nachzuvollziehen.

Jetzt bestehen nur noch zwei Fragen, die meiner Kaufentscheidung im Wege stehen:

1.) In diesem PCMark 8 Consistency Test, schneidet die Sandisk Extrem Pro und die 850 Pro deutlich besser ab. Ich gehe davon aus, dass die 840 Pro ähnlich liegen würde?!
Nicht wirklich, mit der 850 Pro hat Samsung gegenüber der 840 Pro bzgl. Consistency einen gewaltigen Schritt nach vorne gemacht, aber wie es bei CB auch schon steht: Das ist für Heimanwender komplett irrelevant, die bringen ihre SSDs nie in eine solche Steady-State Situation in der das eine Rolle spielt und wenn doch, dann sollte man besser Enterprise SSDs nehmen oder der Consumer SSD wenigstens genug Over Provisioning gönnen und mit 25% OP schlägt die 850 Pro fast alle anderen SSDs auf dem Feld, selbst die Intel DC 3700er, deren Paradediziplin die Performance Consistency ist. Schau Dir die Reviews bei Anandtech an, dort wird auch mit OP getestet!

Warum fallen die MX100 und die 850 Evo, vergleichsweise stark, ab und inwieweit ist das Praxisrelevant. Welche Tätigkeit würde einen solchen Zustand herbeiführen.
Für Heimanwender: Gar nicht, 0, nix, NULL. Du wirst Deine SSD so nicht betreiben.

2.) Hier ist zu sehen, dass die MX100 beim lesen kleiner Dateien, deutlich langsamer ist. Das ganze zieht sich fast bis 64KB. Welche Bereiche/Tätigkeiten betrifft dies besonders?
Das ist schon interessanter, die Leistung bei kurzen Zugriffen und wenigen parallelen Zugriffen ist die Paradedizziplin der Samasung 850er, damit gewinnen sie die Benchmarks, denn darauf kommt es im Alltag an. Trotzdem sind die Unterschiede im Alltag so gering, dass es sich nicht lohnt deshalb den Aufpreis zu zahlen und außerdem hängen gerade die Werte sehr vom System und dessen Energiespareinstellungen ab. Mit AMD oder Notebooks hat man da gleich verloren und auch bei Intel Desktops muss man für besten 4k Werte alle C-States deaktivieren und eine feste CPU Frequenz einstellen, was bzgl. Leistungaufnahme wenig optimal ist.

Mein Bauchgefühl lässt mich derzeit zu einer Sandisk/Samsung Pro greifen.
Wenn SanDisk, dann die Extreme Pro, aber die ist oft auch sehr teuer, die Crucial MX100 ist immer noch der P/L Sieger, nur werden die langsam knapp und teurer, weil sie von der BX100 abgelöst wurde.
Andererseits bliebe noch die Möglichkeit, die 840Pro durch eine zweite 256GB SSD (z.B. MX100) zu ergänzen und eine anderne MX100 (256GB) in mein Notebook zu packen.
Dann nimm lieber eine MX100 512GB und packe die 840 Pro ins Notebook!

Wenn ich mir die Leistung der 830 in meinem i5-Notebook ansehe, bezweifle ich das es einen Unterschied macht, welche SSD im alten NB landet...
Zwischen 830, 840 Pro, 850 Evo/Pro und der MX100 wird man im Alltag keinerlei Unterschied merken können, die sind dafür alle zu schnell als das sich außerhalb der Benchmarks eine als langsam bemerkbar machen würde.
 
Welche Optimierung? Meinst Du Defragmentieren oder ein Batch-TRIM? Defragmentieren wird sich bei AS-SSD kaum zeigen, da es ja genug große Lücken gibt und Windows dort dann die Testdatei von AS-SSD an einem Stück ablegen kann.

Ich meinte die Optimierung der DiskDefrag-Software.

Wieso Non-TRIM? Das würde ich bei dem System klar mit Trimcheck prüfen und wenn es nicht geht, poste den Screenshot von Drive Controller Info.

Hat sich bereits erledigt.
Damals unterstütze der AMD-Sata-Treiber kein Trim für die 700er-Chipsets.
Hatte jedoch bereits einen trimfähigen Treiber installiert. Deshalb waren die Werte der Vertex2 auch so lange stabil. :hmm:

LPM würde ich auf Desktops immer deaktiveren, es kostet immer Performance und auf diese paar gesparten mW kommt es nicht an, das ist nur für Notebooks und allenfalls für Mini-PCs wie ein NUC interessant, wenn dort die SSD sonst recht warm wird.

War bereits aus. Hatte es im RST deaktiviert, aber leider vergessen... Daher meine Frage. Sorry!

An SATA 3Gb/s wirst Du auch so schnell keinen Unterschied benchen können, wie Du siehst was bei der 840 Pro die seq. Schreibrate auch mit der Fragmentietung bei über 400MB/s und damit hätte auch dort klar die Schnittstelle limiert und ein Unterschied wäre nicht zu sehen gewesen.

Klingt wiedermal logisch. :)

Nicht wirklich, mit der 850 Pro hat Samsung gegenüber der 840 Pro bzgl. Consistency einen gewaltigen Schritt nach vorne gemacht, aber wie es bei CB auch schon steht: Das ist für Heimanwender komplett irrelevant, ….
Schau Dir die Reviews bei Anandtech an, dort wird auch mit OP getestet!

OK.

Für Heimanwender: Gar nicht, 0, nix, NULL. Du wirst Deine SSD so nicht betreiben.

Wunderbar.

Das ist schon interessanter, die Leistung bei kurzen Zugriffen und wenigen parallelen Zugriffen ist die Paradedizziplin der Samasung 850er, damit gewinnen sie die Benchmarks, denn darauf kommt es im Alltag an. Trotzdem sind die Unterschiede im Alltag so gering, dass es sich nicht lohnt deshalb den Aufpreis zu zahlen und außerdem hängen gerade die Werte sehr vom System und dessen Energiespareinstellungen ab.

OK.

Wenn SanDisk, dann die Extreme Pro, aber die ist oft auch sehr teuer....

Meinte auch die Sandisk (Pro) bzw. Samsung Pro.

Dann nimm lieber eine MX100 512GB und packe die 840 Pro ins Notebook!

Spricht etwas für EINE 512GB und gegen ZWEI 256GB-SSDs im Rechner? Preisvorteile mal beiseite gelassen.

Zwischen 830, 840 Pro, 850 Evo/Pro und der MX100 wird man im Alltag keinerlei Unterschied merken können....

Wohl wahr...
Deshalb habe ich mir jetzt mal den Energieverbrauch der einzelnen Modelle angeschaut und tendiere nun zur 850 EVO (250GB), für mein Notebook.
Die 850er scheinen dort wirklich extrem gut abzuschneiden.

- - - Updated - - -

Schau Dir die Reviews bei Anandtech an, dort wird auch mit OP getestet!

Entspricht das einer befüllten SSD oder wäre das nur relevant, wenn man den OP-Bereich vergrößert hätte?
 
Zuletzt bearbeitet:
Ich meinte die Optimierung der DiskDefrag-Software.
Keine Ahnung was sich dahinter versteckt, aber wenn es ein Batch TRIM ist, dann wird es nichts bringen nachdem Du die schon getrimmt und optimiert hast und sie sowieso unter Windows getrimmt wird.

Spricht etwas für EINE 512GB und gegen ZWEI 256GB-SSDs im Rechner? Preisvorteile mal beiseite gelassen.
Ja, denn mit 512GB SSD wird man noch länger etwas sinnvolles anfangen können als mit 256GB SSD, die 60/64GB SSDs sind ja heute schon kaum noch irgendwo sinnvoll zu nutzen, bei 120/128GB SSDs geht es schon ähnlich und die 240-256GB SSD sind als nächstes dran nicht mehr wirklich nützlich zu sein.

Deshalb habe ich mir jetzt mal den Energieverbrauch der einzelnen Modelle angeschaut und tendiere nun zur 850 EVO (250GB), für mein Notebook.
Die 850er scheinen dort wirklich extrem gut abzuschneiden.
Das ist wahr, aber wenn man LPM aktiviert sind auch die Crucial extrem sparsam und liegen umbei 100mW, da macht es dann auch keinen wirklichen Unterschied das die Samsung noch mal einiger weniger verbrauchen. Die 840 Pro ist aber auch recht sparsam im Idle, deshalb würde ich statt zwei kleiner SSDs zu kaufen eine große nehmen und die 840 Pro ins Notebook verfrachten.

Entspricht das einer befüllten SSD oder wäre das nur relevant, wenn man den OP-Bereich vergrößert hätte?
Steady-State bedeutet, dass die ganze SSD komplett befüllt ist und dann mit zufälligen 4k Schreibzugriffen gefoltert wird. Mit Over Provisioning bedeutet, dass eben ein Teil der Kapazität nicht genutzt wird, also auch nicht gefüllt wird und daher dem Controller als Free Area zur Verfügung steht, was für eine gute Performance im Steady State extrem wichtig ist, auch wenn nicht alle SSDs gleichermaßen davon profitieren. Die 850 Pro profitiert extrem von mehr OP im Steady State und hat ab Werk aber sehr wenig OP, weil man eben die vollen z.B. 512GB Nutzkapazität hat womit sie nur so 7% OP hat und nicht nur 480GB wie z.B. bei der Extreme Pro, was schon etwa 12% OP entspricht, also deutlich mehr.

Im Performance consistency Test des Reviews der 850 Pro bei Anandtech wurden die 850 Pro auch mit den 12% OP getestet und schlägt dann die Extreme Pro deutlich und sogar die Intel 730:







Letztere sind eben ab Werk schon mit so viel OP ausgestattet und bei der Intel 730 stimmt der Vergleich noch gar nicht einmal, da die 730 mehr als die 512GiB NAND verbaut hat, mit denen die 850 Pro und die Extreme Pro antreten:
Nicht GB sondern GiB, aber eben 528GiB statt dr 512GiB der anderen, also mehr OP als die 12% die Anandtech unterstellt.
 
Zuletzt bearbeitet:
Holt :) mit Eigenarten meinte ich das nicht jedes SSD Modell gleich schnell fragmentiert einfach (bei gleichem Nutzungsverhalten)

Somit sollte man sich nicht scheuen jeweiliges erst zu analysieren und dann entscheiden ob man Defrag überhaupt braucht.

vom Handy getippselt
 
Hat jemand ne gute Seite wo man eine Samsung 850 EVO mSATA 120GB günstig beziehen kann?
Finde die irgendwie nur auf unseriösen Seiten...einzigst Jacob Elektronik, aber da wollen sie fast 90€. Ich war der Meinung ich hat sie vor kurzem mal für 60-70€ gesehen. :heul:
Oder konkurrenzfähige Alternative zur 850 EVO mSATA?
 
Holt :) mit Eigenarten meinte ich das nicht jedes SSD Modell gleich schnell fragmentiert einfach (bei gleichem Nutzungsverhalten)
Du hast es noch nicht verstanden: Fragmentierung ist eine Sache des Filesystems, nicht der SSD und damit wird die bei gleicher Nutzung und gleicher Partitionsgröße bei jeder SSD und jeder HDD genau gleich auftreten!!! Der Unterschied ist einzig, dass nicht bei jeder SSD die Performance gleich darunter leiden wird, da einige auch bei den kurzen Zugriffe eben bei einigen besser als bei anderen SSD ist.

Nochmal: Fragmentierung hat auch nichts, rein gar nichts, damit zu tun wie die Daten intern vom Controller im NAND verteilt werden, es geht nur darum wie das Filesystem die Dateien auf die Cluster und damit den Adressbereich der SSD verteilt, nicht mehr und nicht weniger und das bestimmt nun wieder, wie die Zugriffe auf diese Dateien ausfallen, also welche Adressen und wie viele Folgeadressen mit einem Befehl gelesen werden. SATA Befehle können ja bis zu 2^16 LBAs ab einer bestimmten LBA auf einmal adressieren, also bis zu 32MiB.
Somit sollte man sich nicht scheuen jeweiliges erst zu analysieren und dann entscheiden ob man Defrag überhaupt braucht.
Das sollte man sowieso immer und meist bringt es nicht so viel, zumal nur Dateien langsamer gelesen und vor allem geschrieben werden, die auch wirklich fragmentiert sind.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh