[Kaufberatung] SSD-Kaufberatung/-Informationsthread + Diskussion (Bitte lesen!)

Ok aber sorgt nicht die Firmware einer Festplatte für verschiedenes Einsortieren und somit für verschiedene Fragmentierung?

vom Handy getippselt
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja, denn mit 512GB SSD wird man noch länger etwas sinnvolles anfangen können als mit 256GB SSD, die 60/64GB SSDs sind ja heute schon kaum noch irgendwo sinnvoll zu nutzen, bei 120/128GB SSDs geht es schon ähnlich und die 240-256GB SSD sind als nächstes dran nicht mehr wirklich nützlich zu sein.

Wenn ich dich richtig verstanden habe, geht es also alleine um die Speicherkapazität.

- In einem Desktopsystem wäre es also eigentlich egal, ob ich den Speicherplatz auf einer oder zwei SSDs verteilt habe.
- Die minimalen Leistungsvorteile des größeren Modells spüre ich, laut euren Aussagen, sowieso nicht.
- Mehr als 500GB habe ich nie benötigt, da ich einige Daten auf eine externe Festplatte auslagere und dies auch weiterhin machen wollte.

Meine derzeitige Erkenntnis:

Argumente für EINE 512GB-SSD:
- Alles auf einer SSD und die Möglichkeit, später EINE größere SSD in mein Notebook zu packen.
- Besseres P/L-Verhältnis

Argumente für ZWEI 256GB-SSDs:
- Bei Ausfall einer SSD, wäre noch eine Backup-SSD vorhanden.
- Die Möglichkeit zunächst nur eine 256GB anzuschaffen und falls nötig, nachzukaufen.

Wenn ich etwas übersehen habe, weise mich bitte drauf hin. ;)

Das ist wahr, aber wenn man LPM aktiviert sind auch die Crucial extrem sparsam und liegen umbei 100mW, da macht es dann auch keinen wirklichen Unterschied das die Samsung noch mal einiger weniger verbrauchen.

Wie kann ich ermitteln, ob mein NB LPM unterstützt?

Die 840 Pro ist aber auch recht sparsam im Idle, deshalb würde ich statt zwei kleiner SSDs zu kaufen eine große nehmen und die 840 Pro ins Notebook verfrachten.

Wie sieht es mit einem Raid0 aus?!

Mir ist bewusst das ein Raid den Nachteil hat, alle Daten auf beiden SSDs zu verlieren, falls eine SSD ausfällt.
Wo liegen die Vorteile?
Ein Raid würde doch den Datendurchsatz auf zwei SATAIII-Ports verteilt. Somit müsste der Geschwindigkeitsvorteil doch auch spürbar sein?
Wie sieht es mit dem TurboWrite-Puffer aus? Würde sich dieser verdoppeln oder wird dieser aufgeteilt, wie man es vom Speicher bei Multi-GPU-Systemen kennt?
Die Intel-Treiber unterstützen den Trim-Befehl für Raid0 schon seid längerem, wenn ich es richtig mitbekommen habe. Würde mein Chipsatz da auch mitspielen?

Mit Over Provisioning bedeutet, dass eben ein Teil der Kapazität nicht genutzt wird, also auch nicht gefüllt wird und daher dem Controller als Free Area zur Verfügung steht, was für eine gute Performance im Steady State extrem wichtig ist, auch wenn nicht alle SSDs gleichermaßen davon profitieren.

Könntest du mir in diesem Zusammenhang folgendes erklären:

Als ich im „Samsung Magican Tool“ (bitte nicht aufhören zu lesen..:fresse:) den OP-Bereich vergrößert habe, knickte die Benchmark-Leistung ein.
Ist das normal oder habe ich etwas falsch gemacht?
 
Zuletzt bearbeitet:
Ok aber sorgt nicht die Firmware einer Festplatte für verschiedenes Einsortieren und somit für verschiedene Fragmentierung?
Nochmal: Fragmentierung ist eine Sache alleine des Filesystems und das ist Teil des Betriebssystems. Platten egal ob SSD oder HDD, stellen nur eine bestimmte Anzahl von LBAs zu normalerweise je 512Byte zur Verfügung die mit Befehlen gelesen und geschrieben werden die eine Adresse und einen Zähler haben, der Zähler gibt an wie viele nachfolgende LBAs ab der Adresse gelesen oder geschrieben werden. Alles was darüber liegt, die Dateien, Verzeichnisse, Partitionen und Partitionierungsarten sind alleine logisch Interpretationen von Daten auf der Platte durch das Filesystem und dem Controller der Platte gar nicht bekannt.

Wenn ich dich richtig verstanden habe, geht es also alleine um die Speicherkapazität.
Richtig und da Windows und die Programme und Daten i.d.R. mit der Zeit immer mehr Platz belegen, ist das alleine schon ein gewichtigeres Argument als Du vielleicht jetzt meinst.

Stell Dir vor Du kaufst nun eine 250GB für das Notebook und dann noch eine 250GB für den Desktop, in ein paar Jahren brauchst Du dann aber mehr Platz auf dem (nächsten) Notebook und musst dann eine neue SSD kaufen, statt die 512GB die Du jetzt für den Desktop kaufst und das Notebook zu verfrachten und dem Desktop dann z.B. eine 1TB SSD zu spendieren.
- Mehr als 500GB habe ich nie benötigt, da ich einige Daten auf eine externe Festplatte auslagere und dies auch weiterhin machen wollte.
Mehr als 640k haben am Anfang auch alle PCs nicht gebraucht und angeblich hat jemand auch behauptet, es würde immer so bleiben.
Wie kann ich ermitteln, ob mein NB LPM unterstützt?
Das kann ich Dir jetzt nicht so sagen, aber wenn es nicht so alt ist, sollte es das können.
- Bei Ausfall einer SSD, wäre noch eine Backup-SSD vorhanden.
...
Wie sieht es mit einem Raid0 aus?!
Dann fällt das Argument oben aber weg, das wäre nur gegeben, wenn Du eine SSD im Schrank liegen hast oder ein RAID 1 baust, wobei letzteres auch keine Backups ersetzt. Ein RAID 0 aus zwei SSDs bringt im Alltag kaum etwas und ein RAID 0 am Intel Chipsatz kann zwar bei neueren Chipsätzen TRIM für SSDs, aber es ist auch gefährlich, einmal im IDE oder AHCI Modus gebootet, sind die Metadaten des RAIDs auf der Platte schnell zerschossen.

Wie sieht es mit dem TurboWrite-Puffer aus? Würde sich dieser verdoppeln oder wird dieser aufgeteilt, wie man es vom Speicher bei Multi-GPU-Systemen kennt?
Ja, der wäre doppelt so groß und der RAID Treiber gönnt sich noch mehr RAM-Puffer, der muss die Daten ja auch aufteilen, was bei AS-SSD sehr viel bessere 4k Schreibraten ergibt, aber wie Du am Link oben sehen kannst, bleibt bei Alltagsaufgaben von der guten Performance in den Benchmarks wenig überig.
Die Intel-Treiber unterstützen den Trim-Befehl für Raid0 schon seid längerem, wenn ich es richtig mitbekommen habe. Würde mein Chipsatz da auch mitspielen?
Jein, offiziell nicht, das nötige RAIDROM im BIOS gab es erst ab dem Z77, aber mit einem Mod-BIOS welche das ROM enthält, könnte es gehen. Ein Mod-BIOS ist aber immer ein Risiko.

Als ich im „Samsung Magican Tool“ (bitte nicht aufhören zu lesen..:fresse:) den OP-Bereich vergrößert habe, knickte die Benchmark-Leistung ein.
Ist das normal oder habe ich etwas falsch gemacht?
Normal ist das nicht, es dürfte eher an der Fragmentierung des Filesystems gelegen haben, vielleicht wurde das Filesystem auch gerade im Hintergrund repariert. Die OP-Funktion in Magician verkleinert ja nur die Partition. Richtig macht man es, indem man gleich im Neuzustand oder nach einem Secure Erease die Partition kleiner anlegt und damit einen Teil unpartitioniert lässt. Alternativ geht es auch indem man der SSD mitteilt sie solle weniger Kapazität anzeigen.
 
Also fragmentieren alle Festplatten bei genau gleicher Nutzung gleich (gleiches Betriebssystem, gleiche Festplattengröße, Formatierung und Clustergröße angenommen jedoch unterschiedliche Modelle) ?

vom Handy getippselt
 
Richtig und da Windows und die Programme und Daten i.d.R. mit der Zeit immer mehr Platz belegen, ist das alleine schon ein gewichtigeres Argument als Du vielleicht jetzt meinst.

Ich kann deine Argumentation natürlich nachvollziehen!
Allerdings wird es sicher noch eine weile dauern, bis Windows und Office mehr als 100-150Gb benötigen. ;)

Das kann ich Dir jetzt nicht so sagen, aber wenn es nicht so alt ist, sollte es das können.

Dann muss ich wohl etwas nachforschen.

Ein RAID 0 aus zwei SSDs bringt im Alltag kaum etwas und ein RAID 0 am Intel Chipsatz kann zwar bei neueren Chipsätzen TRIM für SSDs, aber es ist auch gefährlich, einmal im IDE oder AHCI Modus gebootet, sind die Metadaten des RAIDs auf der Platte schnell zerschossen.

Werde mir den Artikel mal durchlesen. Deine Hinweise klingen allerdings nicht sehr vertrauenerweckend und decken sich mit dem bisher gelesenen.
Raid ist dann wohl nichts für mich...

Ja, der wäre doppelt so groß und der RAID Treiber gönnt sich noch mehr RAM-Puffer, der muss die Daten ja auch aufteilen, was bei AS-SSD sehr viel bessere 4k Schreibraten ergibt, aber wie Du am Link oben sehen kannst, bleibt bei Alltagsaufgaben von der guten Performance in den Benchmarks wenig überig.

Werde ich mir auf jeden Fall anschauen.

Jein, offiziell nicht, das nötige RAIDROM im BIOS gab es erst ab dem Z77, aber mit einem Mod-BIOS welche das ROM enthält, könnte es gehen. Ein Mod-BIOS ist aber immer ein Risiko.

OK, also wäre es für mein jetziges System auch eher uninteressant. Schade.

Normal ist das nicht, es dürfte eher an der Fragmentierung des Filesystems gelegen haben, vielleicht wurde das Filesystem auch gerade im Hintergrund repariert. Die OP-Funktion in Magician verkleinert ja nur die Partition. Richtig macht man es, indem man gleich im Neuzustand oder nach einem Secure Erease die Partition kleiner anlegt und damit einen Teil unpartitioniert lässt. Alternativ geht es auch indem man der SSD mitteilt sie solle weniger Kapazität anzeigen.

Falls ich Win7 nochmals neu installieren würde und nicht den vollen Speicherplatz benötigen sollte, wäre es dann sinnvoll der SSD mehr OP zu gönnen?

Und wie immer, Danke für deine ausführliche und informative Antwort!
 
Also fragmentieren alle Festplatten bei genau gleicher Nutzung gleich (gleiches Betriebssystem, gleiche Festplattengröße, Formatierung und Clustergröße angenommen jedoch unterschiedliche Modelle) ?
Ja, weil das Filesystem eben eine Schicht über der Platte liegt und nichts von der unterliegenden Platte weiß. Die Anordnunge der Dateien auf den Cluster kann damit also auch nicht davon abhängen.

Falls ich Win7 nochmals neu installieren würde und nicht den vollen Speicherplatz benötigen sollte, wäre es dann sinnvoll der SSD mehr OP zu gönnen?
Nicht wirklich, denn TRIM müsste ja funktionieren und damit ist das nicht nötig, es reicht mit TRIM wenn man ein paar Dateien löscht, falls die SSD mal zu voll wird.
 
Du schriebst davon das es außerdem keinen Unterschied machen würde ob SSD oder HD.

Jetzt frag ich mich warum meine neuere HD hier von sich aus kaum fragmentiert. Es wird gestapelt als würde ständig ein Defragtool bei der Einsortierung automatisch helfen.
Prüfe ich dann gelegentlich auf Fragmentierung liegt trotz vieler Einzeldaten welche ständig zu kommen die Fragmentierung fast bei 0. So ganz kann ich das aus der Praxis noch nicht bestätigen.

Alleine die 5 externen Festplatten die ich noch habe verhalten sich doch jede für sich unterschiedlich.

Habe das auch mal ausprobiert.

3 Daten jeweils kopieren auf jede der 5 HDs, anschließend 2 dieser Daten löschen und wieder 3 drauf. Fragmentierung aller HDs vorher 0%. Welche Festplatte fragmentiert mehr?

Restplatz war auf allen genug doch die minimalen Resultate durchs Fragmentieren sind verschieden.

Ich bin ja nicht so wissend da wie Du Holt und bewundere das auch aber ich bin da ein Mann der Praxis und prüfe das dann gerne nach.

vom Handy getippselt
 
Nicht wirklich, denn TRIM müsste ja funktionieren und damit ist das nicht nötig, es reicht mit TRIM wenn man ein paar Dateien löscht, falls die SSD mal zu voll wird.

Alles klar. Dann kann ich mir das wenigstens sparen.

Jetzt bleibt nur noch die (hoffentlich) letzte Frage:
Kann ich von einer 850 EVO bzw. MX100 (250/500GB) erwarten, dass diese genauso ihre Leistung aufrecht erhält, wie es meine 840 Pro bisher getan hat, vorausgesetzt sie wird ähnlich genutzt/belastet?
Und spielt bei diesen Modellen die Kapazität, in der Hinsicht, eine Rolle?

Grüße

- - - Updated - - -

P.S.: Der von dir verlinkte Artikel, über den Raid-Betrieb, war sehr aufschlussreich. Ein SSD-Raid hat sich damit für mich erledigt.
 
Um Holt nochmal zu bestätigen: ich habe die Tage auf meinem Win 8.1 System das Problem gehabt das nach dem Hochfahren es teilweise 2-3 Minuten brauchte bis ich etwas klicken o.ä. Machen konnte. Auch entpacken usw lief langsam.

Ein speedtest auf der M500 480gb sagte alles tutti.

Erst nach einem Defrag mittels Fremdtool ist die Performance wieder da. Platte war zu 80% fragmentiert
 
Welches Tool wurde denn dafür genutzt?
 
Würde mich auch interessieren :)
Bei mir wie gesagt Auslogics Defrag.

vom Handy getippselt
 
Jetzt frag ich mich warum meine neuere HD hier von sich aus kaum fragmentiert.
Deine SSD dürfte sicher die Systemplatte sein, wo also Windows laufend schreibt und löscht, log-Dateien stehen die mit der Zeit auch immer größer werden, etc. Das alles ist bei den HDDs wohl kaum der Fall, schon gar nicht bei den externen HDDs, die Voraussetzung der gleichen Nutzung ist damit also nicht gegeben!
Schreibt man immer nur auf einer Platte ohne je was zu löschen und werden bestehende Dateien auch nicht größer, dann gibt es auch praktisch keine Fragmentierung, weil die Dateien ja immer nur in die große Lücke gefüllt werden und keine kleinen Lücken im Adressraum entstehen die eben für die Fragmentierung der Dateien sorgen, wenn Windows diese füllen muss um die Datei überhaupt unterbringen zu können.

Prüfe ich dann gelegentlich auf Fragmentierung liegt trotz vieler Einzeldaten welche ständig zu kommen die Fragmentierung fast bei 0.
Und schau mal in den Zeitplaner des Defragmentiertdienstes ob die HDD nicht dort eingetragen ist.
So ganz kann ich das aus der Praxis noch nicht bestätigen.
Weil Du sie ja auch ganz anderes nutzt, die Nutzung ist aber was am meisten über die Fragmentierung entscheidet.
3 Daten jeweils kopieren auf jede der 5 HDs, anschließend 2 dieser Daten löschen und wieder 3 drauf. Fragmentierung aller HDs vorher 0%. Welche Festplatte fragmentiert mehr?
Wenn die Platten nicht sehr voll sind, dann passiert keine Fragmentierung, weil Windows bemüht ist diese zu vermeiden und die Dateien dann in einen freien Bereich schreibt. Deshalb verteilen sich die Dateien mit der Zeit auch auf den ganze Adressraum und man kann dann z.B. die Partitionen nicht mehr (in der Datenträgerverwaltung) verkleinern, obwohl eigentlich noch massig Platz frei wären. Nur der für den $MFT reservierte Bereich (normalerweise 12.5%) wird ausgenommen, aber den Rest belegt Windows ganz fröhlich bevor es anfängt Cluster wieder zu belegen, die vorher von inzwischen gelöschten Dateien belegt waren. Deshalb geht auch oft eine Wiederherstellung von versehentlich gelöschten Dateien selbst nach längerer Zeit, wenn die Platte noch nicht sehr voll aber nicht mehr, wenn sie schon recht voll ist.

Restplatz war auf allen genug
S.o.! Wenn Du das wirklich sehen willst, musst Du die Platten mit gleich großen Partitionen anlegen, frisch formatieren und jeweils genau die gleichen Dateien in der gleichen Reihenfolge schreiben und löschen, sonst sagt das alles nichts aus.

Kann ich von einer 850 EVO bzw. MX100 (250/500GB) erwarten, dass diese genauso ihre Leistung aufrecht erhält, wie es meine 840 Pro bisher getan hat, vorausgesetzt sie wird ähnlich genutzt/belastet?
Das sollten sie und ich würde mich wegen der Zellgröße des 3d NANDs auch wundern, wenn die 850 Evo die gleichen Probleme wie die 840 Evo bekommen würde, aber sicher kann das keiner sagen. Das Langzeitverhalten ist eben am schlechtesten zu testen.
Und spielt bei diesen Modellen die Kapazität, in der Hinsicht, eine Rolle?
Die Kapazität spielt immer eine Rolle wenn es um die Performance geht und vor allem wenn die SSD wegen einer zu kleinen Kapazität immer zu voll betrieben wird, dann auch bzgl. der Langzeitverhaltens.

Siehe Problem mit den Samsung TLC Modellen der 840 (Nicht Pro). Würde um Samsung daher z.Zt. einen weiten Bogen machen.
Wenn Du um die Samsung mit TLC einen Bogen machen willst, ist das Deine Sache, aber wieso auch um die Samsung SSDs mit MLC?

Ein Defrag löst aber auch immer Schreiboperationen aus, die TRIM und/oder GC wieder ins Rollen bringen können.
Du hast offenbar noch nicht verstanden, dass die Fragmentierung in einer Schicht weit oberhalb der eigentlich SSD stattfindet, nämlich im Filesystem welches den Adressraum verwaltet. TRIM und die Idle-GC sind daher interne Sache der SSD und haben daher keinerlei Einfluss auf die Fragmentierung des Filesystems, da geht es nur um die interne Verwaltung der NANDs und die Verteilung der Daten auf die NANDs, was aber für das Filesystem transparent ist und nichts mit der Fragmentierung zu tun hat, auch wenn manche das immer wieder als Argument in den Raum werfen warum eine Defragmentierung bei SSD angeblich sinnlos sein soll.

Dabei wird aber eben einfach vergessen, dass eben nicht der Conroller der SSD die Dateien und Verzeichnisse verwaltet, sondern immer noch das alten Filesystem wie z.B. NTFS und das SSDs genau wie HDDs eben nur eine bestimmte Zahl von LBAs zum Ablegen von je 512 Byte pro LBA zu Verüfgung stellen. Wenn Du eine Datei lesen willst, dann muss das Filesystem, also ein Teil des Betriebssystems, erst einmal in den Metadaten schauen auf welche Clustern diese liegt, dann anhand der Partitionierungsinformationen die Cluster in LBAs umrechnen und danach die Befehle erzeugen und an die Platte schicken um diese LBAs auszulesen. Die Platte weiß also von der Datei nichts, die liest nur LBAs aus und gibt die Daten raus, mehr nicht. Wo diese Daten konkret im NAND stehen, das verwaltet der Controller und davon weiß das Filesystem auch gar nichts, denn das kommt nie nach außen, dafür haben die SSD Controller eine Mappingtabelle die LBAs in Flashadressen umsetzt und auf die kann von außen keiner zugreifen und ebensowenig direkt auf Flashadressen, sondern nur auf LBAs.

Genau dieses Mapping fehlt den HDDs bisher, bzw. gibt es das eben nur für Resevesektoren die defekte Sektoren ersetzt haben und dann ist es auch transparent und fällt allenfalls wegen der Verzögerung auf die die Köpfe zum Anfahren des Reservesektors brauchen auf. Aber sonst werden eben bei HDDs LBAs immer fest in Zylinder, Kopf und Sektor umgerechnet und benachbarte LBAs stehen eben i.d.R. auch nebeneinander auf den Platten und somit auch benachbarte Cluster, weshalb Dateien die nur in aufeinanderfolgenden Cluster stehen, also ohne Fragmentierung, dann auch am schnellsten gelesen werden können. Die Länge der Zugriffe spielt bei HDDs auch weniger eine Rolle als bei SSD, HDDs erreichen schon bei 64k pro Zugrff ihre maximalen Transferraten, SSDs brauchen dafür viel längere Zugriffe, schau Dir mal die Ergebnisse von SSDs bei HD Tune (welches in der Standardeinstellung nur alle paar MB mal 64k liest) oder IOMeter (bei dem die seq. Transfers i.d.R. nur 128k lang sind) an und vergleich sie mit denen von AS-SSD oder CDM.
 
Danke Holt, wieder was gelernt :)
Jetzt interessiert mich nur noch welches Tool der Kollege Oben nutzte zum Defragmentieren.

vom Handy getippselt
 
Das sollten sie und ich würde mich wegen der Zellgröße des 3d NANDs auch wundern, wenn die 850 Evo die gleichen Probleme wie die 840 Evo bekommen würde, aber sicher kann das keiner sagen. Das Langzeitverhalten ist eben am schlechtesten zu testen.

Die Kapazität spielt immer eine Rolle wenn es um die Performance geht und vor allem wenn die SSD wegen einer zu kleinen Kapazität immer zu voll betrieben wird, dann auch bzgl. der Langzeitverhaltens.

Wenn Du um die Samsung mit TLC einen Bogen machen willst, ist das Deine Sache, aber wieso auch um die Samsung SSDs mit MLC?

Nach derzeitigem Kenntnisstand spricht also eigentlich nichts gegen die 850 EVO (500GB).

Würdest du, bei nahezu gleichem Preis, trotzdem zu MX100 greifen oder ist das wirklich nur noch eine Frage der Präferenz?
 
Viele verstreute Dateischnipsel müssen aber auch bei einer SSD zusammen gesucht werden, was bei hohem Fragmentierungsgrad auch länger dauert als wie wenn diese am Stück gelesen werden können.

Gut zu sehen auch bei Benchmarks wie kleinere Dateien auch langsamer gelesen werden.

vom Handy getippselt
 
Merken wird man es aber weniger bei den Zugriffszeiten der SSD.

Messbar ist alles und der Mensch will ja alles Messen können um einen Maßstab zu haben.
 
Also meine Beobachtungen sind die das ein Defragmentieren einer SSD mit 10% quasi wirkungslos ist.

Wenn es aber 60% und mehr sind wird es definitiv sinnvoll und zeigt Wirkung.

vom Handy getippselt
 
Siehe Problem mit den Samsung TLC Modellen der 840 (Nicht Pro). Würde um Samsung daher z.Zt. einen weiten Bogen machen.

Gerade aufgrund dieser Probleme kann sich Samsung nicht noch so eine Schlappe leisten.
Bin mir ziemlich sicher das ihnen dieser Fehler nicht wieder passiert. ;)
 
o&o Defrag war das ganze...
 
Nach derzeitigem Kenntnisstand spricht also eigentlich nichts gegen die 850 EVO (500GB).
Außerdem dem Preis nein, aber der Kenntnisstand kann sich auch immer wieder ändern, wie gerade das Problem der 840 Evo gezeigt hat, denn mit sowas hat ja auch keiner gerechnet. Einige haben auf Datenverlust und miese Haltbarkeit gewettert, aber keiner eine schlechte Leseleitung bei alten Daten vermutet.

Würdest du, bei nahezu gleichem Preis, trotzdem zu MX100 greifen oder ist das wirklich nur noch eine Frage der Präferenz?
Schwer zu sagen, wenn es auf die Leistungsaufnahme gerade ohne LPM ankommt, dann gewinnt klar die 850 Evo, beide haben NANDs die mit 3000 P/E Zyklen spezifiziert sind und die 850 Evo ist bei kutzen Zugriffen und kleinen QDs von der Performance im Vorteil, auch wenn man den Unterschied wohl nicht wirklich merken wird. Dafür hat die MX100 mehr Nutzkapazität.

Für mich findet Fragmentierung immer noch direkt auf dem Datenträger statt.
Wie denn? Die Fragmentierung ist eine Sache des Filesystems und das liegt eine Ebene darüber und teilt eben den Adressraum auf. Wie kann den der Datenträger die Fragmentierung erzeugen, wenn er weder weiß was eine Datei ist noch wo welche Datei liegt? Wüsste ein Datenträger das, müsste er ja nicht nur die ganze Filesysteme kennen, er könnte dann auch nicht mit RAID funktionieren, wenn er gar nichts davon weiß, dass er ein Teil eins RAIDs ist.

Die Fragmentierung macht sich auf dem Datenträger bemerkbar, weil eben die Teile einer Datei von verschiedene Bereichen zusammen gesucht werden muss, was bei SSDs halt wegen der kurzen Zugriffszeiten viel schneller geht, aber verursacht wird die Fragmentierung vom Filesystem. Das Filesystem verwaltet ja nun einmal die Datei und entscheidet, wo welcher Teil welcher Datei auf dem Adressraum einer Platte liegt.
Bei der HDD war das Problem, dass der Kopf mehr Strecken zurücklegen muss, was so bei der SSD nicht stattfindet.
Aber trotzdem erkennst Du hoffentlich, dass sie Länge und Anzahl der Zugriffe anders sind, wenn eine fragmentriert Datei gelesen oder schrieben wird als wenn sie nicht fragmentiert ist, also in einem zusammenhängenden Adressbereich steht.
Ich gehe daher nach wie vor davon aus, dass ein Defrag so gut wie nichts bringt, wenn die SSD sich selbst einigermaßen schnell halten kann mittels GC und Co.
Genau das hat damit rein gar nichts zu tun. Wenn die SSD dies nicht kann, werden Dateien vor allem langsamergeschrieben, ega ob am Stück oder in Fragmente erstückelt!
Und solange das Gegenteil nicht bewiesen ist, bleib ich dabei.
Wie Du es selbst nachvollziehen kannst, habe ich schon geschrieben, oder? Wenn nicht, hier noch mal: Legen eine Partition an, so 10GB reichen, formatiere sie mit dem normale 4k pro Cluster, dann schreibe sie mit durchnummerierten Dateien von je 4k voll, lösche alle mit ungerader Endziffer und benche mit AS-SSD. Defragmentiere sie dann mit einem Tool welche die Dateien zusammenfasst und benche erneut. Wenn es nur eine 10GB Partition von einer größeren SSD ist kannst Du auch zum Vergleich auf der anderen Partition benchen, die SSD Controller kennen ja keine Partitionen und Partitionsgrenzen, die GC spielt also keine Rolle.

Und teste es bitte selbst, denn sonst glaubst Du es ja doch nicht!

Merken wird man es aber weniger bei den Zugriffszeiten der SSD.
Das sage ich ja auch die ganze Zeit, wobei es schwer vorhersagbar ist, was jemand nun wirklich merkt und was nicht.
 
Das sage ich ja auch die ganze Zeit, wobei es schwer vorhersagbar ist, was jemand nun wirklich merkt und was nicht.

Naja, aber genau genommen ist es eher ein Placebo alá "ich hab sie Defragmentiert, nun muss sie schneller sein" und schon glaubt man es auch das sie schneller geworden ist nach dem Defrag ;)
 
ich dachte immer nur der Controller der SSD weiß wo die Daten denn nun genau liegen, das was man in Win sieht ist ja nur das was der Controller nach außen anzeigt,
was es bring das zu defragmentieren ist mir auch nicht so recht klar,

eventuell bring das was auf den Samsung EVOs, da dann die Daten aufgefrischt wurden u. der Bug mit den alten Daten damit nicht mehr wirkt
 
ich dachte immer nur der Controller der SSD weiß wo die Daten denn nun genau liegen, das was man in Win sieht ist ja nur das was der Controller nach außen anzeigt,
was es bring das zu defragmentieren ist mir auch nicht so recht klar ...

Der Controller ordnet die Daten beim Schreiben nicht beliebig sondern in zusammenhängenden Adressbereichen an. Diese Anordnung ist mit einem Minimum an Zugriffen verbunden und kann in höchstem Maße sequentiell verarbeitet werden. Durch Fragmentierung kann diese in Bezug auf die Geschwindigkeit optimale Anordnung verloren gehen, vgl. #14017:

"Die Fragmentierung macht sich auf dem Datenträger bemerkbar, weil eben die Teile einer Datei von verschiedene Bereichen zusammen gesucht werden muss, was bei SSDs halt wegen der kurzen Zugriffszeiten viel schneller geht, aber verursacht wird die Fragmentierung vom Filesystem. Das Filesystem verwaltet ja nun einmal die Datei und entscheidet, wo welcher Teil welcher Datei auf dem Adressraum einer Platte liegt."

Defragmentieren stellt zusammenhängende Datenbereiche wieder her. Dabei werden die zusammenhängenden Datenbereiche neu geschrieben und die Fragmente gelöscht. Folglich sind danach auch auf dem SSD die Fragmente verschwunden.

- - - Updated - - -

Naja, aber genau genommen ist es eher ein Placebo alá "ich hab sie Defragmentiert, nun muss sie schneller sein" und schon glaubt man es auch das sie schneller geworden ist nach dem Defrag ;)

Placeboeffekte sind positive psychische und körperliche Reaktionen, die nicht auf die spezifische Wirksamkeit einer Behandlung zurückzuführen sind, sondern auf deren psychosozialen Kontext.

Die positive Wirksamkeit der Defragmentierung auf die Leistung von SSD ist mit Testverfahren objektiv, unabhängig von einem psychosozialen Kontext nachweisbar.

Als Placebo-Effekt kann man eher die Auffassung ansehen, dass Defragmentieren keinen bzw. einen ausschließlich negativen Effekt bei SSD hat.
 
Zuletzt bearbeitet:
Zumal es sowohl theoretisch als auch praktisch sich über prüfen lässt.

Vor Allem bei extremer Fragmentierung jenseits der 70% werden sich deutlich wahrnehmbare Unterschiede zu 0% ergeben.

Aber wie Holt geschrieben hat, selbst nachstellen und staunen.

vom Handy getippselt
 
DANKE

Außerdem dem Preis nein, aber der Kenntnisstand kann sich auch immer wieder ändern, wie gerade das Problem der 840 Evo gezeigt hat, denn mit sowas hat ja auch keiner gerechnet. Einige haben auf Datenverlust und miese Haltbarkeit gewettert, aber keiner eine schlechte Leseleitung bei alten Daten vermutet.

Klar, in die Zukunft kann wohl keiner sehen. :)

Schwer zu sagen, wenn es auf die Leistungsaufnahme gerade ohne LPM ankommt, dann gewinnt klar die 850 Evo, beide haben NANDs die mit 3000 P/E Zyklen spezifiziert sind und die 850 Evo ist bei kutzen Zugriffen und kleinen QDs von der Performance im Vorteil, auch wenn man den Unterschied wohl nicht wirklich merken wird. Dafür hat die MX100 mehr Nutzkapazität.

Hmm...
LPM unterstützt mein NB wohl. Dennoch fällt es mir immer schwer ein "altes" Modell zu kaufen, welches kurz vor seinem EOL steht.
Daher werde ich vermutlich zu einer Samsung greifen. Werde jedoch zunächst die Preise in den nächsten zwei Wochen beobachten und dann entscheiden. Habe es nicht eilig...

Vielen Dank für die vielen Informationen und Ratschläge!
 
Zuletzt bearbeitet:
mit der MX 100 auf meine Dienstlaptop kann ich schlecht testen, die hat momentan sogar die besten Ergebnisse in AS SSD
das hatte ich in eine anderen Beitrag schon mal gepostet :hmm:

23.07.2014 MS-Treiber 24.07.2014 Intel Treiber 24.03.2015 Intel Treiber
 
Naja, aber genau genommen ist es eher ein Placebo alá "ich hab sie Defragmentiert, nun muss sie schneller sein" und schon glaubt man es auch das sie schneller geworden ist nach dem Defrag ;)
Teste es einfach wie beschrieben selbst, alles andere wird Dich doch sowieso niemals überzeugen. Und wenn Du dazu keine Lust hast, behaupte nichts von dem Du weder weißt ob es stimmt noch glauben willst das es unwahr ist.

ich dachte immer nur der Controller der SSD weiß wo die Daten denn nun genau liegen, das was man in Win sieht ist ja nur das was der Controller nach außen anzeigt,
was es bring das zu defragmentieren ist mir auch nicht so recht klar
Nochmal: Es geht nicht um die interne von den Daten auf den NANDs, die ist nur intern und außen nicht erkennbar, die kann ein Defragmentierprogramm gar nicht erkennen und damit auch beeinflussen. Die Fragmentierung geschieht auf der Ebene der logischen Adressen (LBAs) und welche davon welche Datei belegt. Ein Befehl kann nur immer eine Adresse X mit y nachfolgenden LBAs adressieren und das eben nur bis zum Ende der Datei oder des Fragmentes, denn dahinter steht ja eine andere Datei oder nichts, weiter zu lesen wäre sinnlos und weiter zu schreien u.U. sogar fatal.

Die Fragmentierung beeinflusst also nur die Zugriffe, wie ich nun schon zigmal geschrieben habe und wenn man diese Zusammenhang überhaupt nicht kennt und keine Ahnung hat wie ein Filesystem überhaupt arbeitet, dann wird man das ganze Problem der Fragmentierung wohl auch niemals verstehen.
eventuell bring das was auf den Samsung EVOs, da dann die Daten aufgefrischt wurden u. der Bug mit den alten Daten damit nicht mehr wirkt
Den der Bug mit den alten Daten ist AS-SSD egal, das schriebt Deine Daten und liest sie sofort wieder, da kann der noch gar nicht zuschlagen und natürlich wird eine Defragmentierung wie ein Refresch auf alle alten Daten die dabei verschoben werden, denn beim Defragmentieren werden sie ja auch Filesystemebene kopiert und eben nicht intern im Controller einfach nur einem anderen LBA zugewiesen, der weiß nicht, dass die Daten schon dort stehen, der bekommt nur den Befehl Daten zu schreiben und macht das auch.

Der Controller ordnet die Daten beim Schreiben nicht beliebig sondern in zusammenhängenden Adressbereichen an. Diese Anordnung ist mit einem Minimum an Zugriffen verbunden und kann in höchstem Maße sequentiell verarbeitet werden. Durch Fragmentierung kann diese in Bezug auf die Geschwindigkeit optimale Anordnung verloren gehen, vgl. #14017:
Nicht der Controller, was der macht und wie der die Daten verteilt, spielt für die Fragmentierung keine Rolle, der ist eine Ebene tiefer als das Filesystem. Es geht nur um die Anordnung der Dateien auf die Cluster und da ein Cluster nur eine Zusammenfassung von LBAs ist (bei 4k pro Cluster sind es 8 LBAs zu je 512Byte) und Cluster wie LBAs sind durchnummeriert. Die LBAs sind die globalen Adressen der Platte, die Cluster die lokalen Adressen des Filesystems und beide sind immer aufsteigend durchnummeriert, aber schon die Cluster kennt die SSD gar nicht, die kennt nur LBAs und alle Zugriffe werden nur auf LBAs gemacht, das muss im Betriebssystem umgerechnet werden.

Defragmentieren stellt zusammenhängende Datenbereiche wieder her. Dabei werden die zusammenhängenden Datenbereiche neu geschrieben und die Fragmente gelöscht. Folglich sind danach auch auf dem SSD die Fragmente verschwunden.
Schreibe nich so pauschal Datenbereiche, da weiß dann wieder keiner was gemeint ist und jeder denkt an was anderes, es geht konkret um Clusterbereiche. Eine nicht fragmentierte Datei liegt bei Cluster n und m folgenden Clustern, eine fragmentierte bei Cluster n1 und m1 folgenden plus n2 und m2 folgenden etc.

Von Cluster auf LBA wird anhand des Offset der Partition und der Größe von LBAs und Clustern fest umgerechnet und dann werden eben die Befelhe rausgeschickt um so eine Datei z.B. zu lesen. Cluster n wäre also LBA x (x = n * (Clustersize / Bytes pro LBA) + Partitionsoffest in LBAs) und dazu y (y = m * (Clustersize / Bytes pro LBA)) folgende LBAs, wobei die ATA Ext-Befehle hier für y 2 Bytes und damit maximal 2^16 erlauben, was maximal 32MiB pro Befehl möglich macht (aber nicht alle SSDs unterstützen so lange Zugriffe) und somit kann eine Datein die maximal 32MiB lang ist, dann eben idealerweise mit einem einzigen ATA Befehl eingelesen werden. Bei der fragmentierten Datein muss das für n1 bis nx und m1 bis mx wiederholt werden bis sie komplett gelesen wurde und die Summe alles m ist das auch nur so groß wie bei wenn sie nicht fragmentiert wäre. Damit ist jedes einzelen m halt kleiner, die Zugriffe sind also kürzer und wenn sie recht kurz werden, dann schaffen SSDs es eben nicht ihre volle Performance zu erreichen, was schon beim Vergleich der 4k zu den seq. Werte gut zu sehen ist.

Genau dadurch das diese Zugriffe auf fragmentierte Dateien kürzer sind, wirkt die Fragmentierung auf die Performance, die Anordnung der Daten im NAND spielt dafür keine Rolle, die kann allenfalls erschwerend hinzukommen, aber da spielt die Fragmentierung eigentlich keine Rolle, außer das die Daten ja eben auch mit getrennten Befehlen geschrieben wurden und der Controller sie somit nicht zwangsläufig so anordnet, dass sie auch schnell hintereinander wieder gelesen werden können.

Placeboeffekte sind positive psychische und körperliche Reaktionen, die nicht auf die spezifische Wirksamkeit einer Behandlung zurückzuführen sind, sondern auf deren psychosozialen Kontext.
Und darauf scheint nach Meinung mancher hier ja sogar AS-SSD zu reagieren :wall:

Die positive Wirksamkeit der Defragmentierung auf die Leistung von SSD ist mit Testverfahren objektiv, unabhängig von einem psychosozialen Kontext nachweisbar.
Eben und wie jeder das selbst testen kann, habe ich doch auch schon geschrieben. Wer es nicht glaubt, soll es bitte selbst nachvollziehen!

Als Placebo-Effekt kann man eher die Auffassung ansehen, dass Defragmentieren keinen bzw. einen ausschließlich negativen Effekt bei SSD hat.
Und der kommt offenbar daher, dass immer wieder geschrieben wird und wurde, dass die Defragmentierung unnötig wäre, weil es ja keien Kopfbewegungen gibt und die Zugriffszeiten bei SSD sowieso kurz sind, nur geht das halt am Problem vorbei. Das bedeutet nur, dass der Effekt eben weitaus geringer ist, aber ihn komplett abstreiten zu wollen ist einfach Unsinn. Aber Unsinn wird eben gerade rund um SSDs noch imer eine Menge geschrieben, wie z.B. das von einer 256GB SSD nach den Formatieren unter Windows nur 238GB zur Verfügung stehen würden, was auch Unsinn ist, da es eben 238GiB sind.

Dennoch fällt es mir immer schwer ein "altes" Modell zu kaufen, welches kurz vor seinem EOL steht.
Als die Performance noch in Riesenschritten gewachsen ist, hätte ich das nachvollziehen können, aber inzwischen tut sich da bei SATA SSDs nichts mehr, die MX200 hat auch immer noch den gleichen Controller wie die MX100 und m550. Der ist im Grunde auch noch der gleiche wie bei der m500 der nur ein paar mehr Energiesparfeatures unterstützt und ein wenig sparsamer geworden ist. Im Moment geht es bei den SATA SSDs eher um die Kosteneinsparung, also NAND mit kleineren Strukturbreiten und günstigere Controller wie bei der BX100 der SMI statt des Marvels und auch bei der 850 Evo gibt es ja den MGX als Sparausführung des MEX mit nur 4 statt 8 Kanälen bei den Modellen mit weniger als 1TB.
Daher werde ich vermutlich zu einer Samsung greifen. Werde jedoch zunächst die Preise in den nächsten zwei Wochen beobachten und dann entscheiden. Habe es nicht eilig...
Wenn Du noch eine paar Wochen warten wirst, dann werden die MX100 nur noch teurer sein, denn der Abverkauf ist vorbei und da sich die Händler die letzten Exemplare beliebter SSDs immer gerne vergolden lassen, werden sie dann entsprechend teuer angeboten werden.

Und kann dieser Effekt nicht von der Fragmentation in den Pages herrühren?
Lerne mal was ein Filesystem ist, wie es funktioniert und die Zugriffe auf eine PLatte beeinflusst, sonst wirst Du es niemals verstehen können und weiter nach eine Antwort suchen die einfach falsch ist.
diese 4K Geschichte ist jetzt auch nicht unbedingt sonderlich alltagsrelevant gegenüber einer fragmentierte HDD für Heimanwender.
Natürlich wird bei dem Test die extremste Fragmentierung erreicht die möglich ist und im Alltag so wohl niemals auftreten wird, aber wenn bei Extremfällen der Effekt zu erkennen ist, dann ist er da und kann nicht abgestritten werden. Effekte an Extremfällen zu demontrieren ist wissenschafftlicher Alltag und funktioniert immer dann sehr gut, wenn der Einfluss sonst gering ist und das der Einfluss der normal mit der Zeit auftretenden Fragmentierung eben meist gar nicht hoch und oft überhaupt nicht spürbar ist, streitet ja keiner ab.

mit der MX 100 auf meine Dienstlaptop kann ich schlecht testen, die hat momentan sogar die besten Ergebnisse in AS SSD
Schau nicht nur auf die Punkte unten, sondern vergleiche die einzelnen Werte und da sind die seq. Transferraten, vor allem die seq. Schreibrate schon mal besser gewesen als jetzt. Die vielen Punkte kommen von den 4k_64, die waren beim Microsofttreiber schlechter, die seq. Leserate war mit dem aber am Besten.
 
Teste es einfach wie beschrieben selbst, alles andere wird Dich doch sowieso niemals überzeugen. Und wenn Du dazu keine Lust hast, behaupte nichts von dem Du weder weißt ob es stimmt noch glauben willst das es unwahr ist.

Ich behaupte Sachen die ich getestet habe und ich konnte 0 Unterschied bei meinen MX100 (1x 256GB & 1x 512GB) feststellen, ob nun Fragmentiert oder Defragmentiert.

Aber danke für den Vorwurf, den gebe ich hiermit zurück.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh