T
tree-
Guest
Ok aber sorgt nicht die Firmware einer Festplatte für verschiedenes Einsortieren und somit für verschiedene Fragmentierung?
vom Handy getippselt
vom Handy getippselt
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Ja, denn mit 512GB SSD wird man noch länger etwas sinnvolles anfangen können als mit 256GB SSD, die 60/64GB SSDs sind ja heute schon kaum noch irgendwo sinnvoll zu nutzen, bei 120/128GB SSDs geht es schon ähnlich und die 240-256GB SSD sind als nächstes dran nicht mehr wirklich nützlich zu sein.
Das ist wahr, aber wenn man LPM aktiviert sind auch die Crucial extrem sparsam und liegen umbei 100mW, da macht es dann auch keinen wirklichen Unterschied das die Samsung noch mal einiger weniger verbrauchen.
Die 840 Pro ist aber auch recht sparsam im Idle, deshalb würde ich statt zwei kleiner SSDs zu kaufen eine große nehmen und die 840 Pro ins Notebook verfrachten.
Mit Over Provisioning bedeutet, dass eben ein Teil der Kapazität nicht genutzt wird, also auch nicht gefüllt wird und daher dem Controller als Free Area zur Verfügung steht, was für eine gute Performance im Steady State extrem wichtig ist, auch wenn nicht alle SSDs gleichermaßen davon profitieren.
Nochmal: Fragmentierung ist eine Sache alleine des Filesystems und das ist Teil des Betriebssystems. Platten egal ob SSD oder HDD, stellen nur eine bestimmte Anzahl von LBAs zu normalerweise je 512Byte zur Verfügung die mit Befehlen gelesen und geschrieben werden die eine Adresse und einen Zähler haben, der Zähler gibt an wie viele nachfolgende LBAs ab der Adresse gelesen oder geschrieben werden. Alles was darüber liegt, die Dateien, Verzeichnisse, Partitionen und Partitionierungsarten sind alleine logisch Interpretationen von Daten auf der Platte durch das Filesystem und dem Controller der Platte gar nicht bekannt.Ok aber sorgt nicht die Firmware einer Festplatte für verschiedenes Einsortieren und somit für verschiedene Fragmentierung?
Richtig und da Windows und die Programme und Daten i.d.R. mit der Zeit immer mehr Platz belegen, ist das alleine schon ein gewichtigeres Argument als Du vielleicht jetzt meinst.Wenn ich dich richtig verstanden habe, geht es also alleine um die Speicherkapazität.
Mehr als 640k haben am Anfang auch alle PCs nicht gebraucht und angeblich hat jemand auch behauptet, es würde immer so bleiben.- Mehr als 500GB habe ich nie benötigt, da ich einige Daten auf eine externe Festplatte auslagere und dies auch weiterhin machen wollte.
Das kann ich Dir jetzt nicht so sagen, aber wenn es nicht so alt ist, sollte es das können.Wie kann ich ermitteln, ob mein NB LPM unterstützt?
Dann fällt das Argument oben aber weg, das wäre nur gegeben, wenn Du eine SSD im Schrank liegen hast oder ein RAID 1 baust, wobei letzteres auch keine Backups ersetzt. Ein RAID 0 aus zwei SSDs bringt im Alltag kaum etwas und ein RAID 0 am Intel Chipsatz kann zwar bei neueren Chipsätzen TRIM für SSDs, aber es ist auch gefährlich, einmal im IDE oder AHCI Modus gebootet, sind die Metadaten des RAIDs auf der Platte schnell zerschossen.- Bei Ausfall einer SSD, wäre noch eine Backup-SSD vorhanden.
...
Wie sieht es mit einem Raid0 aus?!
Ja, der wäre doppelt so groß und der RAID Treiber gönnt sich noch mehr RAM-Puffer, der muss die Daten ja auch aufteilen, was bei AS-SSD sehr viel bessere 4k Schreibraten ergibt, aber wie Du am Link oben sehen kannst, bleibt bei Alltagsaufgaben von der guten Performance in den Benchmarks wenig überig.Wie sieht es mit dem TurboWrite-Puffer aus? Würde sich dieser verdoppeln oder wird dieser aufgeteilt, wie man es vom Speicher bei Multi-GPU-Systemen kennt?
Jein, offiziell nicht, das nötige RAIDROM im BIOS gab es erst ab dem Z77, aber mit einem Mod-BIOS welche das ROM enthält, könnte es gehen. Ein Mod-BIOS ist aber immer ein Risiko.Die Intel-Treiber unterstützen den Trim-Befehl für Raid0 schon seid längerem, wenn ich es richtig mitbekommen habe. Würde mein Chipsatz da auch mitspielen?
Normal ist das nicht, es dürfte eher an der Fragmentierung des Filesystems gelegen haben, vielleicht wurde das Filesystem auch gerade im Hintergrund repariert. Die OP-Funktion in Magician verkleinert ja nur die Partition. Richtig macht man es, indem man gleich im Neuzustand oder nach einem Secure Erease die Partition kleiner anlegt und damit einen Teil unpartitioniert lässt. Alternativ geht es auch indem man der SSD mitteilt sie solle weniger Kapazität anzeigen.Als ich im „Samsung Magican Tool“ (bitte nicht aufhören zu lesen..) den OP-Bereich vergrößert habe, knickte die Benchmark-Leistung ein.
Ist das normal oder habe ich etwas falsch gemacht?
Richtig und da Windows und die Programme und Daten i.d.R. mit der Zeit immer mehr Platz belegen, ist das alleine schon ein gewichtigeres Argument als Du vielleicht jetzt meinst.
Das kann ich Dir jetzt nicht so sagen, aber wenn es nicht so alt ist, sollte es das können.
Ein RAID 0 aus zwei SSDs bringt im Alltag kaum etwas und ein RAID 0 am Intel Chipsatz kann zwar bei neueren Chipsätzen TRIM für SSDs, aber es ist auch gefährlich, einmal im IDE oder AHCI Modus gebootet, sind die Metadaten des RAIDs auf der Platte schnell zerschossen.
Ja, der wäre doppelt so groß und der RAID Treiber gönnt sich noch mehr RAM-Puffer, der muss die Daten ja auch aufteilen, was bei AS-SSD sehr viel bessere 4k Schreibraten ergibt, aber wie Du am Link oben sehen kannst, bleibt bei Alltagsaufgaben von der guten Performance in den Benchmarks wenig überig.
Jein, offiziell nicht, das nötige RAIDROM im BIOS gab es erst ab dem Z77, aber mit einem Mod-BIOS welche das ROM enthält, könnte es gehen. Ein Mod-BIOS ist aber immer ein Risiko.
Normal ist das nicht, es dürfte eher an der Fragmentierung des Filesystems gelegen haben, vielleicht wurde das Filesystem auch gerade im Hintergrund repariert. Die OP-Funktion in Magician verkleinert ja nur die Partition. Richtig macht man es, indem man gleich im Neuzustand oder nach einem Secure Erease die Partition kleiner anlegt und damit einen Teil unpartitioniert lässt. Alternativ geht es auch indem man der SSD mitteilt sie solle weniger Kapazität anzeigen.
Ja, weil das Filesystem eben eine Schicht über der Platte liegt und nichts von der unterliegenden Platte weiß. Die Anordnunge der Dateien auf den Cluster kann damit also auch nicht davon abhängen.Also fragmentieren alle Festplatten bei genau gleicher Nutzung gleich (gleiches Betriebssystem, gleiche Festplattengröße, Formatierung und Clustergröße angenommen jedoch unterschiedliche Modelle) ?
Nicht wirklich, denn TRIM müsste ja funktionieren und damit ist das nicht nötig, es reicht mit TRIM wenn man ein paar Dateien löscht, falls die SSD mal zu voll wird.Falls ich Win7 nochmals neu installieren würde und nicht den vollen Speicherplatz benötigen sollte, wäre es dann sinnvoll der SSD mehr OP zu gönnen?
Nicht wirklich, denn TRIM müsste ja funktionieren und damit ist das nicht nötig, es reicht mit TRIM wenn man ein paar Dateien löscht, falls die SSD mal zu voll wird.
Deine SSD dürfte sicher die Systemplatte sein, wo also Windows laufend schreibt und löscht, log-Dateien stehen die mit der Zeit auch immer größer werden, etc. Das alles ist bei den HDDs wohl kaum der Fall, schon gar nicht bei den externen HDDs, die Voraussetzung der gleichen Nutzung ist damit also nicht gegeben!Jetzt frag ich mich warum meine neuere HD hier von sich aus kaum fragmentiert.
Und schau mal in den Zeitplaner des Defragmentiertdienstes ob die HDD nicht dort eingetragen ist.Prüfe ich dann gelegentlich auf Fragmentierung liegt trotz vieler Einzeldaten welche ständig zu kommen die Fragmentierung fast bei 0.
Weil Du sie ja auch ganz anderes nutzt, die Nutzung ist aber was am meisten über die Fragmentierung entscheidet.So ganz kann ich das aus der Praxis noch nicht bestätigen.
Wenn die Platten nicht sehr voll sind, dann passiert keine Fragmentierung, weil Windows bemüht ist diese zu vermeiden und die Dateien dann in einen freien Bereich schreibt. Deshalb verteilen sich die Dateien mit der Zeit auch auf den ganze Adressraum und man kann dann z.B. die Partitionen nicht mehr (in der Datenträgerverwaltung) verkleinern, obwohl eigentlich noch massig Platz frei wären. Nur der für den $MFT reservierte Bereich (normalerweise 12.5%) wird ausgenommen, aber den Rest belegt Windows ganz fröhlich bevor es anfängt Cluster wieder zu belegen, die vorher von inzwischen gelöschten Dateien belegt waren. Deshalb geht auch oft eine Wiederherstellung von versehentlich gelöschten Dateien selbst nach längerer Zeit, wenn die Platte noch nicht sehr voll aber nicht mehr, wenn sie schon recht voll ist.3 Daten jeweils kopieren auf jede der 5 HDs, anschließend 2 dieser Daten löschen und wieder 3 drauf. Fragmentierung aller HDs vorher 0%. Welche Festplatte fragmentiert mehr?
S.o.! Wenn Du das wirklich sehen willst, musst Du die Platten mit gleich großen Partitionen anlegen, frisch formatieren und jeweils genau die gleichen Dateien in der gleichen Reihenfolge schreiben und löschen, sonst sagt das alles nichts aus.Restplatz war auf allen genug
Das sollten sie und ich würde mich wegen der Zellgröße des 3d NANDs auch wundern, wenn die 850 Evo die gleichen Probleme wie die 840 Evo bekommen würde, aber sicher kann das keiner sagen. Das Langzeitverhalten ist eben am schlechtesten zu testen.Kann ich von einer 850 EVO bzw. MX100 (250/500GB) erwarten, dass diese genauso ihre Leistung aufrecht erhält, wie es meine 840 Pro bisher getan hat, vorausgesetzt sie wird ähnlich genutzt/belastet?
Die Kapazität spielt immer eine Rolle wenn es um die Performance geht und vor allem wenn die SSD wegen einer zu kleinen Kapazität immer zu voll betrieben wird, dann auch bzgl. der Langzeitverhaltens.Und spielt bei diesen Modellen die Kapazität, in der Hinsicht, eine Rolle?
Wenn Du um die Samsung mit TLC einen Bogen machen willst, ist das Deine Sache, aber wieso auch um die Samsung SSDs mit MLC?Siehe Problem mit den Samsung TLC Modellen der 840 (Nicht Pro). Würde um Samsung daher z.Zt. einen weiten Bogen machen.
Du hast offenbar noch nicht verstanden, dass die Fragmentierung in einer Schicht weit oberhalb der eigentlich SSD stattfindet, nämlich im Filesystem welches den Adressraum verwaltet. TRIM und die Idle-GC sind daher interne Sache der SSD und haben daher keinerlei Einfluss auf die Fragmentierung des Filesystems, da geht es nur um die interne Verwaltung der NANDs und die Verteilung der Daten auf die NANDs, was aber für das Filesystem transparent ist und nichts mit der Fragmentierung zu tun hat, auch wenn manche das immer wieder als Argument in den Raum werfen warum eine Defragmentierung bei SSD angeblich sinnlos sein soll.Ein Defrag löst aber auch immer Schreiboperationen aus, die TRIM und/oder GC wieder ins Rollen bringen können.
Das sollten sie und ich würde mich wegen der Zellgröße des 3d NANDs auch wundern, wenn die 850 Evo die gleichen Probleme wie die 840 Evo bekommen würde, aber sicher kann das keiner sagen. Das Langzeitverhalten ist eben am schlechtesten zu testen.
Die Kapazität spielt immer eine Rolle wenn es um die Performance geht und vor allem wenn die SSD wegen einer zu kleinen Kapazität immer zu voll betrieben wird, dann auch bzgl. der Langzeitverhaltens.
Wenn Du um die Samsung mit TLC einen Bogen machen willst, ist das Deine Sache, aber wieso auch um die Samsung SSDs mit MLC?
Siehe Problem mit den Samsung TLC Modellen der 840 (Nicht Pro). Würde um Samsung daher z.Zt. einen weiten Bogen machen.
Außerdem dem Preis nein, aber der Kenntnisstand kann sich auch immer wieder ändern, wie gerade das Problem der 840 Evo gezeigt hat, denn mit sowas hat ja auch keiner gerechnet. Einige haben auf Datenverlust und miese Haltbarkeit gewettert, aber keiner eine schlechte Leseleitung bei alten Daten vermutet.Nach derzeitigem Kenntnisstand spricht also eigentlich nichts gegen die 850 EVO (500GB).
Schwer zu sagen, wenn es auf die Leistungsaufnahme gerade ohne LPM ankommt, dann gewinnt klar die 850 Evo, beide haben NANDs die mit 3000 P/E Zyklen spezifiziert sind und die 850 Evo ist bei kutzen Zugriffen und kleinen QDs von der Performance im Vorteil, auch wenn man den Unterschied wohl nicht wirklich merken wird. Dafür hat die MX100 mehr Nutzkapazität.Würdest du, bei nahezu gleichem Preis, trotzdem zu MX100 greifen oder ist das wirklich nur noch eine Frage der Präferenz?
Wie denn? Die Fragmentierung ist eine Sache des Filesystems und das liegt eine Ebene darüber und teilt eben den Adressraum auf. Wie kann den der Datenträger die Fragmentierung erzeugen, wenn er weder weiß was eine Datei ist noch wo welche Datei liegt? Wüsste ein Datenträger das, müsste er ja nicht nur die ganze Filesysteme kennen, er könnte dann auch nicht mit RAID funktionieren, wenn er gar nichts davon weiß, dass er ein Teil eins RAIDs ist.Für mich findet Fragmentierung immer noch direkt auf dem Datenträger statt.
Aber trotzdem erkennst Du hoffentlich, dass sie Länge und Anzahl der Zugriffe anders sind, wenn eine fragmentriert Datei gelesen oder schrieben wird als wenn sie nicht fragmentiert ist, also in einem zusammenhängenden Adressbereich steht.Bei der HDD war das Problem, dass der Kopf mehr Strecken zurücklegen muss, was so bei der SSD nicht stattfindet.
Genau das hat damit rein gar nichts zu tun. Wenn die SSD dies nicht kann, werden Dateien vor allem langsamergeschrieben, ega ob am Stück oder in Fragmente erstückelt!Ich gehe daher nach wie vor davon aus, dass ein Defrag so gut wie nichts bringt, wenn die SSD sich selbst einigermaßen schnell halten kann mittels GC und Co.
Wie Du es selbst nachvollziehen kannst, habe ich schon geschrieben, oder? Wenn nicht, hier noch mal: Legen eine Partition an, so 10GB reichen, formatiere sie mit dem normale 4k pro Cluster, dann schreibe sie mit durchnummerierten Dateien von je 4k voll, lösche alle mit ungerader Endziffer und benche mit AS-SSD. Defragmentiere sie dann mit einem Tool welche die Dateien zusammenfasst und benche erneut. Wenn es nur eine 10GB Partition von einer größeren SSD ist kannst Du auch zum Vergleich auf der anderen Partition benchen, die SSD Controller kennen ja keine Partitionen und Partitionsgrenzen, die GC spielt also keine Rolle.Und solange das Gegenteil nicht bewiesen ist, bleib ich dabei.
Das sage ich ja auch die ganze Zeit, wobei es schwer vorhersagbar ist, was jemand nun wirklich merkt und was nicht.Merken wird man es aber weniger bei den Zugriffszeiten der SSD.
Das sage ich ja auch die ganze Zeit, wobei es schwer vorhersagbar ist, was jemand nun wirklich merkt und was nicht.
ich dachte immer nur der Controller der SSD weiß wo die Daten denn nun genau liegen, das was man in Win sieht ist ja nur das was der Controller nach außen anzeigt,
was es bring das zu defragmentieren ist mir auch nicht so recht klar ...
Naja, aber genau genommen ist es eher ein Placebo alá "ich hab sie Defragmentiert, nun muss sie schneller sein" und schon glaubt man es auch das sie schneller geworden ist nach dem Defrag
Außerdem dem Preis nein, aber der Kenntnisstand kann sich auch immer wieder ändern, wie gerade das Problem der 840 Evo gezeigt hat, denn mit sowas hat ja auch keiner gerechnet. Einige haben auf Datenverlust und miese Haltbarkeit gewettert, aber keiner eine schlechte Leseleitung bei alten Daten vermutet.
Schwer zu sagen, wenn es auf die Leistungsaufnahme gerade ohne LPM ankommt, dann gewinnt klar die 850 Evo, beide haben NANDs die mit 3000 P/E Zyklen spezifiziert sind und die 850 Evo ist bei kutzen Zugriffen und kleinen QDs von der Performance im Vorteil, auch wenn man den Unterschied wohl nicht wirklich merken wird. Dafür hat die MX100 mehr Nutzkapazität.
Teste es einfach wie beschrieben selbst, alles andere wird Dich doch sowieso niemals überzeugen. Und wenn Du dazu keine Lust hast, behaupte nichts von dem Du weder weißt ob es stimmt noch glauben willst das es unwahr ist.Naja, aber genau genommen ist es eher ein Placebo alá "ich hab sie Defragmentiert, nun muss sie schneller sein" und schon glaubt man es auch das sie schneller geworden ist nach dem Defrag
Nochmal: Es geht nicht um die interne von den Daten auf den NANDs, die ist nur intern und außen nicht erkennbar, die kann ein Defragmentierprogramm gar nicht erkennen und damit auch beeinflussen. Die Fragmentierung geschieht auf der Ebene der logischen Adressen (LBAs) und welche davon welche Datei belegt. Ein Befehl kann nur immer eine Adresse X mit y nachfolgenden LBAs adressieren und das eben nur bis zum Ende der Datei oder des Fragmentes, denn dahinter steht ja eine andere Datei oder nichts, weiter zu lesen wäre sinnlos und weiter zu schreien u.U. sogar fatal.ich dachte immer nur der Controller der SSD weiß wo die Daten denn nun genau liegen, das was man in Win sieht ist ja nur das was der Controller nach außen anzeigt,
was es bring das zu defragmentieren ist mir auch nicht so recht klar
Den der Bug mit den alten Daten ist AS-SSD egal, das schriebt Deine Daten und liest sie sofort wieder, da kann der noch gar nicht zuschlagen und natürlich wird eine Defragmentierung wie ein Refresch auf alle alten Daten die dabei verschoben werden, denn beim Defragmentieren werden sie ja auch Filesystemebene kopiert und eben nicht intern im Controller einfach nur einem anderen LBA zugewiesen, der weiß nicht, dass die Daten schon dort stehen, der bekommt nur den Befehl Daten zu schreiben und macht das auch.eventuell bring das was auf den Samsung EVOs, da dann die Daten aufgefrischt wurden u. der Bug mit den alten Daten damit nicht mehr wirkt
Nicht der Controller, was der macht und wie der die Daten verteilt, spielt für die Fragmentierung keine Rolle, der ist eine Ebene tiefer als das Filesystem. Es geht nur um die Anordnung der Dateien auf die Cluster und da ein Cluster nur eine Zusammenfassung von LBAs ist (bei 4k pro Cluster sind es 8 LBAs zu je 512Byte) und Cluster wie LBAs sind durchnummeriert. Die LBAs sind die globalen Adressen der Platte, die Cluster die lokalen Adressen des Filesystems und beide sind immer aufsteigend durchnummeriert, aber schon die Cluster kennt die SSD gar nicht, die kennt nur LBAs und alle Zugriffe werden nur auf LBAs gemacht, das muss im Betriebssystem umgerechnet werden.Der Controller ordnet die Daten beim Schreiben nicht beliebig sondern in zusammenhängenden Adressbereichen an. Diese Anordnung ist mit einem Minimum an Zugriffen verbunden und kann in höchstem Maße sequentiell verarbeitet werden. Durch Fragmentierung kann diese in Bezug auf die Geschwindigkeit optimale Anordnung verloren gehen, vgl. #14017:
Schreibe nich so pauschal Datenbereiche, da weiß dann wieder keiner was gemeint ist und jeder denkt an was anderes, es geht konkret um Clusterbereiche. Eine nicht fragmentierte Datei liegt bei Cluster n und m folgenden Clustern, eine fragmentierte bei Cluster n1 und m1 folgenden plus n2 und m2 folgenden etc.Defragmentieren stellt zusammenhängende Datenbereiche wieder her. Dabei werden die zusammenhängenden Datenbereiche neu geschrieben und die Fragmente gelöscht. Folglich sind danach auch auf dem SSD die Fragmente verschwunden.
Und darauf scheint nach Meinung mancher hier ja sogar AS-SSD zu reagierenPlaceboeffekte sind positive psychische und körperliche Reaktionen, die nicht auf die spezifische Wirksamkeit einer Behandlung zurückzuführen sind, sondern auf deren psychosozialen Kontext.
Eben und wie jeder das selbst testen kann, habe ich doch auch schon geschrieben. Wer es nicht glaubt, soll es bitte selbst nachvollziehen!Die positive Wirksamkeit der Defragmentierung auf die Leistung von SSD ist mit Testverfahren objektiv, unabhängig von einem psychosozialen Kontext nachweisbar.
Und der kommt offenbar daher, dass immer wieder geschrieben wird und wurde, dass die Defragmentierung unnötig wäre, weil es ja keien Kopfbewegungen gibt und die Zugriffszeiten bei SSD sowieso kurz sind, nur geht das halt am Problem vorbei. Das bedeutet nur, dass der Effekt eben weitaus geringer ist, aber ihn komplett abstreiten zu wollen ist einfach Unsinn. Aber Unsinn wird eben gerade rund um SSDs noch imer eine Menge geschrieben, wie z.B. das von einer 256GB SSD nach den Formatieren unter Windows nur 238GB zur Verfügung stehen würden, was auch Unsinn ist, da es eben 238GiB sind.Als Placebo-Effekt kann man eher die Auffassung ansehen, dass Defragmentieren keinen bzw. einen ausschließlich negativen Effekt bei SSD hat.
Als die Performance noch in Riesenschritten gewachsen ist, hätte ich das nachvollziehen können, aber inzwischen tut sich da bei SATA SSDs nichts mehr, die MX200 hat auch immer noch den gleichen Controller wie die MX100 und m550. Der ist im Grunde auch noch der gleiche wie bei der m500 der nur ein paar mehr Energiesparfeatures unterstützt und ein wenig sparsamer geworden ist. Im Moment geht es bei den SATA SSDs eher um die Kosteneinsparung, also NAND mit kleineren Strukturbreiten und günstigere Controller wie bei der BX100 der SMI statt des Marvels und auch bei der 850 Evo gibt es ja den MGX als Sparausführung des MEX mit nur 4 statt 8 Kanälen bei den Modellen mit weniger als 1TB.Dennoch fällt es mir immer schwer ein "altes" Modell zu kaufen, welches kurz vor seinem EOL steht.
Wenn Du noch eine paar Wochen warten wirst, dann werden die MX100 nur noch teurer sein, denn der Abverkauf ist vorbei und da sich die Händler die letzten Exemplare beliebter SSDs immer gerne vergolden lassen, werden sie dann entsprechend teuer angeboten werden.Daher werde ich vermutlich zu einer Samsung greifen. Werde jedoch zunächst die Preise in den nächsten zwei Wochen beobachten und dann entscheiden. Habe es nicht eilig...
Lerne mal was ein Filesystem ist, wie es funktioniert und die Zugriffe auf eine PLatte beeinflusst, sonst wirst Du es niemals verstehen können und weiter nach eine Antwort suchen die einfach falsch ist.Und kann dieser Effekt nicht von der Fragmentation in den Pages herrühren?
Natürlich wird bei dem Test die extremste Fragmentierung erreicht die möglich ist und im Alltag so wohl niemals auftreten wird, aber wenn bei Extremfällen der Effekt zu erkennen ist, dann ist er da und kann nicht abgestritten werden. Effekte an Extremfällen zu demontrieren ist wissenschafftlicher Alltag und funktioniert immer dann sehr gut, wenn der Einfluss sonst gering ist und das der Einfluss der normal mit der Zeit auftretenden Fragmentierung eben meist gar nicht hoch und oft überhaupt nicht spürbar ist, streitet ja keiner ab.diese 4K Geschichte ist jetzt auch nicht unbedingt sonderlich alltagsrelevant gegenüber einer fragmentierte HDD für Heimanwender.
Schau nicht nur auf die Punkte unten, sondern vergleiche die einzelnen Werte und da sind die seq. Transferraten, vor allem die seq. Schreibrate schon mal besser gewesen als jetzt. Die vielen Punkte kommen von den 4k_64, die waren beim Microsofttreiber schlechter, die seq. Leserate war mit dem aber am Besten.mit der MX 100 auf meine Dienstlaptop kann ich schlecht testen, die hat momentan sogar die besten Ergebnisse in AS SSD
Teste es einfach wie beschrieben selbst, alles andere wird Dich doch sowieso niemals überzeugen. Und wenn Du dazu keine Lust hast, behaupte nichts von dem Du weder weißt ob es stimmt noch glauben willst das es unwahr ist.