Eins vorweg, ich defragmentiere gar nicht
Aber mir fällt das Teilweise massiv auf...
Ich hab ne INet Kiste rumstehen, kleiner AMD Singlecore S939 mit 1GB Speicher und ner 200GB WD Platte...
Das Teil ist bis auf die HDD unhörbar...
Als das System neu aufgebaut wurde (ca. vor 3 Monaten) wurden alle Files (kleinst Files von unter 1KB bis große Gigabyte Images) händisch auf die HDD geschrieben... Sprich kamen alle auf eine nakte Partition sequenziell drauf.
Da dank dem INet Verkehr recht viel Bewegung in den Files herscht (sprich verschoben, gelöscht, erstellt usw.) fragmentieren die Files zunehmend.
Ich sitze nicht mit der Stoppuhr da und messe jeden Zugriff, aber mir fällt auf, das die HDD bei sequenziellen Zugriffen sogut wie keine Geräusche von sich gibt, hin und wieder mal ein "Zugriffsklackern"
Aber bei fragmentierten Daten, also Files die wild verstreut irgendwo auf der HDD liegen massive Zugriffsgeräusche warzunehmen sind...
Ergo ist es so, das bei sequenziellen Zugriffen durch das quasi fast wegfallen der Zugriffszeit erheblich höhere Performance drin ist, als bei Randon Zugriffen...
Ob das nun am Ende hier mal ein paar Sekunden schneller oder langsamer geht, ist mir persönlich recht egal, aber es fällt halt auf...
Gleiches hab ich das WE auf dem scharfen Fileserver von Arbeit beobachten können...
Es handelt sich um ca. 500GB reine Nutzdaten im kleineren Bereich (sprich wenige KB bis im Schnitt 1-2MB pro File)
Ein sichern auf Fileebene in eine Imagedatei dauerte für alle ca. 1,8Mio Files etwas über einen Tag. (Quell HDDs 6x750GB SATA 7,2k@Raid 5 | Ziel HDDs 3x300GB SAS 15k@Raid 5)
Das Rückspielen in ein neues System (Quell HDDs 3x300GB SAS 15k | Ziel HDDs 4 der 6 SATA HDDs von oben@Raid 5) dauerte nich mal 12h...
Ebenso kopieren auf Dateiebene aber dank des zwischenspeicherns gänzlich ohne Fragmentierung... Bei beiden Kopiervorgängen war keine anderweitige Last auf den Quell/Ziel Platten.
Wobei hier der Fileserver warscheinlich wirklich derart durch das Userverhalten Fragmentiert war, das man dieses Stadium nie als alleiniger Privatuser erreichen würde...
Aber verdeutlicht denke ich ganz gut die Dimensionen...
Wie man es soweit kommen lassen kann?
Ja ganz einfach man brauch nur nen Torrent Client und ne recht große Partition haben und das ganze mal über ein paar Wochen/Monate laufen lassen... gleichzeitig noch die nicht mehr benötigten Quellfiles immer dann löschen, nachdem man sie entpackt hat und auch so recht viel Verkehr mit gepackten Dateien haben...
Da ich durch meine hässliche INet Leistung keine großen Files am Stück ziehen kann, lade ich diverse Linux Distributionen und Co. oft über den TorrentClient. Der kann pausiert werden wenn bedarf besteht und er stückelt das ganze in viele kleine Häppchen.
Da aus Gründen der Dateigröße ja recht viele Files irgendwie gepackt sind, die im Netz so rumgeistern, kommt es da auch bei normaler Nutzung schnell zur Fragmentbildung...
Wenn dann noch aktiv mit Files auf der selben Partition gearbeitet wird, geht das nochmals schneller...