Festplatten formatieren - Kleinstmögliche Einheit?

Ganxta

Enthusiast
Thread Starter
Mitglied seit
10.06.2007
Beiträge
1.688
Ort
Niedersachsen
Ich hab nach ienigen Beiträgen hier im Forum eine Idee bzw Frage:

Standardmässig wird eine Festplatte ja in 4096B großen Blöcken Fomatiert. Passt eine Datei nicht ganz ind den Block wird der Block denoch als "voll" definiert. Wäre es nicht sinnvoller und Speicherplatzsparender die Festplatten mit z.B. 1B großen Blöcken zu formatieren (ja, Extrembeispiel) um Speicherplatz zu sparen? GINGE das überhaupt bzw würde es noch gut funktionieren? Und mit welchen Nachteilen hättem an dann zu rechnen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Jo soweit ch weiß würde es dann echt Speicherplatz sparen, aber dauert wohl das suchen um einiges länger.

Was jetzt "einiges" heißt weiß ich nicht und obs jetzt wirklich so viel bringt kann ich nicht sagen. Ich lasse es immer auf Standard.

Könnte man ja mal testen, wenn man 2 Identische Platten hat ;) und viel Zeit :d

MfG
 
Viel Zeit hab ich, sponsort mir jemand ne Platte? :shot:

Ich würds ja selber testen, hab nur atm keine Platte wirklich frei ;)
Drum die "blöde" Frage
 
Kann mir auch vorstellen das die Zugriffsgeschwindigkeit drunter leidet.
Wenns mehr Blöcke gibst die er absuchen muss.

Wäre es für die Zugriffsgeschwindigkeit ja vll vom Vorteil die größte Blockgröße zu wählen!

Würde ich jetzt mal so rein logisch daraus schlussfolgern, aber ob es auch wieder so ist ^^ und ob man es dann auch merkt? Wer weiß ^^

Testen würde ich es auch, sogar in der wenigen Freizeit momentan, weil interessiert mir echt. Aber ich habe auch keine 2 Identischen Platten ;)


Sucht noch jemand etwas für seine Doktorarbeit? :d
 
Zuletzt bearbeitet:
Klingt interessant
*stunde-der-theorien-einschlag*

Dabei auch interessant:
Wenn die Blöcke größer sind, werden hier auch evtl. weniger "Teilblöcke" belegt, was auch evtl. sogar wieder speicherplatz spart/sparen könnte, dann wäre es in der Theorie sogar doppelt vorteilhaft!!!
 
Nein es ist doch eher so das selbst wenn in den Block dann nur ein Byte muss dieser als VOLL deklariert wird und somit fehlt mehr speicherpaltz.
 
Kleine Blöcke sparen Platz, das ist richtig, kleine Blöcke haben aber auch das Problem, dass sie Performance schlucken.
(Es kann in einem Block immer nur eine Datei liegen, eine Datei kann über mehrere Blöcke gehen.)

Es gibt nicht DIE Blockgröße. Es kommt immer auf die Daten an. Wer viel mit kleinen Datein arbeitet, muß Blöcke in eben dieser Größe wählen, wer dagegen mit großen Files arbeitet, ehr mit großen Blöcken.

Kleine Blöcke erhöhen die Anzahl der Kopfbewegungen und tragen massivst zur Fragmentierung bei und beides kostet extremst Performance.

Ansonnsten noch viel Spaß im Theorielabor.
 
Womit und wie wollt ihr denn dann Performanceunterschiede zwischen den Blockgrößen auslesbar nachprüfen?

Hätte hier event. zwei 1TB-Platten die als noch ungenutztes bzw. wenig genutztes Drittbackup dienen sollen und die könnt ich dann testweise dafür mißbrauchen.
 
DAS is ja mal perfekt.

Könntest ja die eine mit der grösstmöglichen blockgrösse formatieren und die andre mit der kleinstmöglichen, damit man das am besten sieht.

Wenn du dann willst könntest du dann ja eine grosse Datei (z.B. ein 20GB Archiv aus verschiedenen Ordnern oder sowas) auf die Platten jeweils kopieren und die Zeit stoppen.

Und dann evtl, kann man je ebnfalls mit diesem Archiv arbeiten, das in ganz ganz viele kleine Einzelparts splitten, ich sag mal jew. 1MB gross und die dann rüberkopieren und ebenfalls Zeit stoppen.

Und das ganze dann jeweils nochmal zurück.

Allerdings müsstem an an Zeit dafür gut und gerne 6h oder mehr einplanen. Aber immerhin wäre unser aller neugier befriedigt und wir hätten wieder was gelernt ;)

Wär echt cool wenn du das machen würdest.
 
Die kleinstmögliche Blockgröße entspricht der Größe eines Sektors, also derzeit 512 Bytes. Ein Sektor ist die kleinstmögliche Zuordnungseinheit der Festplattenlogik.

Je kleiner die Clustersize gewählt wird, desto höher ist die Fragmentierung und dementsprechend dauert das Zusammensuchen länger. Je größer die Clustersize, desto mehr Sektoren liegen direkt hintereinander, was der Fragmentierung entgegenwirkt.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh