ein paar fragen zum crystal disk mark

Optixx

Neuling
Thread Starter
Mitglied seit
07.09.2008
Beiträge
41
heyho!

ich wollte mehrere festplatten und usb sticks mit crystal disk mark vergleichen. nun hab hätte ich da ein paar fragen.

screen:





  1. welche größe teste ich wie am besten? muss ich z.b. einen 8GB usb stick anders testen als eine 500GB HDD?

  2. was hat es mit 4KB Random und 512KB random auf sich, gibt es da was zu beachten oder eine faustformel? das gibt es auch bei HD Tune und anderen hdd benchmarks, bin mir nie sicher was man zum testen nimmt.

  3. ist der crystal disk mark aussagekräftig oder sollte ich doch lieber HD tune (oder andere alternative) verwenden?

gruß optixx
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich glaube im Festplatten und Storage Forum wärst du besser aufgehoben.

Teils kann ich dir das erklären:

-die 5 oben zeigt die Anzahl der Durchläufe pro Test an
-die 100MB geben die zu lesen/schreibende Datenmenge an
-dann kommt das Laufwerk auf dem der Test ausgeführt werden soll

-sequentiell: Zusammenhängende Datei die quasi an einem Stück gelesen/geschrieben wird

-512K es werden 512Kb große Dateien gelesen/geschrieben die sich irgendwo auf dem Datenträger befinden

-4k es werden 4Kb große Dateien gelesen/geschrieben die sich irgendwo auf dem Datenträger befinden

So, das mal zur Erklärung der einzelnen Fensterchen des Benchmark

Tja, also wenn du keinen extra Controller mit großem Cache benutzt, reicht eine 100MB Datei mit 5 Durchgängen völlig aus um ein Aussagekräftiges Ergebniss deiner Platte/USB-Stick zu zeigen. Je größer die Datei ist, umso geringer ist der Einfluß etwaiger Caches oder Cachprogramme.

Welches Benchmarkprogramm du benutzt bleibt dir überlassen. HD-Tune hat ne schönere Darstellung für sequentielle Lese/Schreibzugriffe, aber das ist Geschmacksache. Manche mögen auch lieber Zahlen als Grafiken :coolblue:

Dann zur Erklärung deines Ergebnisses. Du wirst feststellen, das bei 512K bzw. bei 4K die Werte extrem einbrechen bei deiner Festplatte. Das liegt daran, das der Festplattenkopf für jede 512K/4K große Datei an einen anderen Ort auf der Festplatte springen muss.
Das ist auch der Grund warum es überhaupt Defragmentierprogramme gibt. Wenn du auf deine Festplatte schreibst, dann schreibt sie die Datei nicht an einem Stück drauf, sondern einfach dorthin, wo gerade Platz ist. D.h. eine 100MB Datei wird nicht wie ein langes Bitband nacheinander geschrieben,sondern landet in paar hundert Brocken in verschieden großen Lücken auf deiner Festplatte. Das Defragmentierprogramm nimmt sich jetzt diese Datei und schreibt sie einfach an einem Stück auf die Platte.
Wenn du nun einen Vergleich machen würdest, wie lange deine Festplatte braucht, um ein und dieselbe Datei zu lesen vor und nach der Defragmentierung, würdest du feststellen, das nach dem Defrag die Datei viel schneller lesbar ist.

Natürlich hat auch die gewählte Clustergröße, also wie die Festplatte formatiert ist, einen Einfluß.
 
Werden beim Ausführen des Tests, im Schreibtest, irgendwelche Daten auf den Datenträger gelöscht, wie beim HDTach?
 
@joker


vielen dank, sehr schön erklärt :)

ja, wäre nett wenn ein mod den thread bitte verschieben könnte.


kannst du mir auch sagen, warum ich bei 512KB bessere schreib/lese werte erhalte als bei 4KB? arbeitet windows nicht mit 4KB blockgröße? oder ist das unabhängig davon wie die festplatte arbeitet?


optixx
 
Werden beim Ausführen des Tests, im Schreibtest, irgendwelche Daten auf den Datenträger gelöscht, wie beim HDTach?

nein, soweit mir bekannt ist ( ich bin mir sehr sicher) werden keinerlei daten gelöscht. Habe den Benchmark schon einige male ausgeführt und bis jetzt auch noch keine Daten vermisst :coolblue:

na selbst wenn windows die blocksize auf 4kb setzt, bekommste bei 512k bessere werte. Das liegt daran, das er für die 4kb lese/schreiben nur z.b. 1ms braucht, aber er braucht (je nach festplatte) 10ms um den schreib/lesekopf neu zu positionieren. Der Großteil der Zeit geht da fürs positionieren drauf. Bei 512K eben nicht,deswegen bekommste da bessere Werte.

Eine SSD erreicht bei 512K und 4K viel höhere Werte als eine normale Festplatte.Da die SSD ja keinen Schreib/Lesekopf besitzt, fallen diese 10ms bei jedem 4k Block weg. Da spart man eine Menge Zeit :)

Diese Clustergröße, also die Blockgröße mit der die Festplatte formatiert ist, sagt ja quasi nur aus, wie groß ein Block ist. Wenn du z.B. eine 5KB große Datei hast bei 4K Clustergröße, dann werden 2 Blocks benötigt. Im 2ten Block steht dann halt nur 1KB Daten und 3KB nichts.

Deswegen wenn du eine Filmfestplatte hast, kannst du ohne Prob die Clustergröße auf 64K legen, manche haben auch schon 512K gehabt. Das ist aber auch schon grenzwertig ;)
Bei vielen kleinen Dateien ist es von Vorteil die Clustergröße klein zu halten, da damit nicht so viel Platz verloren geht.

Hoffe das hilft ein bisschen ;)
 
@joker

boah, kann dir nicht genug danken. langsam versteh ichs ;)

noch etwas:

na selbst wenn windows die blocksize auf 4kb setzt, bekommste bei 512k bessere werte. Das liegt daran, das er für die 4kb lese/schreiben nur z.b. 1ms braucht, aber er braucht (je nach festplatte) 10ms um den schreib/lesekopf neu zu positionieren. Der Großteil der Zeit geht da fürs positionieren drauf. Bei 512K eben nicht,deswegen bekommste da bessere Werte.


der schreib/lesekopf muss doch mehr lesen als bei 4KB, somit würde er ja etwas länger brauchen? (ich glaub dir das, aber kann ich nicht zu 100% nachvollziehn)

lg
 
ja, aber wenn ich mal den Zeitverlauf ungefähr so dartelle:

4Klesen,schreib/lesekopf justieren,4Klesen,schreib/lesekopf justieren

1ms + 10ms +1ms +10ms

512Klesen,schreib/lesekopf justieren,512Klesen,schreib/lesekopf justieren

8ms+10ms+8ms+10ms

Hier siehts so aus, als würde 4k random read schneller gehn,aber:

es werden ja insgesamt 100MB gelesen ( Oder der Wert den du oben ausgewählt hast )

um jetzt mit 4K Leseblöcken die 100MB voll zu kriegen müssen 25000* 4KB Blöcke gelesen werden.

Gesamte Zeit = 25000* ( 1ms + 10ms) = 275 000ms

mit 512K Leseblöcke braucht er aber nur ca. 195 Durchgänge

Gesamte Zeit = 195 * (8ms +10ms) = 3 510ms

Es wird ja die Gesamte Zeit gemessen bis die vorgegebene Datenmenge gelesen wurde. Je mehr der Kopf springen muss, umso geringer ist der Datendurchsatz. Da ja während der Positionierung des Kopfes keine Daten gelesen werden.

Ich hoffe ich habe hier keine Denkfehler drin. Wenn dus ganz genau wissen willst, solltest du dir Fachliteratur ansehen.
 
Zuletzt bearbeitet:
@joker


erste sahne, danke :)

jou, hatte schon ein wenig drüber gelesen, aber so wie du es erklärt hast steht es auch nicht auf wikipedia oder anderen seiten.

damit kann ich was anfangen, werd mich da noch etwas reinlesen :)

have a nice day ;)

optixx
 
Der CrystalDiskMark geht wie z.B. auch der Atto über das Filesystem. Das wird also praktisch immer mitgetestet und es können damit sogar Netzlaufwerke getestet werden oder eben reine Software-RAIDs vom Betriebssystem (Windows-RAID). HTtune und Co. gehen direkt auf die physischen Platten und die sehen logische Laufwerke gar nicht erst (Partitionen/Software-RAIDs/Netzlaufwerke).

Deshalb liest der CrystalDiskMark auch nicht irgendwo auf der Platte - das würde das Betriebssystem gar nicht zulassen - sondern er legt sich am Anfang eine eigene Datei auf dem zu testenden Laufwerk an, deren Größe man oben links auswählen kann (100/1000MB). Je nachdem wie voll bzw. fragmentiert das Laufwerk ist, wird auch diese Datei mehr oder weniger stark fragmentiert sein. In dieser Datei liest und überschreibt er dann sequentiell bzw. zufällig kleinere Blöcke von 512kB bzw. 4kB und misst die Zeit die er dafür braucht.

Der CrystalDiskMark ist durchaus aussagekräftig, vielleicht sogar mehr als LowLevel Benchmarks wie HDTune, denn er ist näher am tatsächlichen Nutzungsszenario der Laufwerke dran. Allerdings schaltet er den Betriebssystem-Cache für seine Testdatei ab, was man normalerweise ja nicht machen würde und somit bekommt er wesentlich schlechtere Ergebnisse als man sie bei den gleichen Zugriffsmustern in einer echten Anwendungs-Software bekommen würde. Dafür sind die Ergebnisse aber besser vergleichbar.

Mit 100MB zu testen bringt daher auch nicht so wahnsinnig viel, da hier der Einfluss des Plattencaches noch relativ groß ist. Besser ist es meiner Meinung nach mit 1000 MB zu testen wenn der Datenträger noch soviel Platz hat.
 
danke x4u :)

noch etwas was mir grad auf der zunge brennt :

wenn ich meinen USB stick z.b. mit 32KB formatiere hat das keine auswirkungen auf den CDM?
 
Ich muss das Thema mal ausgraben, weil ich nicht weiß wie (mit welchem Programm) ich Die Ergebnisse speichern kann um diese zu posten.
Speichert zwar in die Zwischenablage , kann's aber nicht öffnen/aufrufen. Paint oder InfranView gehen nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh