Wer sagt, dass Randomzugriffe nur Sektorweise, bzw Blockweise passieren?
Wenn 10000 Datein mit 3k Größe gelesen werden müssen, dann ist random.
Wenn 10000 Datein mit 50k Größe gelesen werden müssen, dann ist das auch random.
Das eine mehr, das andere weniger.
Daher ist es auch schwierig Random Benches zu vergleichen, wenn diese nicht auf der selben Grundlage (files und Struktur) basieren.
Und es gibt nen haufen Anwendungen, wo solche kleinen "Datein" gelesen werden, nur nicht immer für den Heimandwender.
Gut finde ich auch:
Hier kommt hauptsächlich die Zugriffszeit und die sequentielle Leistung zum Einsatz.
Welche anderen Parameter für Geschwindigkeit eines Storages gibt es denn noch?
(Es gibt nur diese beiden, daher sind wohl beide hauptsächlich für den Speed einer "PLatte" ausschlaggebend.)
Je nach Art der Belastung, sprich Verteilung der Daten und Größe der Daten ist mal das eine entscheidender, mal das andere.
Und je kleiner die Datein werden und je zerstreuter sie sind, desto wichtiger ist die Zugriffszeit und die Transferrate tritt in den Hintergrund. (andersrum eben andersrum)
Meine Server hier zB profitieren ganz enorm von SSDs, weil eben sehr viel Random passiert und damit die Zugriffszeit viel Interessanter ist als die reine Transferrate.
Meine 15k SAS HDDs machen 200MB/s, sind für diese Sache also durchaus vergleichbar mit meinen SSDs (K5 und XLR non+) und dennoch ziehn die SSD die SAS ab, was sicherlich nicht an der gleichhohen Transferrate liegt.
EDIT:
Man darf random nicht mit purer IO Leistung verwechseln.
Random bezieht sich immer auf einen zufälligen Transfer mit einer bestimmten "Datei"größe.
IO hingegen ist die pure Leistung um irgendwas anzusprechen, aber eigentlich nichts zu machen.
Sprich also, hin, anklatschen, hin, anklatschen.
Das entspricht eher dem was du beschrieben hast.