Gehen 6 Platten im RAID 0+1?

twoPhases

Duisburger
Thread Starter
Mitglied seit
23.11.2003
Beiträge
6.425
Oder geht immer nur 4 und 8 Platten?

Habe jetzt 6 Samsung. Lohnt der Performancesprung von Raid 0+1 auf dem nForce 590 SLI zu Raid 10 mit dem Promise SuperTrak EX8350 (wurde da 8 Platten verwenden).
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
6 Platten im Raid 0+1 gehen!

8 Platten im Raid 10 bringen aber wahrscheinlich mehr (auch Sicherheit)...

Schließe mich der Frage meines Vorredners an:d

mfg TommyB2910
 
Ein RAID 0+1 an einem Hardware Controller macht kein sinn - wenn dann RAID5.

Allein scho die unglaubliche Platzverschwendung von 50% macht ein 0+1er mit mehr als 4 Disks untragbar.
 
Ein RAID 0+1 an einem Hardware Controller macht kein sinn - wenn dann RAID5.

Allein scho die unglaubliche Platzverschwendung von 50% macht ein 0+1er mit mehr als 4 Disks untragbar.

macht sehr wohl sinn -> unter last halbierte zugriffszeiten! (idealerweise)
 
nicht bei raid1 auf hardware raid controllern die raid1 read balancing unterstützen.
(oder linux software raid)
 
Zuletzt bearbeitet:
nicht bei raid1 auf hardware raid controllern die raid1 read balancing unterstützen.
(oder linux software raid)
Da wird die zugriffszeit auch nicht verbesser denn das ist komplett unmöglich ohne die Platter schneller drehen zu lassen ;)

Wenn ein RAID1 von beiden disks gleichzeitig liest anstatt nur von einer erhöht sich die Transferrate - Zugriffszeit müsste trozdem höher sein da die Actuatoren sich öfter bewegen müssen.
 
Zuletzt bearbeitet:
Sogesehen kann die Zugriffszeit nicht geringer werden. Es kann nur ein gleichzeitiger Zugriff an verschiedenen Stellen stattfinden. (was man ja nicht wirklich als Zugriffszeitminderung ansehen kann)

Ich würde eh bei so großen arrays, die wohl vornehms zur Datensicherung sind zu Raid 5 oder Raid 6 greifen.
 
nö da sich die zugriffe 50:50 aufteilen müssen die köpfe weniger rumfahren

ausserdem ist eine round robin implementation nur bei linux software raid (bekannt)
wie es hardware controller machen weiss keiner so genau - ausser die hersteller

auf jeden fall sinkt die gemessene zugriffszeit mit sandra (ned lachen, is immerhin ein tool das aufs filesystem geht) von 6ms (8x raptor @ raid0) auf 4ms (8x raptor @ raid10) UND wenn man ncq einschaltet auf sogar 2ms :) (bei raid0 ändert sich mit ncq nix)
.
Nachtrag (mir ist noch was dazu eingefallen):

Sogesehen kann die Zugriffszeit nicht geringer werden. Es kann nur ein gleichzeitiger Zugriff an verschiedenen Stellen stattfinden. (was man ja nicht wirklich als Zugriffszeitminderung ansehen kann)

Ich würde eh bei so großen arrays, die wohl vornehms zur Datensicherung sind zu Raid 5 oder Raid 6 greifen.

nicht wirklich

wenn eine platte viel zu arbeiten hat steigt auch die zugriffszeit da der kopf wie wild hin und her muss, teilt sich das auf 2 platten auf dann eben nicht

noch ein nachtrag - wie ich bereits sagte, keiner weiss wie es z.b. 3ware implementiert hat, es würde auch sinn machen wenn man bei wenig belastung einfach von beiden platten liest und dann einfach das schneller gelieferte ergebnis nimmt ;) (position der platter/köpfe)
 
Zuletzt bearbeitet:
noch ein nachtrag - wie ich bereits sagte, keiner weiss wie es z.b. 3ware implementiert hat, es würde auch sinn machen wenn man bei wenig belastung einfach von beiden platten liest und dann einfach das schneller gelieferte ergebnis nimmt ;) (position der platter/köpfe)

Toll, das wäre dann doppelte Arbeit sowie Abnutzung ... wenn man's mal ganz genau nimmt ;)
Außerdem wird sich das dann im Normalfall nur 0,1 ms unterscheiden, und ob man das dann merkt bleibt jedem selbst überlassen.
 
warum nur 0.1ms?
eine volle platter umdrehung bei 10.000rpm dauert 6ms

ob man das merkt? man kannst rausmessen mit iometer
man merkts halt erst richtig wenn auch was passiert auf den platten .... ein wordpad starten gehört nicht dazu ;)
random read auf 8 raptoren im raid10 ist z.b. höher als bei raid0 mit 8 raptoren
 
Zuletzt bearbeitet:
Und warum hat man dann nicht mal ne Zugriffszeit von 4 ms und mal ne zugriffszeit von 10 ms? .... ;)

Is wie mit 3D Mark ... ob man 20 punkte in spielen merkt wage ich zu bezweifeln ...

6 ms Unterschied bemerkt eh kein Mensch ;)

"Boah sch**ße, das hat jetzt nen viertel Wimpernschlag länger gedauert!!!" :lol:
 
ich kann dir nicht ganz folgen?
ich halte dich nicht für so blöd wie du grad tust also antworte bitte normal und verarsche mich nicht
 
Naja ich halte es eh für unsinnig mehr als 4 Platten in ein Raid zu stopfen (ich spreche hier natürlich nur von meinem begrenzten Anwendungsgebiet)

6ms mag man so allein nicht spüren aber es macht schon einen Unterschied ob das ganze Sytstem (ns Bereich) 4ms oder 10ms lang von der Platte ausgebremst wird!

mfg TommyB2910
 
Ich find's immer wieder beeindruckend was manche Menschen für Anforderungen haben müssen :-o

Ein Raid 1+0 oder 10 über 6-8 Platten einem Raid 5 vorzuziehen?!...
Naja.. gut.. wem's wirklich auf'n letzte Quäntchen ankommt und Geld überhaupt keine Rolle spielt.....
Jetzt sag aber bitte nicht daß die Konfiguration für nen Arbeitsplatz PC ist.
Mach wenn dann nur auf nem DB Server mit massig IO Last sinn.
 
Also die ganze diskussion über zugriffszeiten macht hier eh kein großen sinn - aus anderen Threads weiss ich das twoPhases einen Datenspeicher im sinn hat.

Es werden also überwiegend große Files geschrieben und per Netztwerk zugegriffen - spätestens hier wird auch eine hohe Transferrate abgeschnitten beim übergang ins LAN.
 
für einen reinen datenspeicher ist raid5 oder raid6 wegen der kapazität natürlich besser geeignet
ausser er hat verdammt viele user gleichzeitig drauf
 
Naja, aber mit nem anständigen Raid 5 sollten auch da gute Schreibwerte erreicht werden ;)
Also von daher würde ich dann eher nen Raid 5 oder Raid 50 vorziehen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh