Bester RAID-1 Verbund - 2 * WD RE4 oder 2 * WD Caviar Black oder doch was anderes?

G3n3r!c

Neuling
Thread Starter
Mitglied seit
14.02.2009
Beiträge
44
Hallo,

wie der Thread-Titel sagt, suche ich nach dem bestmöglichsten (stabilsten oder bei gleicher Stabilität schnellsten) RAID-1 Verbund.

Dachte an 2TB-Platten, könnte aber auch mit 1,5TB-Platten zurechtkommen.

Weil die WD RE4 (WD2003FYYS) schon ne ganze Weile am Markt sind, habe ich mich gefragt ob ich lieber zu den neuesten WD Caviar Blacks (WD2002FAEX) greifen soll oder nicht.

Gehe ich richtig in der Annahme, dass beide 500GB Platter nutzen?

Gibt es eventuell bessere Alternativen anderer Hersteller?

Danke schonmal für eventuelle Antworten :)

Edit: Es geht um Intel Onboard-Raid (Z68)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi. Ich persönlich vertraue schon seit langem den RE Modellen und habe damit die besten Erfahrungen gemacht. Eine Black die ich von einem Kumpel bekam habe ich auch hier, mit der bin ich aber nicht so zufrieden, wird wärmer und lauter. Bei den Blacks hat man auch schon mal mitbekommen dass innerhalb einer Serie plötzlich andere Plattern benützt wurden und sie deshalb langsamer waren. Die Samsung F-Platten habe ich auch und sollen ja auch gut sein, diese benütze ich aber nur als Backupplaten welche immer nur zu diesem Zweck angeschlossen werden und sonst im Schrank liegen. Man muss halt wissen ob man das Geld für eine RE4 ausgaben will > Samsung F3 2TB 90.- > RE4 2TB 140.-.

Vor kurzem bin ich auf diesen Bericht gestoßen:
Garantiefälle: Riskante 2-TByte-Festplatten und SSD-Rückläufer - Golem.de

Zwar werden hier jetzt sicher wieder die Stimmen laut, warum man solch einem Bericht nicht trauen sollte, aber aus meiner Sicht spiegelt dieser genau wieder was ich bei meinen Rechergen gedacht habe. Immer wenn ich mir neue Platten kaufe, geh ich wirklich hin und lese soviele Kundenbewertungen und Erfahrungsberichte wie ich finden kann und dabei kam ich zu dem gleichen Eindruck wie dieser Bericht. Für mich kamen nie WD Greens, Blacks, 4k Platten, Maxtor und Hitachis in Frage.

Ich würde dir ja eher zu 3 oder 4 RE4 mit 1TB raten und daraus ein Raid 5 machen oder wenns sein muss 2 Raid 1.

Da ich für meine Aussagen vllt eins drauf bekomme... *duck und weg* :)

---------- Beitrag hinzugefügt um 01:26 ---------- Vorheriger Beitrag war um 01:05 ----------

Achso, die Seagate Constellation würd ich noch empfehlen.
 
Zuletzt bearbeitet:
Vielen Dank! Genau so eine Antwort wollte ich hören :)

Weil ich ja an Intel-Onboard Raid denke (Z68; will keinen dedizierten Raid-Controller), bin ich mir aber nicht sicher, ob da 4 * 1TB Raid 5 bzw 2 * Raid 1 wirklich besser sind als 2 * 2TB Raid 1. Ich denke da an die Controller-Leistung. Denkst du der packt das?

Zur Seagate Constellation (ST2000NM0011 bzw. ST32000644NS) konnte ich leider kein Review finden. Haben die weniger Platter? Haben die 4KB-Sektoren? Wo sind Vorteile/Unterschiede im Vergleich mit den RE4?
Ich war grade bei Seagate (Enterprise Hard Drives | Cheetah | Constellation ES | Seagate), da ist bei der Constellation ES ein Haken bei Encryption. Sind die Hardware-Verschlüsselt?* (Wäre ein Vorteil).

Also von den Caviar Blacks sehe ich inzwischen ab.

Edit: *Habe mit dem Konfigurator von Seagate rumgespielt. Die ST2000NM0011 und ST32000644NS haben keine Hardware-Verschlüsselung. Und die Seagate Constellation ES, die Verschlüsselung haben sind hier (habs bei geizhals gecheckt) kaum erhältlich.
 
Zuletzt bearbeitet:
Hier mal ein Bench mit meinen 4 Samsung F3 im Raid 5 an der ICH9R (Intel x48 Chipsatz). Der Z68 könnte da noch ein Stück besser sein.

Sequential Read : 313.476 MB/s
Sequential Write : 362.244 MB/s
Random Read 512KB : 52.984 MB/s
Random Write 512KB : 17.747 MB/s
Random Read 4KB (QD=1) : 0.723 MB/s [ 176.5 IOPS]
Random Write 4KB (QD=1) : 1.074 MB/s [ 262.2 IOPS]
Random Read 4KB (QD=32) : 4.375 MB/s [ 1068.1 IOPS]
Random Write 4KB (QD=32) : 0.989 MB/s [ 241.6 IOPS]

Test : 1000 MB [M: 0.0% (0.1/1464.8 GB)] (x5)
Date : 2011/01/16 19:35:52
OS : Windows 7 [6.1 Build 7600] (x64)

Wie es mit den Plattern aussieht weiß ich nicht (mehr). Hab da mal einen Forumsthread gefunden wo das aufgelistet war, kann ich aber nicht mehr finden. Ich weiß das Samsung zum Teil 3 Plattern hat bei 2TB, die meisten haben wohl 4. Seagate hat ja Plattern mit 1TB, die werden aber glaub bisher nur in der Barracuda XT verbaut.

Die Constellation haben keine 4k-Sektoren, würde diese qualitätsmäßig fast noch ein Stückchen über der RE einstufen. Viel Unterschied gibts da aber net. Die Constellation gibt es mit und ohne Verschlüsselung, dies ist Hardware basiert und wäre natürlich schon ein Vorteil. Bisher ist aber glaub nur die 3TB Version mit Verschlüsselung lieferbar. Desweiteren steht bei denen dabei, dass der Controller TCG konform sein muss, also keine Ahnung ob das bei Intel standartmäßig unterstützt wird, damit habe ich mich nie beschäftigt. Mein LSI Controller unterstützt das, aber bei Mainboards hab ich darüber nie etwas gelesen. Keine Ahnung ob dafür ein TPM Modul notwendig ist.
 
Zuletzt bearbeitet:
Erstmal danke!

Also wenn ich das so sehe, dann tendiere ich jetzt ganz stark zu jeweils drei oder vier 1TB WD RE4 (WD1003FBYX) oder 1TB Seagate Constellation (ST1000NM0011) im RAID-5.

Wenn ich richtig liege, wäre der Nachteil bei Raid 5 eben, dass man eine zusätzliche Platte quasi auf Lager haben müsste, dass man weiterarbeiten kann, falls eine Platte ausfällt. Müsste also eine Platte mehr kaufen. Im Raid 1 könnte man ja sofort nach Ausfall einer Platte weiterarbeiten (wenn man sich traut), oder?

Sollte ich RAID-10 in Betracht ziehen?

Was ist besser 3 bzw. 4 Platten im Raid 5 oder 4 Platten im Raid 10?
 
Ist das ne reine Daten-Ablage oder soll das ein OS rauf?
Raid5 im System-Betrieb ist alles andere als schnell und booten kann man davon auch nur wenn man ein UEFI-Bios auf seinem Z68-Board hat sobald das Ding größer als 2TB ist.
 
Also das Board wäre das ASUS P8Z68-V (hat glaube ich UEFI).

Es soll alles, auch das OS, auf das Array.

@HisN: Du schreibst: "Raid5 im System-Betrieb ist alles andere als schnell". Warum?
 
Weil es daran liegt wie ein Raid5 verwaltet wird.
Da wird bei jedem Schreib-Zugriff eine Parität gebildet und zusätzlich auf den Platten abgelegt. Und da das OS aus zigtausend Winzig-Dateien besteht ist das Raid gut beschäftigt ständig Paritäten zu errechnen und zu schreiben. Du zwingst die Platten also dazu dass zu machen was sie am schlechtesten können: Wahlfreien Zugriff. Das macht man ein mal um es auszuprobieren und vergisst es dann ganz schnell wieder. Das schöne daran ist ja dass Du scheinbar System und Daten auf den gleichen Array packen willst. D.h. Du bremst Deinen Datenzugriff auch noch dadurch aus dass Windows die ganze Zeit mit sich selbst schrippt und derweil der Zugriff auf die Daten ausgebremst wird. Falls es noch niemandem aufgefallen ist .... Windows schreibt/ließt ständig von der Systemplatte, auch wenn man gerade keinen Finger bewegt.

In meine Augen ist die ganze Raid-Sache fürs System sowieso nur in Produktiv-Umgebungen zu irgendwas nütze, nämlich um die Zeit zu überbrücken bis der EDV-Service mit einer neuen Platte anrückt. Normalerweise geht man doch einfach nur an den Rechner der daneben steht und arbeitet dort weiter. Und zuhause Packt man kurz eine neue Platte in den Rechner und zieht das aktuelle Backup zurück. Dauer: 10 Minuten. Dafür binde ich mir doch nicht den ganzen Raid-Alarm ans Bein.

Aber ganz unter uns ... wir haben keine Ahnung was Du unter "schnell" verstehst. Und mit was Du zufrieden bist^^. Ich würde Dir ja eine SSD fürs System ans Herz legen.
 
Zuletzt bearbeitet:
Ich glaub ja, dass das nicht allzu viel an Performance kosten würde, denke nicht dass man da viel Unterschied merkt. Das war früher viel eher ein Prob, die aktuellen Prozis machen das mit Leichtigkeit. Man könnte sich natürlich auch überlegen, sich später mal noch eine SSD zu kaufen wenn man nicht zufrieden ist. Oder man kauft sich später noch ne Intel 311 dazu und nützt das SSD Caching des Z68, was auch klasse ist.

Hier mal ein Vergleich zwischen Raid 5 und 10 an der ICH9R , allerdings mit 6 WD RE3: Korrektur: war am Areca ARC-1220

Raid 10:
Sequential Read : 390.192 MB/s
Sequential Write : 287.596 MB/s
Random Read 512KB : 67.283 MB/s
Random Write 512KB : 145.179 MB/s
Random Read 4KB (QD=1) : 0.877 MB/s [ 214.1 IOPS]
Random Write 4KB (QD=1) : 8.079 MB/s [ 1972.4 IOPS]
Random Read 4KB (QD=32) : 4.305 MB/s [ 1051.1 IOPS]
Random Write 4KB (QD=32) : 8.113 MB/s [ 1980.8 IOPS]
Test : 1000 MB [X: 0.2% (0.1/48.8 GB)] (x5)
Date : 2010/05/02 17:38:14
OS : Windows 7 [6.1 Build 7600] (x64)

Raid 5:
Sequential Read : 395.590 MB/s
Sequential Write : 333.252 MB/s
Random Read 512KB : 62.911 MB/s
Random Write 512KB : 90.614 MB/s
Random Read 4KB (QD=1) : 0.954 MB/s [ 232.9 IOPS]
Random Write 4KB (QD=1) : 3.099 MB/s [ 756.5 IOPS]
Random Read 4KB (QD=32) : 1.883 MB/s [ 459.8 IOPS]
Random Write 4KB (QD=32) : 3.051 MB/s [ 745.0 IOPS]
Test : 1000 MB [X: 0.2% (0.1/48.8 GB)] (x5)
Date : 2010/05/02 19:37:17
OS : Windows 7 [6.1 Build 7600] (x64)

Das Raid 10 ist zwar bei kleinen Dateien laut Bench besser, aber ob das im Realen wirklich merkbar ist, weiß ich nicht. Außerdem finde ich dass man halt mit Raid 10 dann doch viel Speicherplatz verschwendet.
 
Zuletzt bearbeitet:
Schau Dir mal den Random-Write 4K an, wie das Einbricht.
Das OS schreibt in 4K-Blöcken. Dein Windows besteht zu 50% aus Dateien die kleiner als 16KB sind. Und der Casual-User stellt die Stripsize so groß ein dass die nicht mal über das Raid verteilt werden sondern auf einer Platte zu liegen kommen und damit nicht mal den Geschwindigkeits-Schub durch das Stripen mitbekommen.
Ich will ja keine Zusammenhänge heraufbeschwören.
 
Zuletzt bearbeitet:
Oh sorry ich merke gerade dass die 2 Benches noch von meinem alten Areca ARC-1220 sind.
Aber dann schau dir mal den Bench einer einzelnen WD RE3 (ICH9R) an:

Sequential Read : 116.405 MB/s
Sequential Write : 114.925 MB/s
Random Read 512KB : 40.182 MB/s
Random Write 512KB : 65.666 MB/s
Random Read 4KB (QD=1) : 0.706 MB/s [ 172.5 IOPS]
Random Write 4KB (QD=1) : 1.528 MB/s [ 373.1 IOPS]
Random Read 4KB (QD=32) : 1.715 MB/s [ 418.6 IOPS]
Random Write 4KB (QD=32) : 1.604 MB/s [ 391.7 IOPS]

Also ganz ehrlich, ich habe wirklich schon einiges an Konfigs gehabt und auch schon davon gebootet und ich würde behaupten dass ein Raid 5 schneller wäre als eine einzelne HDD oder man merkt keinen Unterschied. Ich habe hier zwar wirklich viel Benches ( :) ) aber leider dann doch nicht mehr von allen Konfigs die ich bisher gefahren bin.

---------- Beitrag hinzugefügt um 15:50 ---------- Vorheriger Beitrag war um 15:27 ----------

Und der Casual-User stellt die Stripsize so groß ein dass die nicht mal über das Raid verteilt werden sondern auf einer Platte zu liegen kommen und damit nicht mal den Geschwindigkeits-Schub durch das Stripen mitbekommen.
Auch der Enterprise User stellt große Stripes bei HDDs ein, da bei kleinen Stripes eine HDD grundsätzlich nur noch am rotieren wäre. Keine Ahnung warum du so gegen ein Raid System bist, aber ich seh da einfach die Vorteile. Und was dir auch klar sein sollte, ist, dass bestimmte Theorien nichts mit der Realität zu tun haben. Gerade das mit den kleinen Stripes ist ein theoretischer Forumsmythos und hat wenig mit der Realität gemein. Auch performancemäßig merkt man in der Realität kaum einen Unterschied ob non-Raid oder Raid. Dafür hat man aber eine gute sequentielle Leistung und eine gewisse Ausfallsicherheit beim Raid.

---------- Beitrag hinzugefügt um 15:58 ---------- Vorheriger Beitrag war um 15:27 ----------

h richtig liege, wäre der Nachteil bei Raid 5 eben, dass man eine zusätzliche Platte quasi auf Lager haben müsste, dass man weiterarbeiten kann, falls eine Platte ausfällt. Müsste also eine Platte mehr kaufen. Im Raid 1 könnte man ja sofort nach Ausfall einer Platte weiterarbeiten (wenn man sich traut), oder?
Du kannst auch beim Raid 5 erstmal weiterarbeiten, wenn du dich traust. Ein Platte auf Lager haben muss man nicht unbedingt, aber gewechselt werden sollte schon so schnell wie möglich. Hier kannst du dann aber auch eine beliebige Platte nehmen die eben mindestens so groß ist wie die anderen. Bei dem Ganzen solltest du aber nicht vergessen dass ein Backup immer vorhanden sein sollte, selbst bei Raid 1 (oder 5). Du könntest auch 3 1TB Platten ins Raid 5 setzten und eine 2TB Platte für Backup kaufen.
 
Zuletzt bearbeitet:
Ich bin nicht grundsätzlich gegen ein Raid.
Ich betreibe selbst einige.
Ich sehe nur Aufwand/Nutzen/Kosten/Pflege und da spricht (wenn es denn als System/Performace ausgelegt wird) alles gegen ein Raid aus rotierenden Scheiben und alles für eine SSD.

Und Dein Areca hat wieviel Cache? Und wieviel von dem Bench kommt durch den Cache durch? Der User will ein Onboard-Raid mit NULL Cache.
 
Zuletzt bearbeitet:
Der Areca hatte 256MB und da kommt vom Cache nichts mehr durch bei einem 1GB Pattern. Weiter oben sieht du doch den Bench von den F3 im Raid 5 und dann schau mal den Single Bench der WD RE3 an. Dabei musst aber noch berücksichtigen dass die F3 im allgemeinen nicht gut ist im 4K Bereich. Ich habe eben schon alles mögliche durchgetestet an Raids, auch davon gebootet, auch vom Onboard und da merkt man keinen Unterschied bis auf die erwähnte sequentiellen Leistung.

Und was meinst du mit Aufwand? Einrichten und benützen, ich habe da keinen Aufwand.
Nutzen > habe ich bereits beschrieben
Kosten > 4 RE4 1TB > 288.- <> 2 RE4 2TB > 286.-
Pflege? > HDDs abputzen? Gut vllt mal ein Consistency Check, aber das mach ich eigentlich nie, kann man ja aber alle 6 Monate machen. Wenn etwas nicht stimmt setzt ja das Rebuild von alleine ein
 
Zuletzt bearbeitet:
Was passiert wenn Dein Raid5-OS abkackt.
Keine Möglichkeit der Reparatur, weil man gar nicht an die Struktur rankommt.
Keine Möglichkeit der Datenrettung ohne Neuinstallation aus dem gleichen Grund, es sei denn man bekommt irgendwie in sein Rettungssystem die Raid-Treiber eingepflegt oder hat ein Linux das zufälligerweise das Raid ansprechen kann.
Neu-Installation auf dem Array auf dem die Daten liegen: Risiko

Und jetzt der Haupt-Grund. Meistens zerhackt der Anwender sich sein Windows, oder es wird zerhackt (Malware). Das mal ne Platte ausfällt ist (in meinen Augen) sehr viel weniger der Fall. D.H. man wendet Zeit und Geld und Nerven auf für den Fall der kaum eintritt, anstatt ein bisschen Zeit in ein Backup zu investieren. (Das man ja auch/trotz Raid) macht.^^
Und das vor allem wenn man die Leistung die man sich vom Raid erhofft mit einer SSD ganz locker toppen könnte^^.

Alles immer nur auf System+Performance+Sicherheits-Raid bezogen.
 
Zuletzt bearbeitet:
Also dass man trotz Raid ein Backup braucht habe ich oben schon geschrieben und dass mal ne HDD ausfällt finde ich nicht ungewöhnlich. Mit dem Raid hat man einfach ne zusätzliche Sicherheit, vorallem da Backups im Normalfall eh nicht täglich gemacht werden. Was du mit Reparatur schreibst kann ich auch nicht ganz nachvollziehen. Ob da jetzt OS drauf liegt oder nicht wenn es das Raid (1 oder 5 egal) zerlegt, muss eh das Backup herhalten. Und ich kenne keine Malware die das schafft. Sollte es das Betriebssystem zerlegen, muss man eben die Partition formatieren und neuinstallieren. Meiner Meinung nach sollte man sowieso nichts an Nutzdaten auf der Systempartition haben, da man unabhängig ob Raid oder nicht, diese immer bedenkenlos löschen können sollte.
Und ich habe jetzt schon öfters geschrieben dass man bis auf die Sequentielle Leistung mit keinem Performancegewinn beim System rechnen darf und dass eine SSD hier als einzigstes Abhilfe schafft hab ich auch geschrieben (oder eben SSD Caching). Dein Bsp mit der Malware finde ich unwahrscheinlicher als ein HDD Ausfall, habe sehr selten mitbekommen dass ein Virus das System zerlegt und das war eher früher der Fall, mittlerweile ist man da ganz gut abgesichert. dafür liest man immer wieder von defekten HDDs...

---------- Beitrag hinzugefügt um 17:36 ---------- Vorheriger Beitrag war um 17:33 ----------

Ich denke mal da haben wir eben verschiende Auffassungen und sollten es dabei belassen, muss eben jeder für sich selbst entscheiden.
 
Hihi, und wir haben es ausführlich dargelegt.
Wie Du schon sagst: Man macht nicht täglich ein Backup, und dann kommt halt die Frage: Wie bekomme ich meine eigenen Dateien vom Raid5-Laufwerk.

Antwort: Danke Raid5, gar nicht.
 
Also sry, aber ich hab schon ewig nicht mehr mitbekommen wie einer sein Raid 5 zerlegt hat. Das letzte mal hab ich das bei ganz alten Athlon Systemen mitbekommen, weil hier beim übertakten die Southbridge mitübertaktet wurde, aber sonst kann ich mich da an nichts erinnern. Desweitern kann man auch immer noch irgendwo ne alte, herumliegende Platte nehmen, OS installieren und versuchen das Raid wieder herzurichten. Aber dieses Szenario ist sowieso so unwahrscheinlich, also ich weiß ja nicht. Viel wahrschnlicher ist dass mal eine HDD abkackt und wenn man dann kein Raid hatte, hat man nicht mal die geringste Chance an die Daten ran zu kommen, also versteh ich deine Begründungen einfach nicht.
 
Zuletzt bearbeitet:
Na also nachdem darfst doch nicht gehen. Ich mein schau doch mal wieviel Beiträge da dabei sind von non-Raid Platten wo die Partitionen fehlen, wo die Platte defekt ist oder sonst was. Dann sind da noch die Spezialisten wo meinen sie ihr Datengrab aus 2 2TB Platten im Raid 0 machen zu müssen. Dann sind da noch die wo zusätzlich verschlüsselt haben und damit etwas verkackt haben usw... Und was sind die meisten Beiträge? Defekte Platten! Da hab ich dann doch lieber ein Raid.
 
Sry, aber absolut nichts aussagend, jetzt gehen wir mal hin und suchen die Probleme aus 2010 zusammen die mit non-Raid Platten zu tun haben und einigen uns darauf dass man HDDs im allgemeinen gar nicht benützen darf. Somit empfehle ich Bandlaufwerke. :)
 
Hehe, genau so nichtssagend wie "ich hab schon ewig nix mehr von einem zerlegten Raid5 gehört".^^
Nur das es halt zeigt dass es da tatsächlich noch Leute gibt die ihr Raid zerlegen und kein Backup haben. (Wo wir beide ja inzwischen festgestellt haben das es ohne gar nicht geht^^).
 
Zuletzt bearbeitet:
Hi

es ist wie hisn sagt, aufwand gewinn usw. ist bei einem raid 5 als os "sinlos",
max perforance ist mit ner ssd weit besser, dann kannst du für das restsystem
"daten" dein raid nutzen.

lg
 
.... Und der Casual-User stellt die Stripsize so groß ein dass die nicht mal über das Raid verteilt werden sondern auf einer Platte zu liegen kommen und damit nicht mal den Geschwindigkeits-Schub durch das Stripen mitbekommen...

diese darstellung, dass das striping an und für sich oder ohne weiteres zu einem performance gewinn führen soll, ist nicht richtig.
Angenommen es liegt nur ein host commando an und dieses commando müsste aus irgendwelchen gründen (ich gehe weiter unten darauf ein) zwei laufwerke in anspruch nehmen (da die daten, auf die sich das commando bezieht wegen striping auf zwei laufwerke verteilt sind) und jedes laufwerk könnte 100 iops liefern, das array aus zwei laufwerken also im optimalfall 200 iops.
Dann liefert dieses array aber in diesem fall nicht die optimalen 200 iops, sondern lediglich die leistung, die auch schon ein laufwerk alleine liefert, nämlich 100 iops.
Das liegt daran, dass dieses host commando in diesem fall dummerweise 2 laufwerke beanspruchen muss. Und auch wenn das array grösser wäre, zb.
8 laufwerke, würde das in diesem fall keinen unterschied machen, denn die queue, so hatten wir angenommen, war nur 1 commando tief. Es fehlen daher die host commandos um weitere laufwerke anzusprechen.
Das heisst also, wenn ein host commando zwei gestripte laufwerke ansprechen muss, dann summiert sich die Leistung der beiden laufwerke keineswegs.
Manchmal wird auch geglaubt, dass sich eine summierung der leistung der an einem stripe array beteiligten platten sich dadurch ergebe, dass die auf die platten verteilten datenteile ja parallel übertragen werden könnten, also wenn man zb. über 8 platten ideal verteilte daten annimmt, jede platte ja nur 1/8
der arbeit zu leisten habe und da dies gleichzeitig stattfinde, das 8-array im idealfall 8mal schneller arbeiten müsse.
Das ist ebensowenig richtig. Denn, zwar kann die übertragung zum host parallel stattfinden, aber das entscheidene ist hier nicht die übertragung, sondern die suche der platte nach den datenteilen. Hdds sind die meiste zeit mit datensuche (seek) beschäftigt. Ein host commando, das etwa 8 gestripte platten für die suche nach datenteilen in anspruch nehmen müsste, wäre eine io-katatrophe.
Das striping wird für das pooling der platten benötigt und die summierung der einzelplatten-leistung rührt nicht vom striping her (im gegenteil), sondern davon dass ausreichend host commands in der queue anliegen derart, dass
alle platten ihre leistung liefern können.

Daher gilt im allgemeinen für die raid-5 stripe size: je grösser desto besser
kleinere stripe sizes können in seltenen Einzelfällen helfen, aber wenn sie zu klein sind, leidet die performance. Das erklärt sich folgendermassen:

Für zufällige lesevorgänge von zb. 4KB grösse bei einem 8-drive raid-5 mit einer os queue tiefe von 64 gilt, wenn jedes der laufwerke 100 iops liefern kann:
wenn die stripe size der laufwerke sehr gross ist, etwa 256KB oder grösser, also jedenfalls gross genug derart, dass jedes host commando vollständig in einen stripe fällt, dann wird jedes laufwerk die hostanforderungen mit den
vollen 100 iops, die jedem einzelnen laufwerk möglich sind, bedienen.
Für das array summiert sich das, da die queue tief genug ist um ständig alle 8 laufwerke des arrays zu beschäftigen, auf volle 800 iops.

Wenn dagegen die stripe size klein ist, zb. 8KB, dann passiert folgendes, wenn wiederum 4KB zufällige lesevorgänge stattfinden.
Zufällig bedeutet, dass der lesevorgang bei jedem offset innerhalb des 8KB stripes eines laufwerkes beginnen kann. Da ein 8KB stripe 16 verschiedene offsets kennt (2 pro KB), kann ein (4KB-)lesevorgang an 16 verschiedenen positionen innerhalb des stripes eines laufwerkes beginnen. Aber nur für die 9 ersten Beginnpositionen passen die zu lesenden 4KB Daten noch auf den stripe desselben laufwerkes. Ab der zehnten offset position passt das 4KB grosse datum nicht mehr ganz auf den 8KB stripe desselben laufwerks. Der 0,5KB grosse Rest muss vom zweiten laufwerk des arrays gelesen werden. An der elften Beginnposition passen nur noch 3 von 4 (zu lesenden) KB auf den stripe des ersten laufwerkes, der rest von 1KB befindet sich auf dem zweiten laufwerk. Und an der sechzehnten position passt nur noch 0,5 kB auf den stripe des ersten laufwerks, der rest von 3,5KB muss vom stripe des zweiten laufwerks gelesen werden.
Das bedeutet, wenn jedes host commando zwei laufwerke lesend in anspruch nähme, dann würde die iops rate von maximal möglichen 800 auf 400 iops fallen. In dem geschilderten fall (8KB stripe, 4KB random read) fällt die rate
auf (9 / 16 * 800) + (7 / 16 * 400) = 625 iops.
Denn bei 9 von 16 möglichen offsets des lesebeginns wird, da nur ein laufwerk, das 100 iops liefern kann, beansprucht für das anstehende host command. Da, wie angenommen, die queue aber tief genug ist (64 host commands), wird nicht nur ein laufwerk beschäftigt, sondern alle 8 des arrays.
Bei 7 von 16 offset positionen müssen aber zwei laufwerke für ein host command beansprucht werden. Also sinkt bei 7 von 16 möglichen offsets die iops rate auf die hälfte, nämlich 400. Ergibt gewogen 625 iops gesamt.
Womit erwiesen ist, dass zu kleine stripes zu performance einbussen führen.
 
Desweiteren kommt doch hinzu, dass bei kleinen Stripes die seek-time in die Höhe schnellt, da bei einer höheren queue-depth die Platten nur noch damit beschäftigt sind den Lesekopf auf die entsprechenden Stripes auszurichten. Da die kleinen Stripes sehr schnell gelesen sind bleibt der nächsten Platte (bzw Host-command) keine Zeit sich rechtzeitig auszurichten. Oder?

Meine Behauptungen dass kein Performancegewinn vorhanden ist bezieht sich natürlich auf diesen speziellen Fall hier > OS + Media Dateien. Hier hat man nur den Vorteil der sequentiellen Leistung > einlesen goßer Dateien bzw sichern großer Dateien. Bei einer großen Datenbank mit vielen kleinen, verteilten Dateien bei vielen gleichzeitig Anfragen hingegen hat man erst den richtigen Vorteil eines Raids.
Bei einem SSD-Raid hingegen hätte auch das OS bessere performance bei kleinen Stripes (4 oder 8k). Da aber hier der Controller bzw CPU die Geschwindigkeit limitieren geht der Vorteil derzeit leider wieder flöten.
 
Zuletzt bearbeitet:
Also ich glaube, ich muss hier mal was richtigstellen und zwar, dass ich das Raid nicht wegen dem Leistungsschub möchte, sondern eben wegen der Redundanz.

Zum Thema SSDs möchte ich auch etwas anmerken:

Ich habe mir, vor einiger Zeit, eine SSD mit Indilinx Barefoot (Supertalent FTM64GX25H) gekauft. Obwohl meine bisher keine Probleme hatte (hab immer bei Erscheinen die jeweils aktuelle Firmware geflasht (mit ner BartPE aus ner Windows Server 2003), insgesamt 5 mal!), hab ich ja mitbekommen (lese viel mit in Foren), wie die Dinger (auch Vertex 1 etc..) reihenweise bei den Usern abgekackt sind (mit den ersten Firmware-Versionen konnte es vorkommen, dass alles normal läuft und die SSD dann beim nächsten Boot nicht mehr erkannt wurde -> RMA -> Stress). Auch bei heutigen (Consumer-)SSDs sieht es da keinen Deut besser aus (ich erwähne hier beispielsweise mal die aktuellen Firmware-Probleme der Intel 310 und die 6MB/s-TBW-Schranke des Sandforce 2281, oder etwas früher die Probleme in der Startphase des ersten Sandforce; von TRIM/GC und Schreibzyklen fang ich gar nicht erst an).
Enterprise SSDs mit SLC ob als Steckkarte oder nicht, sind für den Normalmenschen unbezahlbar.
Meiner Meinung nach (!) sind HDDs der untersten Enterprise-Ebene bzw. für Workstations (wie den REs von WD) um einiges ausfallsicherer als heutige SSDs die (wieder meiner Meinung nach) eh nur dazu gedacht sind an ihren Käufern getestet zu werden, bis die Hersteller glauben, dass die Controller-Firmware stabil genug für den Enterprise Markt ist und dann ihre dortige Linie rausbringen.


Um zum Thread Thema zurückzukommen:

Eigentlich möchte ich nur eins wissen:

Was macht mehr Sinn für ein Array, auf dem sowohl das OS als auch Daten liegen (natürlich auf verschiedenen Partitionen): 2 * 2TB RAID-1 oder 3 * 1TB RAID-5 oder 4 * 1TB RAID-10.
 
Die genannten SSD-Probleme waren ein Grund warum ich mir eine SLC-SSD geholt habe. Trotz allem würd ich mich von den Problemen nicht allzu verrückt machen, es gibt gute, bezahlbare und zuverlässige SSDs. Gerade Intel liegt weit unter den Rücklaufquoten von HDDs. Indilinx und Sandforce (hier vorallem OCZ) haben meiner Meinung nach viel zu dem schlechtem SSD Image beigetragen.

Meine persönliche Empfehlung wäre ja diese (OS von den restlichen Daten zu trennen und auf eine SSD (oder HDD wenn SSD gar nicht in Frage kommt) auszulagern ist immer gut):
- Eine Intel x25-m G2 (wohl mittlerweile die zuverlässigste Mainstream SSD, leider aber kaum noch zu einem vernünftigen Preis zu bekommen) oder eine Intel 320 (die meintest du wohl, hier vllt warten bis das Firmwareupdate raus kommt, dann ist sie sicher auch ein zuverlässiger Partner) oder eine Crucial m4 (auch unkompliziert und zuverlässig). Noch zu den Schreibzyklen, das ist (war) kein Problem, die Flashzellen halten ewig in normalen PCs.
- 3x 1TB Raid 5 für Daten
- 1x 1-2TB für Backup (die dann auch nur fürs Backup an den PC gehängt wird)
Diese Zusammenstellung würde in Richtung sorgenfreies System gehen.

Da das Ganze natürlich nicht billig ist, würde meine zweite Empfehlung eher in diese Richtung gehen:
- Eventuell eine der genannten SSDs
- 2x 1-2TB HDD Raid 1 für Daten (je nach dem auch für OS)
- Eine 1TB HDD für Backup (die dann auch nur fürs Backup an den PC gehängt wird)

---------- Beitrag hinzugefügt um 22:45 ---------- Vorheriger Beitrag war um 22:43 ----------

Ob Raid 5 oder 1 für OS und Daten macht von der Redundanz her ja keinen Unterschied.

---------- Beitrag hinzugefügt um 22:52 ---------- Vorheriger Beitrag war um 22:43 ----------

Oder eben eine SSD + eine Daten HDD + eine Backup HDD.
 
@all: Danke für eure Ausführungen. Ich finde den Thread mittlerweile sehr interessant *g*

@Poddy: Jap, ich hab die die Intel 320 gemeint :).

Nachtrag: Denke, SSDs können schon Sinn machen, bspw. in Laptops oder wenn es wirklich stark auf IOPS oder hohe sequentielle Leistung ankommt.


Und: Backup wird sowieso gemacht.


Sind folgende Annahmen richtig (für ein Raid auf dem sowohl OS als auch Daten liegen (verschiedene Partitionen))?

-> Raid-1 mit 2 2TB-Platten:
- beim Crash einer Platte: Könnte ich (wenn unbedingt nötig), eine neue Platte bestellen, einfach weiterarbeiten und wenn die neue Platte ankommt das Raid-1 wieder herstellen?
- im Betrieb: Gleiche Kapazität wie bei nur einer Platte, identische Schreibleistung, doppelte Leseleistung?

-> Raid-5 mit 3 1TB-Platten:
- beim Crash einer Platte: Könnte ich (wenn unbedingt nötig), eine neue Platte bestellen, einfach weiterarbeiten und wenn die neue Platte ankommt das Raid-5 wieder herstellen?
- im Betrieb: 2TB Kapazität, Schreibleistung > Raid-1, Leseleistung > Raid-1?

-> Raid-5 mit 4 1TB-Platten:
- beim Crash einer Platte: Könnte ich (wenn unbedingt nötig), eine neue Platte bestellen, einfach weiterarbeiten und wenn die neue Platte ankommt das Raid-5 wieder herstellen?
- im Betrieb: 3TB Kapazität, Raid-10 > Schreibleistung > Raid-1, Raid-10 > Leseleistung > Raid-1?

-> Raid-10 mit 4 1TB-Platten:
- beim Crash einer Platte: keine Ahnung! ?
- im Betrieb: 2TB Kapazität, doppelte Schreibleistung, vierfache Leseleistung?

Wie stark leidet die Zugriffszeit?*

Edit: Also ich will eigentlich nur wissen ob Obiges "grob über den Daumen gepeilt" zutrifft.
Edit2: Hab einiges im Post geändert
Edit3: *
 
Zuletzt bearbeitet:
Ok, "Backup wird sowieso gemacht", das war mir wichtig, es kam so rüber als wolltest du darauf verzichten und dafür ein Raid machen.

1. Annahme Raid1: alles richtig bis auf doppelte Leseleitung. Leseleistung geht nur bei kleinen Dateien ein kleines Bisschen nach oben, da auf zwei Platten gleichzeitig zugegriffen werden kann.

2.Annahme Raid5: alles richtig, bis auf Lese-/ Schreibleistung. Bei großen Dateien verdoppelt sich beides annähernd. Bei kleinen Dateien fällt es etwas unter die Leistung einer einzelnen Platte, davon wirst im Betrieb aber wohl nichts merken.

3.Annahme Raid 10: es können sogar 2 Platten ausfallen, was ja aber eher unwahrscheinlich ist. Aber es dürfen dann nur die 2 richtigen Platten gleichzeitig ausfallen, denn ein Raid 10 besteht aus 2 Raid 1 Arrays welche als Raid 0 zusammengefasst sind. Sprich aus den 2 enthaltenen Raid 1 Arrays darf jeweils eine Platte ausfallen und du kannst trotdem weiter arbeiten. Hier hast du auch annähernd doppelte Schreib und Leseleistung und zugleich steigt auch beides bei kleinen Dateizugriffen an. Sprich Performance wäre hier am besten, aber wirklich viel wirst du wahrscheinlich nicht davon merken und du verschenkst den Speicherplatz von 2 Platten.
 
Zuletzt bearbeitet:
@Poddy: Danke, dass du immer so geduldig meine Fragen beantwortest!
Weil ich in meinem letzten Post noch nachträglich ziemlich viel geändert habe, glaube ich du beziehst dich mit "2.Annahme" auf "Raid-5 mit 3 1TB-Platten".
Wenn ich ein Raid-5 mit 4 1TB-Platten mache, liegt dann die Lese-/Schreibleistung bei kleinen Dateien wieder auf dem Niveau einer einzelnen Platte? Lohnt es sich, dafür noch eine Platte anzuschaffen?

Wegen Raid-10: Hab nochmal drüber nachgedacht. Hat man bei 4 * 1TB wirklich 2TB Kapazität? Irgendwie müsste das doch nur 1TB Kapazität geben?


Also 1TB-RE4s(WD1003FBYX) kosten bei geizhals jeweils 72,17€ (billigster Preis), 2TB-RE4s(WD2003FYYS) sind jeweils bei 141€ (billigster Preis).
Also kommt es preislich fast gleich teuer, ob ich 4 * 1TB kaufe oder 2 *2TB.

Was würdest du empfehlen?
1. Ein Raid-1 aus 2 2TB RE4s (Kapazität 2TB).
oder
2. Ein Raid-5 aus 3 1TB RE4s (Kapazität 2TB).
oder
3. Ein Raid-5 aus 4 1TB RE4s (Kapazität 3TB).

Edit: Schreibfehler
Edit2: Kapazität hinzugefügt
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh