[Sammelthread] Areca RAID-Controller (PCIe)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
die frage ist doch zu welchem preis, der onboard es schafft. (cpu last)
ein areca entlastet die cpu. daher, je schneller der areca ist, desto teurer. (wobei schnell meist auch mit mehr anschlüssen einher geht)
vllt. einen zu kleinen im auge?
ein areca hat cache, der ICH nicht...
das sind alles aspekte die man bedenken muss.
 
Zuletzt bearbeitet:
die frage ist doch zu welchem preis, der onboard es schafft. (cpu last)
ein areca entlastet die cpu. daher, je schneller der areca ist, desto teurer. (wobei schnell meist auch mit mehr anschlüssen einher geht)
vllt. einen zu kleinen im auge?
ein areca hat cache, der ICH nicht...
das sind alles aspekte die man bedenken muss.

Hm...naja ich hab den 1210 im Auge, der für 2-3 SSDs ja ausreichen sollte
Bloß etwas ärgerlich, das man z.B. die Speed von 2x X25-SSDs schon nicht mehr nutzen könnte weil er bei 400MB/s limitiert..und mehr als 250€ wollt ich nicht ausgeben für nen Controller :(

Ob man da lieber einen RocketR 3510 kaufen sollte? Aber der war ja glaube in sachen Ranom A. nichtso prall^^
 
Zuletzt bearbeitet:
Kurze Frage:

Habe eine X25-E an meinem P35-Board. Kann ich an einem ARC-1212 eine noch höhere Leistung erzielen (kein Raid, nur diese SSD)?
 
Die Schreibleistung könnte noch etwas (aber unwesentlich) besser werden.
Spürbar mehr bringt es bei schreibschwachen SSDs.

Aber den 1212 würde ich für SSDs nicht nehmen (siehe weiter oben).
 
An alle IOP341-User

Hab seit vorgestern mein Raid 5 (4 HDDs) am ARC-1261D-ML (vorher ARC-1210), weil ich das Array auf Raid 6 + 1GB mehr erweitern will.
Bevor ich die Erweiterung auf Raid 6 machen wollte hab ich einen Volume Check gemacht.
Beim ARC-1210 wusste ich, dass ein kompletter Check immer so ca. 3:15h dauerte (bei keinem Zugriff auf´s Array). Am ARC-1261 dauerte der Check beim gleichen Array ca. 21h. :confused:
Ist das normal bei IOP341-Controllern? Ist der Check da vielleicht intensiver?

Wie schon geschrieben, ausser dem Volume Check hat nichts anderes auf das Array zugegriffen.
Vom ARC-1210 weiss ich auch, dass ein Check um die 7h dauerte, wenn auf das Array irgendwas zugriff. Aber 21h???
 
Zuletzt bearbeitet:
Zeitlich kommt das schon hin, viel Spass bei der Migration von Raid5 auf 6, das daaaauuuuueeerrrrrttt :d

Check/Rebuild dauert bei mir auch so lange, keine Ahnung warum der kleine Controller da soviel schneller ist...
 
Zuletzt bearbeitet:
Na dann ist ja gut *grml*

Was für eine Stripesize hast du bei Raid 6?
Bin jetzt nicht so der Raid-Profi bei Arrays mit vielen HDDs.
Hängt die Wahl der Stripesize nicht auch von der Anzahl der HDDs ab?

edit:
Hab das dazu gefunden.

http://www.tomshardware.com/de/RAID-Stripes-Blockgrosse,testberichte-239896-8.html

edit:
Die Migration von Raid 5 zu 6 läuft gerade.
Sieht jetzt nicht danach aus, als würde es richtig lange dauern.
Hochgerechnet müsste es bei 5,5 - 6h fertig sein. :)
 
Zuletzt bearbeitet:
An alle IOP341-User
...
Beim ARC-1210 wusste ich, dass ein kompletter Check immer so ca. 3:15h dauerte (bei keinem Zugriff auf´s Array). Am ARC-1261 dauerte der Check beim gleichen Array ca. 21h. :confused:
Ist das normal bei IOP341-Controllern? Ist der Check da vielleicht intensiver?
... Aber 21h???

du kannst die priorität umbalancieren. vllt. bringt das etwas.
 
Als ob ich das nicht wüsste ;)
Bringt aber nur etwas, wenn neben einem Check oder Migration noch was auf das Array zu greift. Wenn nichts darauf zugreift ist der Unterschied zwischen Ultra Low Priority (5%) und High (80%) gleich null. Ist zumindest beim ARC-1210 so.
 
Ich hab von 8x1,5TB Raid6 auf 9x1,5TB Raid6 ca. 56 Stunden warten müssen. Danach folgte automatisch ein Rebuild und eine neu Initialisierung des zusätzlichen Speicherplatzes nach Anpassung des Volume Sets.
Insgesamt so um die 72 Stunden schätze ich.



Was Raid angeht bitte keine Links von THG posten, da waren in der Vergangenheit öfters mal Fehler in den Artikeln.
Ich hab eine 128er Stripe Size weil id.r. nur große Files drauf liegen. Ich würde auch 256 nehmen aber das wird nicht unterstützt. Mit der Größe des Raids hat die Stripe Size nix zu tun, nur mit der größe der Dateien die gespeichert werden sollen.
 
Zuletzt bearbeitet:
Rebuild und Ini geht bei dir automatisch?
Hast du eine Batchdatei dafür geschrieben?

Ob eine 100kb-Datei auf 2 oder 8 HDDs liegt ist ja schon ein Unterschied.
Bei 2 HDDs und Stripesize 64k wären das 2 Teile bei 8 HDDs doch auch, oder nicht?
Da wären 16k mit 8 HDDs für die 100kb-Datei doch besser.

Oder lieg ich da völlig falsch?
 
Nur Rebuild geht automatisch, hat er direkt als die Migration fertig war gestartet. War auch kein Zufall da ich schon 2x Migriert habe und es immer so war.

Die Stripe-Size bezeichnet die Größe des aus einem oder mehreren Datenblöcken bestehenden Datenbereichs (Striping-Granularität), der auf die RAID-Speichermedien verteilt wird. So wird bei einem aus vier Festplatten bestehenden Array mit einer Stripe-Size von 64 kB ein Datenblock in einer Größe von 16 kB auf jede Festplatte geschrieben. Bei einer Vergrößerung der Stripe-Size wächst der maximale Durchsatz, gleichzeitig erhöht sich aber die Zugriffszeit. Heute üblich sind Stripe-Größen von 2 kB bis 256 kB.

Quelle: http://de.wikipedia.org/wiki/RAID
 
Naja, mom. hab ich noch 3TB netto.
Von 4 auf 5 HDDs ist auch anders als von 8 auf 9 HDDs.

Wobei...
Mit sovielen HDDs müsste doch auch die Perf. beim Rebuilden und Migrieren steigen, oder?
 
ne das es länger dauert je mehr HDDs es sich macht für mich schon Sinn, die Parität muss ja neu berechnet und auf jede Platte verteilt werden ohne das die Daten verloren gehen (Migration)

Mir ist gerade noch was aufgefallen:
"Auto Activate Incomplete Raid" hab ich bei mir "enabled"
Denke mal das das dafür verantwortlich ist das direkt nen Rebuild oder Init gestartet wird... kA
 
Aha - das isses... ;)

Was hast du bei "Volume Data Read Ahead" eingestellt? Standard ist ja "Normal"
Und funktioniert bei dir "Spin Down Idle HDD"?
 
Hab dort "normal" gelassen und was anderes noch nicht getestet.

Spin Down Idle ist bei mir aus, sobald ich aufs Raid zugreife müssen eh alle Platten laufen.
 
Hab mich auch noch nicht getraut auf "Aggressive" zu stellen.

Ist dein Array noch zusätzlich woanders gesichtert?
Ich überlege, ob ich dieses Raid zusätzlich noch sichere. Weiss nur noch nicht wie!?

Entweder per NAS mit "Thecus 5200 Pro" oder aber die noch 6 freien Ports am Areca ARC-1261D-ML nutzen.
 
Ich hab davon kein komplettes Backup, nur von den Sachen die wirklich wichtig sind und das läuft via Acronis auf ne externe 1TB HDD.

Wenn voll Backup dann auf jedenfall NAS da mir das im gleichen System und vllt sogar noch am gleichen Controller zu unsicher wäre.

Bei Virus, defektem Controller oder Überspannung wären dann alle Daten in Gefahr, auch das Backup.
 
jo, ich habe zeitweise auch noch eine externe 1 gb e-sata festplatte dran.
genau wegen der möglichen überspannungen, die entstehen können, wenn ein
netzteil sich nicht mehr richtig reguliert. die 220 volt leitung ist durch usv gesichert.
sicher ist sicher :-)
 
1 gb...? :d sorry ;) konnts mir nicht verkneifen; oder stimmt das...?
 
@ gnaa

Scheinbar dauerte der Volume Check nur beim ersten mal solange auf dem 1261.
Der 2. Check @ Low Priority 20% + null sonstige Zugriffe (ca. 3:15 wie beim 1210)... :)

Complete Check 003:13:09
 
Zuletzt bearbeitet:
:d könnt man jetzt näher analysieren; aber lieber nicht den netten thread verschandeln; verfolg ihn schon länger; scheinen ganz nette controller zu sein. überlege schon länger, wieder einen 4-8 port (aber eher 8) hw-raid controller zu kaufen...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh