[Sammelthread] Areca RAID-Controller (PCIe)

Status
Für weitere Antworten geschlossen.
Hallo,
ich besitze das NZXT-Whisper, aber kann es nur bedingt empfehlen.
Verbaut ist u.a. eine 250er Sys. HDD + 8x Spinpoint F1 (HD103UJ).
Das Gehäuse brummt bei laufenden Platten stärker als mein Lian Li und Chieftec Tower.
Ausserdem werden die Festplatten im linken und mittleren Käfig um einiges heisser, als die in der Front.
Zudem sollte man sich für den Mobo und CPU Stecker vom NT noch ne verlängerung besorgen.
Für den Preis ist es aber in ordnung.

Werden die auch so warm, wenn das Gehäuse mit Lüfter voll bestückt ist?

btw: wieviel ist "um einiges heißer"? immer noch unter 40°C?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo, leider erneut noch einmal die Frage, weiss jemand, wohin man sich in good old Germany wenden kann, bei Defekt eines 1220ML ?

Gracie
 
Hallo, leider erneut noch einmal die Frage, weiss jemand, wohin man sich in good old Germany wenden kann, bei Defekt eines 1220ML ?

Gracie

Ich weiß nicht ob die Dir DIREKT helfen können, aber sicherlich werden die einen Kontakt herstellen können: http://www.server-bau.de/

Ist in Langenfeld (NRW) bei Düsseldorf. Dort hatte ich meinen 1220 damals (Anfang des Jahres) gekauft. Sind auch sehr nett dort.

Viel Glück! :)
 
hi leute

kann bitte jemand einen lauf von Crystaldiskmark mit Intel Postville am Areca machen ?

ich will einfach als Vergleich mein Onboard Controller nehmen.
 
Werden die auch so warm, wenn das Gehäuse mit Lüfter voll bestückt ist?

btw: wieviel ist "um einiges heißer"? immer noch unter 40°C?

Ich hab leider keine keine Bilder gemacht, aber es wurden die beiden unteren Platten ca. 5°C wärmer, die oberen ca. 10°C.
(Im vergleich zu denen hinter dem 140er Frontlüfter)
Beim Lüfter hab ich die 4 blauen LED abgezwickt, und alle auf 5V gedrosselt.
Die beiden kleinen Käfige hab ich entfernt, und stattdessen einen Scythe Hard Disk Stabilizer x4 in die 5 1/4" Schächte verbaut. Jetzt sind alle 8 Platten bis auf 2 Grad identisch.
Aktuell nach ner haben Stunde Idle bei 19° Raumtemp. zeigt mir der Hardware Monitor zwischen 22 und 25 Grad an.
(Beim einbau in die Käfige wurden beim Initialisieren glaub ich bis zu 48°C bei den beiden oberen Platten angezeigt )
 
Zwischen den Käfigen ist ja noch Platz. Hätte es was gebracht wor die hinteren Käfige Lüfter zu bauen? Normal müsste das was bringen.
 
Guten Abend leute.

Ich weiss zwar nicht genau ob das erlaubt ist, dass ich das hier hinschreibe:confused:

Aber bei e.b.ay wird im moment ein ARC-1261ML inkl. BBU angeboten

artikelnummer 320429083698

vielleicht kann da jemand von euch ein schnäppchen machen:coolblue:


Nein das angebot ist nicht von mir, sollte dieser post nicht erlaubt sein dann einfach löschen.
 
Zuletzt bearbeitet:
Ich hatte nen dünneren 80er Lüfter an den mittleren Käfig geschraubt, was auch geholfen hat.
Da der Rechner aber zum BD abspielen dient, ist mir die Lautstärke sehr wichtig.
Wenn man die Lüfter auf 5V drosselt sind sie nicht mehr zu höhren, aber der Luftstrom bringt die warme Luft welche sich unter dem Zwischenboden sammelt nicht aus dem Gehäuse.
Falls die Lautstärke keine so grosse rolle spielt, sollte es aber mit einem zusätzlichen 120er Lüfter auch funktionieren.
Jedoch sind die obersten Platten wegen dem geringen abstand nach oben immer ein wenig wärmer.
Mit mehr als 8 Festplatten wird es schwierig, leise, kühl und günstig zu vereinen.
Bis jetzt hab ich aber noch nichts besseres gefunden, was bis zu 200€ mehrpreis rechtfertigt. (z.b. Lian Li PC-A77B, PC-V2110)
Am besten einfach Bestellen und ausprobieren!
 
Guten Abend leute.

Ich weiss zwar nicht genau ob das erlaubt ist, dass ich das hier hinschreibe:confused:

Aber bei e.b.ay wird im moment ein ARC-1261ML inkl. BBU angeboten

artikelnummer 320429083698

vielleicht kann da jemand von euch ein schnäppchen machen:coolblue:


Nein das angebot ist nicht von mir, sollte dieser post nicht erlaubt sein dann einfach löschen.

der Preis steigt sich noch in die höhe

hi leute

kann bitte jemand einen lauf von Crystaldiskmark mit Intel Postville am Areca machen ?

ich will einfach als Vergleich mein Onboard Controller nehmen.

niemand mit so einer config ?
 
Zuletzt bearbeitet:
Knapp 420€ inkl Versand .. ich war nicht der Glückliche .. werde meinen Percs vorerst treu bleiben, obwohl der Areca sehr sehr verlockend war :d
 
hi leute

kann bitte jemand einen lauf von crystaldiskmark mit intel postville am areca machen ?

Ich will einfach als vergleich mein onboard controller nehmen.

Hallo,

ich habe mal CrystalDiskMark bei mir laufen lassen. Ich würde mich mit der Interpretation schwer tun. Die Intel X25-M G2 160GB ist seit dem 20.08.09 im 24/7 Einsatz (Systemplatte am Areca ARC1680ix-8 als Pass-Through)







Ich bekomme morgen meine 2. Intel. Wenn Du Interesse hast, kann ich die jeweils am Gigabyte EX58 und am ARECA benchen.
 
Hallo,

bin eben hier reingestolpert. Bin von den Meisterkühlern hierher verwiesen worden ;-)
Ich gebe zu, ich habe nicht alle vorigen x Seiten gelesen.

Ich habe seit Montag einen 1231ML und betreibe (hust) 4x WD15EADS--00P8B0 daran. Aufgesetzt als Raid 5 mit ner 64KB Stripesize und der Firmware 1.47 (derzeit letzte Fassung) läuft mein Initialize nun schon bald 120 Stunden!
TLER ist aktiviert, ansonsten nichts gefummelt. Der Controller selbst ist nach meinen Erfahrungen richtig konfiguriert. Ich habe zwischendurch mal versucht auf SATA150/300 mit und ohne NCQ zu gehen, um bessere Leistung zu bekommen, aber hat nichts geholfen.
Das Array selbst wurde im BIOS Tool mit Quick Create erstellt, sollte aber keinen Unterschied machen. Es gibt da einen Kollegen im MK Forum, bei dem die Inits mit RE2 Platten in weniger als einem Tag durchlaufen. Zugegeben an einem 3Ware Ctrl.
Platten werden mit guten Smart Werten und fehlerfrei vom Controller angezeigt.

Nun, auch wenn mir das nun recht wenig hilft, und die 0,1% in 20 Minuten hier durchdümpeln, so möchte ich gerne fragen, wie schnell denn bei Euch die Inits durchlaufen. Dabei interessieren nur R5 oder R6.
Bitte auch mitteilen: welche HDD (Type), Controller, Für Euch wesentliche Settings, ggf auch Rebuild Erfahrungen bei ausgefallenen Drives.

Vielen Dank schonmal.
Gruß.

Edit:
Controller Task Prio auf 80%, sonst alles auf Default Werten.
 
Zuletzt bearbeitet:
definitiv nicht normal. Meine 1,5TB Samsungs im 6er Verbund als R6 haben vielleicht 8 Std. gebraucht, und das im Background-Init.
Vielleicht brichst du das mal ab, und testest mal jede Disk als Passthrough-disk, ob vielleicht ein schwarzes Schaf darunter ist, das die ganze Herde bremst.

Vielleicht ist es ja nur ein Kabelkontaktproblem, wer weiß.
 
Supi, das ist doch mal zumindest eine Größenordnung!
Ich frage mich jetzt ob ich das so kurz vor Schluß wirklich machen sollte.... abbrechen...
Ich hatte nicht erwähnt, dass die Platten in einer Adaptec Raid Box (wie sie früher mit den 2410ern verkauft wurden) stecken. Könnte das ein Problem sein?

Danke.

---------- Beitrag hinzugefügt um 19:47 ---------- Vorheriger Beitrag war um 18:26 ----------

Also, habe es nun doch unterbrochen, Platten aus der Backplane genommen und einzeln angebunden. Für nen WD Disktest hatte ich nun keinen Nerv mehr, habe dafür ne Menge andere Sachen am Areca ausgetestet.
Fazit: ganz egal wie groß, wie klein das Volume, welche Settings auch immer. Sobald ich Background Init wähle, wird das so langsam --reproduzierbar! Habe letztlich Foreground gewählt und siehe da... es flitzt. Jedenfalls im Vergleich zu vorher. Zu Anfang sind es nun etwa 3% Fortschritt in unter 10 Min. So sollte der Init also in unter 5h fertig sein.
Es könnte sein, dass dies eines der seltsamen Phänomene ist, die man nicht verstehen muss (kann)....?! Areca selbst berichtet ja in der Compatibility List durchaus von "von Usern beobachteten, bei uns nicht reproduzierbaren Problemen."
Wie dem auch sei, für den Augenblick zählt für mich nur, dass der Init _erheblich_ schneller läuft, und ich morgen alles ins eigentliche Case setzen kann und testweise Daten aufspielen. Da warten schon knapp 2TB auf USB Drives.

Warum nur hatte ich mich nicht getraut, das abzubrechen... naja, die Hoffnung stirbt zuletzt, ne?
Mir grausts dennoch vor nem Rebuild.... wenn der dann genauso murksig abläuft wie der Background Init? Soltle ich unbedingt mal antesten.

Gute Nacht und schönen Sonntag,
Micha
 
Du kannst unter System Controls/System Config den Wert "Background Task Priority" einstellen. Wenn der auf 5% eingestellt ist, geht das im Background natürlich entsprechend langsam.
 
Du kannst unter System Controls/System Config den Wert "Background Task Priority" einstellen. Wenn der auf 5% eingestellt ist, geht das im Background natürlich entsprechend langsam.

Ja, natürlich, DAS habe ich schon gewusst (RTFM und so...). Du wirst es kaum glauben, der Wert war von vorneherein von mir auf 80% gesetzt. Ich wollte ja schliesslich, dass der Init schnell durch ist.

Im Moment bin ich nun schon bei 29,7%, was dann wohl schon besser aussieht. Dennoch will ich einen Rebuild morgen mal antesten.

cu,
Micha
 
Mir grausts dennoch vor nem Rebuild.... wenn der dann genauso murksig abläuft wie der Background Init? Soltle ich unbedingt mal antesten.

Das Analogon Foreground/Background-Init ist bei einem Rebuild "Auto-Activate Incomplete Raidset" Ist dieser auf enabled, wird bei jeglichen Fehler, sei es Plattendefekt, Kabeldefekt, Stromkabel an HDD vergessen oder whatever, das RAID mit seiner Redundanzfunktion aktiviert und das RAIDset bekommt ein "Dirty-Flag",da die Redundanzdaten ja nicht mehr auf das fehlende Medium repliziert werden können.
Würde jetzt das fehlende Medium (neu oder alt) reingeschoben, würde ein Background-Rebuild angestossen werden.
Ist diese Option auf disabled, was ich jeden nur raten kann, der nicht die Hochverfügbarkeit brauch, ist bei einem Fehler das Raidset zwar "degraded", aber von jeden Zugriff geschützt. Würde das fehlende Medium jetzt angebunden werden (weil z.b. wirklich nur fehlender Strom die Ursache war) ist gar kein Rebuild notwendig, da das Raidset nicht dirty war. Sollte jetzt das Medium ausgetauscht werden, würde eine Foreground-Rebuild getriggert, die das Raidset erst nach dieser Aktion wieder zur Verfügung stellt.
 
Danke für diese exakte Erklärung, genau diese Darstellung kommt im Manual nämlich nicht wirklich rüber.

In der Zwischenzeit ist der Init nach 7h21m durch und ich werde weitere Tests machen.

Schönen Sonntag,
Micha
 
Servus!

Ich bräuchte mal Eure Hilfe :(

Mein Areca 1220 macht mich WAHNSINNIG!

Vor einiger Zeit (3 Wochen wohl her), hatte ich den RAID5 von 6x1TB auf 8x1TB aufgerüstet. Eine der beiden neuen Platten hatte einen Defekt (habe diese noch einmal manuell langsam formatiert). Dieser Platte hing an Port 7.

Gestern, nachdem ich nach ein paar Tagen mit 6x1TB gelebt hatte und den Controller nun aus Stromsparmaßnahmen (Abschaffung des Servers :() in die Workstation gebaut hatte, habe ich das folgende Schema verwendet:

- 3x 640GB WD Caviar Blue (300GB RAID5: Mac OS X / 300GB RAID5: Windows 7 / Rest noch frei)
- 5x 1TB WD Caviar Green (5000GB RAID5: Storage)

Bei der Storage Volume wird der Port 7 wieder mitverwendet. Gestern morgen schaltete ich den PC ein und wurde erstmal von einem ohrenbetäubenden gepiepe vom Areca richtig wach gemacht. HDD an Port 7 war nicht da. Hmm... Also Kabel mal getauscht und wieder gestartet, Hot Spare aus der "freien" Platte gemacht und nach ca. 8h war der Rebuild auch durch. Ich dachte: Ok - war das Kabel defekt.

Eben startete ich den PC und wieder fehlte die Platte an Port 7. Das kommt mir so langsam spanisch vor. Kann der Port selber defekt sein? Ist das schon einmal jemanden passiert?

Hatte bisher die mitgelieferten Kabel verwendet. Das Kabel am Port 7 ist nun ein herkömmliches SATA Kabel, was ja scheinbar das Problem nicht löste.

Ideen sind willkommen :-/

Ciao
Dennis
 
Servus,

hat sich für mich nun geklärt. Mein WD Green Platten sind lt. meinem Händler inkompatibel (hat er recht). Mit 6 Platten lief das prima - für ein halbes Jahr. Nunja.. neue Platten kann ich mir nicht leisten. Zu schade. Damit stelle ich den 1220 zum Verkauf (gleich in dem Biete/Suche Forum hier im Board).

Zu blöd :(
 
Hallo ...
Nachdem mir hier einiges an Hilfe zuteil wurde, möchte ich gerne nochmal ein Update meiner Erfahrungen geben.
Diese sind mittlerweile doch recht schlecht. Die WD15EADS sind definitiv zu langsam beim Schreiben. Es mag noch andere, weniger offensichtliche Schwierigkeiten geben (Signalprobleme zw Disk und Controller?). Ich will das mal beschreiben.
Die Platten selbst lassen sich fein anbinden, werden sauber erkannt. Also keine dropouts oder sowas. Laufen habe ich den 1231 unter Ubuntu 9.04, mit dem relativ aktuellen Standard-Treiber und der FW 1.47. Ein großes GPT Drive mit ext3. Auf den Drives ist TLER aktiviert und der Idle Timer auf max (25,5sec) gesetzt.

Nun, meine Probleme äußern sich so, dass wenn ich viele große Files am Stück schreibe, was fast ständig vorkommt, dann kommt es zu "Congestion"-Problemen. Die sehen so aus, dass der Cache des Controllers irgendwann voll ist (ebenso wie der Filecache des OS), und dann nur mit dem "wegschreiben" auf die Drives beschäftigt ist. Somit reagiert das System erst mal nicht mehr, und in den Kernel-Logs häufen sich dann timeout-fehler.
Nun, nach einiger Zeit habe ich dann wieder leeren Cache, oder einen Threshhold unterschritten, und die Schreibzugriffe gehen weiter. Das geht dann wieder auf unbestimmte Zeit gut. Je größer die Files, desto schneller tritt der Effekt auf. Bei Files um die 500-600MB dauert es deutlich länger, bis es zur Congestion kommt als bei Dateien über 1-2 GB.
Nach vielen Stunden Logauswertung, googlen und Settings durchtesten ist für mich das Fazit, dass die Platten zwar nicht unerhebliche Leseleistung bringen, aber beim Schreiben an diesem Controller einfach versagen.
Was ich en detail machte war unter anderem, die Queue-Depth anzupassen, alle disk i/o scheduler durchgetestet, die thresholds für cache dirty flags anders gesetzt etc etc.
Außerdem ein Drive mal als Pass-Through angebunden und die interessante Erfahrung gemacht, dass es zu ähnlichen Problmen kam. Eine alte WD3200SD hat das Phänomen in gleicher Konfiguration nicht gezeigt und schrieb am 1231 um die 100GB in knapp einer Stunde weg. Ohne den o.a. Schluckauf.
Egal übrigens, ob vom USB Drive, via Netz oder von passthrough-disk auf Raidset, der Fehler kam irgendwann immer.

Es mag nun sein, dass die Drives bei anderen Mitgliedern hier gut laufen. Das kann an vielem liegen, unter anderem an besserem Tuning, oder eben NTFS usw usw..

Ich jedenfalls bereue nun, die Seagates links liegen gelassen zu haben, nur weil ich bisher so gute Erfahrungen mit dem WD Support gemacht hatte. Okay, zugegeben, mir gefiel auch der Gedanke der geringen Stromaufnahme und der geringen Wärmeabgabe.
Ich freue mich für jeden, bei dem die Drives gut funktionieren, möchte aber davor warnen, wegen ein paar Euro Sparen, Gefahr zu laufen, die selben Erkenntnisse zu machen, wie ich.

Ich werde nun noch ein wenig mit dem Raid spielen, denn viel mehr kaputt zu machen ist ja nicht und dann wohl die letzten Kröten aus dem Budget ringen und zähneknirschend 3 oder 4 1500er Seagates kaufen. Und wenn ich dann die selben Erfahrungen machen sollte, dann falle ich ab vom Glauben. :motz:

So long,
Micha
 
Zuletzt bearbeitet:
Frage zu SSDs am Areca

Hallo,

ich habe früher am Dell Perc 5i ein RAID-0 aus 4 Mtron Mobi 3000 SSDs laufen gehabt.

Ich habe festgestellt, dass je nach Einstellung der Stripegröße des RAID-0, die Benchmark-Ergebnisse von Crystal Disk Mark stark varrieren. Logisch. Bei einer Stripegröße von 4k waren Benchmarkergebnisse schlechter, als beispielsweise bei 32k, wegen dem Overhead.

Nun bin ich auf Areca 1220 umgestiegen, wegen der guten Bewertungen hier in den Foren im Zusammenhang mit SSDs.

Nun habe ich einige Benchmarks mit dem Areca 1220 und den vier Mtrons im RAID-0 durchgeführt. Ich muss mit verwunderung feststellen, dass die Crystal Disk Mark Werte sich kaum unterscheiden, egal wie ich die Stripesize einstelle. Ob 4k oder 16k ist kaum ein Unterschied.

Warum ist das so?

Freeman
 
Probiert mal HD103UJ. Meine laufen seit über 1 Jahr absolut fehlerfrei als Raid 6.
Es wird aber empfohlen NCQ abzuschalten.
 
so Freude groß: 1220 endlich da!

Enttäuschung um so größer: im MSI K9A2 Platinum v2 läuft er nicht.

er piepst im regelmäßigen Abstand und das System bootet nicht.


hat jemand von euch die selbe Erfahrung mit dieser Kombi gemacht???
und wie sieht es überhaupt mit AMD Boards aus, wo funktionierts???
 
Dann würde ich mal noch im BIOS alle Optionen die PCIe oder SLI Betreffen anschauen. Da ist bestimmt eine Option falsch eingestellt.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh