Areca RAID-Controller (PCIe) [2]

Habe mir vor kurzem für den 1880er von Areca ein Slotblechadapter SATA 4 Port an Mini-SAS SFF-8088 und das passende SAS-Kabel Extern Mini 2-x SFF-8088-Stecker gekauft. Ich hoffte so den externen SFF-8088 Port des 1880ers nutzen zu können und im Rechner 4 weitere SATA Anschlüsse für Festplatten (Fesplatten funktionieren an den interenen Anschlüssen ohne Probleme) am Controller zur Verfügung zu haben. Der Controller erkennt die Platten aber nicht. Wo könnte der Fehler liegen ? Was kann man ändern um kostengünstig den externen Port des 1880ers intern für Sata Festplatten nutzen zu können ? Würde dieses Kabel funktionieren: SAS Anschlusskabel SFF-8088 Stecker auf 4x SATA xover Stecker ?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ARC-1880-i
ARC-1880-x
ARC-1880-LP
ARC-1880-ixl-8
ARC-1880-ixl-12
ARC-1880-ix-12
ARC-1880-ix-16
ARC-1880-ix-24
 
Habe mir vor kurzem für den 1880er von Areca ein Slotblechadapter SATA 4 Port an Mini-SAS SFF-8088 und das passende SAS-Kabel Extern Mini 2-x SFF-8088-Stecker gekauft. Ich hoffte so den externen SFF-8088 Port des 1880ers nutzen zu können und im Rechner 4 weitere SATA Anschlüsse für Festplatten (Fesplatten funktionieren an den interenen Anschlüssen ohne Probleme) am Controller zur Verfügung zu haben. Der Controller erkennt die Platten aber nicht. Wo könnte der Fehler liegen ? Was kann man ändern um kostengünstig den externen Port des 1880ers intern für Sata Festplatten nutzen zu können ? Würde dieses Kabel funktionieren: SAS Anschlusskabel SFF-8088 Stecker auf 4x SATA xover Stecker ?

Ohne jetzt das Datenblatt gelesen zu haben: Oft/Immer sind die externen Ports nicht nutzbar, wenn alle internen belegt sind.
Sofern es ein SAS-Controller ist, kannst du mit angeschlossenen SAS-Festplatten (oder einen entsprechenden Wechselrahmen mit Expander) ein längeres Kabel als insgesamt 1 Meter benutzen, ansonsten nicht!
 
Mahlzeit,

so mein Areca initialisiert gerade mein Raid5. 0,1% haben ca 5.min gedauert, heißt also 100% benötigen ca. 3,5 Tage, aua hammerhart!

Folgende Konfiguration:

HDDs: 4x Hitachi Deskstar 3TB 5k3000 (HDS5C3030ALA630)
Firmware: ...5C0

Controller: Areca ARC-1231ML + BBU
System Memory: 1024MB/533MHz/ECC
Firmware: V1.49 2010-12-02

Raid Level: Raid 5
Volume Stripe Size: 128KBytes
Volume Cache Mode: Write Back
Grösser 2TB support: 64Bit LBA

Hatte den Server jetzt erstmal mit schnell mit windows 7 aufgesetzt, um einfach unkompliziert prüfen zu können, ob alles sauber funktioniert, da Mainboard (S3420GPLX), CPU (X3440) und der Areca-Controller Gebraucht-Ware sind. Bis hierher funktioniert aber alles tadellos.

Die Raidinitialisierung findet ja ausschließlich auf dem Controller statt. Da ich nun das Windows7 runterschmeißen möchte (habe zusätzlich noch 2 System-HDDs) und meine Virtualisierungsumgebung (proxmox) am liebsten sofort installieren möchte, bleibt die Frage, ob ich den Server während der Raidinitialisierung neustarten kann? Oder ist davon eher abzuraten, dann müsste ich jetzt erstmal 3,5 Tage + Volume-Check (Wie lange dauert das?) warten. Da habe ich mit der ganzen neuen Hardware hier natürlich keine Lust drauf. :d

Viele Grüße

Hoppel
 
Hier nochmal ein Bench:

 
Habe mir vor kurzem für den 1880er von Areca ein Slotblechadapter SATA 4 Port an Mini-SAS SFF-8088 gekauft.
Ebay schrieb:
Geeignet um interne SATA Anschlüsse aus einem Rechner als externen Mini-SAS Anschluss herauszuführen
Das hört sich nach gekreuzten Kabeln an, um einen SAS Anschluss (aus 4 Sata Steckern) vom Motherboard in einen externen zu verwandeln.

Das ist wieder gekreuzt.
Das hier sollte der richtige sein: Gehauseadapter-Mini-SAS-SFF-8088-x4-4x-SATA-/360403870127
 
@hoppel118: Geht das echt so lange oder an was liegt das?


Ja, sei beruhigt es dauert so lange. Schau mal ein paar Seiten zurück wo ich genau im gleichen Boot war.

Naja, ich bin gespannt wie lange es tatsächlich dauert. Einer aktuellen Berechnung nach müsste es ca 2,2Tage dauern.

Wie lange dauert normalerweise der Volume-Check? Den sollte man ja nach der Initialisierung auch noch durchführen...
 
Das Array-Init läuft mit aktivierten HDD-Cache wesentlich fixer durch... kann man temporär aktivieren, wenn keine BBU oder UPS vorhanden sind.
;)
 
@hoppel118: Geht das echt so lange oder an was liegt das?


Ja, sei beruhigt es dauert so lange. Schau mal ein paar Seiten zurück wo ich genau im gleichen Boot war.

So, der Vollständigkeit halber nochmal zur Info:

- Init hat 76Std und 7min gedauert und - der
- Volume-Check nochmal 9Std und 3min

Hammerhart, aber nun seitdem das Raid initialisiert ist, ist die Meldung beim Controllerstart "no bios disc found - raid controller bios not installed " weg.

Aber der folgenden Meldung "waiting for raid controller F/W to become ready" darf ich jetzt ca. 90sec. zusehen, bis es weiter geht. Bevor das Raid da war, hat es ca. 40sec. gedauert.

Soll zwar ein 24/7-Server werden, aber irgendwie ganz schön doll!

Ist das normal bei einem ARC-1231ML mit 1GB RAM?

Gruß
 
Ja, ich hab den 1261ML und bei mir dauert der Init am Anfang ca. 39 Sekunden, ist aber wie gesagt nur beim Boot, also verschmerzbar. Glaub mir das Teil ist bombenstabil und damit bootet man eig. rel. selten!
 
Ok, Stabilität ist das wichtigste. Sollen ja schließlich mal eine ganze Menge Daten auf dem Array liegen.

39sec. sind aber nicht 90sec. Habe direkt mal mehrere Neustarts gemacht, immer wieder ca. 90sec.

Gruß
 
Hängt auch von den PLatten und dem Cache ab, ich hab 2Gb und 7 Hd204ui im R6 dran. Mach Dir keinen Kopf, solange alles im BNetrieb läuft ist der Init am Anfang pups....
 
Wahrscheinlich hast du recht, meine Platten haben nur 5400U/min und lediglich 32MB Cache bei 3TB!

Dann werde ich mich nun endlich den nächsten Themen widmen. Proxmox und LVM.

Viel Spaß noch!
 
Hallo Leute,

heute hatte ich mal ein Bisschen Zeit mich mit meinem System zu beschäftigen. Das Raid5 läuft soweit, bluray-streaming funktioniert, von daher bin ich erstmal zufrieden. Dennoch machen mich die Tests etwus stutzig.

Meine Hardware:

Areca ARC1231ML (inkl. BBU)
4x 3TB Hitachi Deskstar 5k3000


Zu den Testergebnissen muss ich noch folgendes sagen. Denn es kann sein, dass die überhaupt nicht brauchbar sind. Mein System ist jetzt wie folgt aufgebaut:

Auf der System-HDD befindet sich proxmox (Virtualisierungsumgebung auf debian-Basis). Das Raid5 aus den 4x3TB habe ich mit einer großen primären gpt-Partition versehen, auf der lvm aktiviert ist. Dann habe ich über proxmox von dem Raid5 einen großen Teil des zur Verfügung stehenden Speichers abgeknappst, um diesen dann später für meine Medien-Sammlung nutzen zu können. 8,19TB sind übrigens nach der ext4-Formatierung insgesamt von den 4x3TB im Raid5 noch nutzbar. Anschließend habe ich eine paravirtualisierte (VirtIO für Netzwerk und HDD-Controller) Win7-VM auf einem weiteren Teil des restlichen Speichers vom Raid5 (eigenes logical volume mit einem eigenen Container) gebaut. Der fertig konfigurierten VM habe ich dann nochmal 100GB paravirtualisierten Speicher zugewiesen. Herausgekommen sind dann folgende Testergebnisse:

lvmreadtest.pnglvmwritetest.png
lvmwritetestshortstroke.pnglvmcrystaldiskmark.png

Auf eure Kommentare bin ich gespannt, da ich das nicht wirklich beurteilen kann.
 
Ergänzend noch folgende Testergebnisse:

lvmattodb256.pnglvmattodb1000.png

Da mich die nackten Werte (bare metal ohne lvm) auch noch interessieren, werde ich wohl nochmal windows auf einer anderen Systemplatte installieren. Mal sehen, wie hoch die Performance-Differenz zu LVM ist. Ich hätte mal gleich zu erst diese Tests machen sollen und dann das System so aufsetzen, wie ich es haben will. Naja, hinterher ist man immer schlauer. :-)

Viele Grüße
 
Zuletzt bearbeitet:
Hallo Hoppel

Wo liegt diese 100GB Partition? Am Ende oder am Anfang des Arrays? Das Array wird ja gegen das Ende immer langsamer. Wenn die Partition am Schluss ist, ist der Wert ganz gut.
Bei VMWare würde ich den Geschwindigkeitsverlust bzw. den Overhead auf ca. 10% beziffern. Jedenfalls erreiche ich dort ohne Probleme 800-900mb/s mit zwei SSDs im RAID1 (mit LSI Kontroller).

Hast Du die Gast Tools, bzw die Treiber installiert auf der VM, falls es solche gibt?

Hier noch ein Bench an einem Areca 1880 mit 4GB Cache mit 4x3TB Hitachi Deskstar 7K3000 (nicht virtualisiert!).
191760d1336244566-areca-raid-controller-pcie-2-unbenannt.png


Gruss Mete
 
Zuletzt bearbeitet:
Hallo Mete,

Ja, die Partition befindet sich am Ende des Arrays. Ist das normal, dass es bei den Schreibtests solche hohen Performance-Spannen gibt?

Wie gesagt, für KVM gibt es auch spezielle Windows-Treiber, entwickelt von RedHat. Die VMs sind gefühlt wirklich performant.

Gruß
 
Moin

Also ein Bench vom Areca habe ich nicht mehr, aber so wie ich mich erinnern kann, sah das nicht so abgehackt aus bei mir. Wenn irgendetwas auf die Disks zugreift, dann gibt es oft solche Zacken.

Hier noch ein write Bench von meinem LSI 9265-8i mit 4x3TB Hitachi 7k3000.

191866d1336308823-areca-raid-controller-pcie-2-unbenannt.png


Gruss Mete
 
Na dann wird's wohl daran gelegen haben, dass die beiden logical volumes (win7vm und 100gb) sich dasselbe Raid-Array teilten. Aber ich setze gerade das System neu auf und dann werde ich nochmal Lese- und Schreibtests auf das nackte Array durchführen ohne dabei schon irgendetwas darauf zu betreiben. So ein System ist ja relativ schnell aufgesetzt und wenn erstmal alles richtig läuft, würde es mich ärgern, den hdtune-Schreibtest nicht mehr ausführen zu können. Das geht ja scheinbar nicht, sobald da ne Partition drauf ist...

Edit: Da du ja scheinbar direkte Vergleiche zw. Areca und LSI ziehen kannst: Wer ist performanter (Schreib-/ Lesetests) mit diesen Platten? Oder ist der Unterschied marginal?

Gruß
 
Zuletzt bearbeitet:
Moin, read ja, write habe ich die Werte vom Areca leider nicht aufgeschrieben... Beide Kontroller geben sich nicht viel im single Array Betrieb. Multi Array ist der LSI klar besser (siehe Signatur).
Alle Tests unten ohne sonstige Last auf dem Array, HDTune 8MB Blocksize.

Areca 1880-24 4GB Cache (NCQ aktiviert): Read 304mb/s avg.
Areca 1880-24 4GB Cache (NCQ deaktiviert): Read 321mb/s avg.
LSI 9265-8i 1GB Cache (NCQ deaktiviert): Read 314mb/s avg.

HighPoint RocketRaid 3520 256MB Cache (NCQ unbekannt): 330mb/s avg.

Gruss Mete
 
So, hier nochmal die Tests auf dem Array ohne irgendwas darauf in Betrieb:

arc-raid5-9tbhds5k3000-attodb256.pngarc-raid5-9tbhds5k3000-attodb1000.pngarc-raid5-9tbhds5k3000-cdm.png

Das sieht ja schonmal ganz anders aus.
 
Da man hier leider immer nur 5 Bilder pro Beitrag hochladen kann, noch ein Post:

arc-raid5-9tbhds5k3000-read.pngarc-raid5-9tbhds5k3000-write.pngarc-raid5-9tbhds5k3000-write-short.png

Die "Write-Test-Linie" finde ich trotzdem eigenartig. Ist das schlimm, dass die so volatil ist? Kann man da noch irgendwo was umkonfigurieren? Die Average-Werte sind ja ok.
 
Weiß denn niemand, wodurch diese Schwankungen entstehen? Die Frage von Swp2000 zu den Ursachen ist unbeantwortet geblieben.
 
Kannst dich ja mal an den Areca Support wenden... Haha... Sind die Festplatten denn in der Kompatibilitätsliste von Areca?

Gruss Mete
 
Warum sollten desktop-Platten in deren Compatibility-List sein?

Schade, naja mich stört es jetzt nicht wirklich. Ich kann meine blurays streamen und habe einige VMs auf dem Array liegen, die alle sehr performant sind. Mein Homeserver-Projekt ist geglückt. Arrays mit Areca zu konfigurieren ist super einfach. Ich bin gespannt, wenn die erste HDD-Erweiterung kommt, wie lang die Integration dauert und ob alles glatt läuft. Evtl. gibt's dann auch gleich nen Schwenk zu raid6.

Viele Grüße
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh