Areca RAID-Controller (PCIe) [2]

Wollte nur swp2000 zeigen daß es bei mir noch viel länger dauert.
Mein 4x Raid5 Verbund war schon über 90% voll!!!

Ich möchte nicht dran denken wie lange das in 2-3 Monaten dauern wird wenn ich erst einen Spare und dann auf insgesamt 8 (also +3) Platten vollziehe.

Mal dazu noch eine Frage: Macht es für den Controller einen Unterschied ob ich zu meinen WD20EARS (Sata II) ein paar WD20EARX (Sata 3 6Gbps) hinzufüge??? Geht wohl eher nicht, oder? Die sind nämlich mittlerweile günstiger.............
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Yepp, kenne ich, war bei mir auch so und die neue 2Tb ist auch schon wieder fast voll...... 14TB brutto 7x2 ! Netto 10.

Warum, natürlich geht das, der Areca kann ja auch mit den 4k besser umgehen. Sata 6 ist abwärtskompatibel. Also ich habs nicht probiert. Weiß aber nciht was dagegen sprechen sollte, außer eben 4k.
 
Beide sind doch 4K.........

Wenn die Preise unter €75 fallen schlag ich einfach mal zu. Brauch ja nur eine öffnen (die Tüte, nicht die Platte!!!).
 
Yepp, schon klar, ist ja leider immer noch ein "not officially supported" Thema! Aber m.E. sollten die gehen.
Bin mal gespannt wann die Jungs das endlich offiziell supporten.....
Sag mal Bescheid! Wobei ich bei 6G Interface bei HDDs schon immer schmunzeln musste...
 
bin nun auch grad wieder dran 6x500GB 4 RE2 und 2 RE! Mal sehen wie lang das diesmal dauert.
Was hast du für Temps am Controller?
 
CPU Temperature 44 ºC
Ctrl Temperature 35 ºC

Ich hab aber gerade mein System auf ner Testbench mit nem 120er Lüfter der direkt auf die Karte bläst. (Deswegen kann ich mir es auch leisten "nur" den heatsink (=ohne mini Lüfter) auf der CPU zu haben.


Neuester Stand 62,3%!!
 
@Techno_Frank
Gint es News bezüglich einer Firmware für das multiArray Problem?
 
Also das sind schwachköpfe... Ich meine das ist nicht gerade kundenfreundlich! Finde das auch total seltsam das sie da nix wirklich machen.
 
ich habe meinen 1880 auch aus diesem Grund wieder verkauft. Finde ich wirklich schwach: Starke CPU und viel Cache auf dem Controller und dann so ein dämliches Multi-Array-Problem. Das müßte sich doch beheben lassen.....
 
Also habe hier auch noch nen 3ware 9750 + Expander und ein Promise Supertrak liegen. Allerdings habe ich diese Multi-array Problem noch nicht und das Webinterface des Areca finde ich mit Abstand das beste von dem was ich bisher gesehen habe! Und wenn ich ehrlich bin möchte ich das nicht mehr missen!
 
Ich hatte mit dem 50mm Lüfter Temps von CPU: 47°C und Ctrl: 39!°C unter LAST
Nun mit dem 80mm Lüfter, der natürlich bedeutend leiser ist ohne RAID Verbund CPU: 50°C und Ctrl.: 48°C. Hab zwar noch einen 120mm Lüfter, aber wenn das Gehäuse an der Stelle zu ist, nützt der auch nix!

Auf meinem Controller ist auch nur die Heatsink. Hat noch jemand zufällig nen passenden Lüfter den man dort befestigen kann?

@ Tekkno_Frank:

Geh heute mal ans initialisieren der 6x500GB und mach nochmal neue Benchmark Werte... mal sehen ob sie mit den abgeglichenen Eistellungen besser werden.
 
wenn schon für den 1880er kein Update kommt... kann irgendwer testen, ob das Multiarray Problem auch auf dem 1882 besteht? (der hat ja denselben Dualcore-ROC wie der LSI9265)
 
Jetzt muss ich nochmal hier in die Runde Frage. BBeim anlegen eines Volume Set fragt er doch "Volume greater than 2 TB"

Habt ihr hier 4k-Block gewählt oder 64bitLBA?

Ich habe noch keine 4K Block HDD's, das zur Info.

Kann mir jemand nochmal sagen wie ich das mit dem Ethernet Mail konfiguriere? Muss ich das in der "cfg" machen?
 
das hat damit nichts zu tun, das ist rein die max mögliche Größe des Arrays. Again: RTFM :) nicht böse sein!

Ja ich, nach den Nachrichten :) Wenn Du willst!
 
Das ist ja Lecker, wenn es das ist, was ich jetzt einfach mal annehme:

4K Block richtet ein Raid ein, welches eine Blockgrösse von 4K hat. Damit wäre ein Raid mit merhr als 2 TiB (2,2TB) MBR Kompatibel!!

- Zur Erinnerung, der MBR kann nur Datenträger mit 2^32 Sektoren verwalten >> 2^32 *512 Byte = 2TiB // 2°32 x 4KB = 16 PiB
Daraus folgt, man kann auch Raidvolumes über 2TiB unter Win NT4/2000/XP etc einrichten - sofern die Treiuber für die entsprechenden Betribssysteme dies Funktion unterstützen (nämlich eine variable Blockgrösse des Datenträgers an das OS zu melden)

64Bit LBA geht wiederum nur mit GPT-Partitionen.

P.S. im Prinzip fehlt genau diese Funktion den ganzen einfachen SATA Controllern / Onboard Controllern, dann bräuchten wir uns nicht mit AF Platten rumzuärgern - auch wenn die Verwaltung via GPT ggü. MBR einige Vorteile bietet
 
Zuletzt bearbeitet:
Also die 4k bezieht sich meiner Meinung nach nur auf die jeweils geschriebenen Blöcke die auf die Festplatten geschrieben werden! Davon ab wäre deine Rechnung nicht richtig da du nur auf 16TB kommen würdest... Liege ich richtig?
 
2^32 = 4294967296 Datenblöcke
4294967296 x 4KiB = 17592186044416 KiB
17592186044416 KB / 1024 = 17179869184 MiB
17179869184 MiB /1024 = 16777216 GiB
16777216 Gib/ 1024 = 16384 TiB
16384 TiB /1024 = 16 PiB

:)
im Umkehrschluss bei Sektorgrösse 512 byte:
2^32 = 4294967296 Datenblöcke
4294967296 x 512 Byte = 2199023255552 Byte
2199023255552 Byte /1024 = 2147483648 KiB
2147483648 KiB / 1024 = 2097152 MiB
2097152 MiB / 1024 = 2048 GiB
2048 GiB / 1024 = 2 TiB
 
Zuletzt bearbeitet:
Aber 4k ist nunmal das achtfache von 512Byte. die block größe hat allerdings nix mit der maximalen Array größe zu tun. (oder liege ich da falsch?)
 
... BBeim anlegen eines Volume Set fragt er doch "Volume greater than 2 TB"

Habt ihr hier 4k-Block gewählt oder 64bitLBA?

Ich habe noch keine 4K Block HDD's, das zur Info. ...



ich bezweifele mal überhaupt, dass "4k-block oder 64bit LBA" so wie hier von swp200 dargestellt als Alternative in einem Einrichtungsmenü der areca-software angeboten wird.
Sollen volumes > 2TB eingerichtet werden, ist 64bit LBA auszuwählen. Wird das abgelehnt, gibt es einfach keine volumes > 2TB, weil bei einer Sectorgrösse von 512bytes nur 2^32*512 = 2TB addressiert werden können, z.b. in Form einer einzigen 2TB-Platte

bei einer 64bit-addressierung und 512byte blöcken können 2^64*512 = 8 zetabytes (9444732965739290427392 / 2^70 = 8) adressiert werden
bei einer 32bit-Adressierung und 4K Blöcken können 2^32*4096 = 16TB (17592186044416 / 2^40 = 16) addressiert werden
die Rechnung von digi-quick ist also falsch

Hardware (in dem Fall der controller, der die arrays völlig unabhängig vom OS verwaltet) meldet ihre Geometrie an das OS, das diese Information zwecks Partitionierung benötigt. Solange Windows MBR-partitionieren konnte (32bit addressierung mit 512K blöcken), konnte das OS die Partitionsgrenzen an den Zylindern ausrichten. Ein Festplatten-array hinter einem controller ist dagegen für das OS eine black box, auf die es überhaupt nur indirekt via controller treiber zugriff erhält.
Soll Windows Partitionen auf einem so großen Datenträger einrichten können, muss der controller 64bit adresssierung anmelden, wodurch das OS den Datenträger GPT-partitionieren kann.

Die Auswahl von 64bit-LBA oder dessen Ablehnung hat nichts mit der Wahl der Blockgrösse, mit der der Controller die arrays einrichtet, zu tun. Diese wird vielmehr als Stripesize üblicherweise und sinnigerweise zu einem späteren Zeitpunkt der Einrichtung festgelegt.
Bei der Wahl der stripesize müssen eine Reihe von Optionen angeboten werden. 4K ist üblicherweise die kleinste angebotene Stripesize, und die stripesizes reichen auch üblicherweise bis mindestens 1024K.
Kleine stripesizes empfehlen sich nur, wenn ausschliesslich Datenbank-artige Anwendungen auf dem raid-array gefahren werden. Für streaming-anwendungen sollten es dagegen schon mindestens 128 bis 256k blöcke sein.
Die Performance-Auswirkungen der Cluster Größen mit denen das OS oder auch Datenbankanwendungen arbeiten in Zusammenhang mit der gewählten Stripesize von arrays sind recht kompliziert. Aber das ist hier ja nicht das thema.

Nochmals auf einer anderen Ebene angesiedelt ist aber die Frage, wie die Festplatten sektorieren. Die Frage ist wegen eines korrekten alignments erheblich einerseits für das OS, andererseits wäre sie wichtig für einen raid-controller. Meines Wissens nach werden solche Platten im Allgemeinen noch überhaupt nicht von Controllern unterstützt (von mysteriös bleibenden Ausnahmen, die in irgendwelchen controller-kompatibilitätslisten auftauchen, mal abgesehen).
Unabhängig davon gehe ich aber davon aus, dass der Fragesteller swp200 in seiner Darstellung einer angeblichen Alternative "4K-Block oder 64bit LBA" ein paar Controller-Menüs durcheinandergewürfelt hat, diese Alternative macht aus meiner Sicht keinen Sinn und wird sich so nicht in der Controller-Software finden. 4K meint daher die Stripesize, die zu einem späteren Zeitpunkt der Einrichtung des Arrays einzustellen ist.
 
das hat damit nichts zu tun, das ist rein die max mögliche Größe des Arrays. Again: RTFM :) nicht böse sein!

Dem schließe ich mich an, weshalb spekulieren, alles unnötig aufblasen, und sich deshalb fast wieder in die Wolle bekommen? Die Antwort liegt doch so nahe.

Ich zitiere aus der Areca Manual V4.1:

• LBA 64
This option uses 16 bytes CDB instead of 10 bytes. The maximum
volume capacity supports up to 512TB.
This option works on different OS which supports 16 bytes CDB.
Such as:
Windows 2003 with SP1
Linux kernel 2.6.x or latter

• Use 4K Block
It change the sector size from default 512 Bytes to 4k Byetes. the
maximum volume capacity up to 16TB.
This option works under Windows platform only. And it can not
be converted to Dynamic Disk, because 4k sector size is not a
standard format.

Kurz: LBA 64 auswählen, GPT anhaken und alles wird gut... Alle Klarheiten beseitigt...? :d
 
genau, bei 32bit addressierung werden mit 4K Blöcken 16TB erreicht
bei 64bit Addressierung erreicht man selbst mit 512K Blöcken schon den Zetabyte bereich, eine solche Addressierung wird für die GPT-Partitionierung unter Windows benötigt
 
die Rechnung von digi-quick ist also falsch
Aber 4k ist nunmal das achtfache von 512Byte. die block größe hat allerdings nix mit der maximalen Array größe zu tun. (oder liege ich da falsch?)

Yep, muss ich leider Bestätigen (Man kann halt nicht im linkern Term 4K stehen haben und im rechten Term dann mit 4096 Byte rechnen, dann kommt eine 2^10er Potenz zuviel dabei raus - musste ersmal selber rausfinden, wo mein Rechenfehler lag.

Nun nochmal richtig gestellt:

4294967296 x 4KiB = 17179869184 MiB
17179869184 MiB /1024 = 16777216 GiB
16777216 Gib/ 1024 = 16384 TiB
16384 TiB /1024 = 16 PiB

oder auch noch direkter und klarer ersichtlich
512Byte = 2^9 Byte
2^9 + 2^32 = 2^41 Byte = 2iTB (2^40 = 1 TB, 2^1 = 2)

4KByte = 2^12 Byte
2^12 + 2^32 = 2^44 =16TiB (2^40 = 1 TB, 2^4 = 16)

Solange Windows MBR-partitionieren konnte (32bit addressierung mit 512K blöcken), konnte das OS die Partitionsgrenzen an den Zylindern ausrichten.
Die CHS Adressierung ist seit NT4 / Win9x obsolet und durch LBA ersetzt worden. (es gab weiterhin auch eine CHS Adressierung, die aber eigentlich nur noch von wenigen Programmen genutzt wurde - z.B. Partitionierungsprogramme die unter DOS liefen)

• Use 4K Block
It change the sector size from default 512 Bytes to 4k Byetes. the
maximum volume capacity up to 16TB.
This option works under Windows platform only. And it can not
be converted to Dynamic Disk, because 4k sector size is not a
standard format.

Es gibt keine Spezifikation, daß der MBR nur eine Sektorgrösse von 512 Byte verwalten kann, und es gibt keien Spezifiaktion, die die Sektorgrösse von Festplatten auf 512 Byte festlegt.
Eine Sektorgrösse von 512 Byte ist nur ein quasi Standard, weil man dadurch den Speicherplatz für die Konfiguration eiiner variablen Sektorgrösse einsparen konnte (der Year 2000 Bug lässt grüssen, da hat man die ersten beiden Ziffern der Jahreszahl aus genau dem gleichen Grund weggelassen). Vermutlich hat man 512 Byte gewählt, da sich diese Sektorgrösse (Blockgrösse) bereits bei Floppy Disks als "Mainstream" etabliert hatte (auch hier gab es andere Blockgrössen, die sich aber nicht durchgesetzt haben bzw. nur Nischenprodukte waren)
Das ganze wäre heute alles gar nicht mehr nötig - aber die "heilige Kuh" heist Abwärtskompatiblität.
 
Zuletzt bearbeitet:
...keiner eine Lösung / Antwort auf das Problem :(


Moin moin,

ich habe hier ein kleines Problem mit dem Volume Check:

Wieso startet der Volume Set Check jedesmal erneut bzw. bei 0% nach einem Neustart oder An- und Ausschalten des Rechners? Bei Promise und LSI beginnt der Check immer vom letzten Status bzw. wird fortgeführt.
Auch wenn der Check einmal komplett durchgelaufen ist und "Scheduled Volume Checking" auf 2 Wochen eingestellt ist, startet der Check trotzdem wenn der Rechner z. B. 1 - 2 Tage nicht in Betrieb war.


Kennt jemand dieses Verhalten?
Grüße
 
Hier nochmal ein Benchmark

READ:


WRITE:


Sind die Werte nun besser?
 
Bin gerade dabei mein RAID von 4 auf 5x 2TB zu "expanden". Eigentlich fertig, nach 81 Stunden!!
Jetzt habe ich Modify Volume set, das Volume auf von 6 auf die max möglichen 8TB gesetzt.

Dann ist es normal daß er bei 75% anfängt, und jetzt langsam (0,5% in 30 Minuten) hochtickt?
Denke eigentlich schon, aber dieses Raid Zeugs macht mich extremst hippelig!!!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh