[Kaufberatung] Welcher Raidcontroller für 8x4TB Raid5

Fladdy

Enthusiast
Thread Starter
Mitglied seit
09.01.2004
Beiträge
2.357
Ort
NRW
Guten Abend an alle,

nachdem ich gerade noch mit meinem Dell Perc 6i und einem 4x1TB Raid kämpfe steht leider eine ganz andere und größere Sache auf dem Plan.

Will gerne eine NAS / Backupserver haben, welcher folgende Festplattenkonfiguration haben soll:
- 2x 500GB im RAID 1 (ggf. übers Mainboard) fürs System
- bis zu 8x4 TB WD Red als Raid5 für Daten (zum Start erstmal nen Verbund aus 5x 4TB + 1x Hotspare)

Der "Server" dient nur zur Aufbewahrung von Backups (von meheren Webseiten, MySQL Dumps, Images von PC-Systeme, Fotoarchiven). Aktuelles vorhandenes Datenvolumen etwa 9TB.

Die Idee ist einen Backupserver aufzubauen, der dann bei Bedarf auch zeitgesteuer hoch- und runterfahren kann und eben später erweiterbar ist. (Raid um weitere Festplatten erweitern nach und nach bei Bedarf)

Soweit der Stand.

Das meiste an Hardware ist ja auch kein Problem, passendes Gehäuse habe ich schon, nen Mainboard und ne CPU auch noch da. Somit fehlt mir noch ein passender Controller für den Raid5-Verbund (soll bis zu 8x 4TB WD Red aufnehmen können).


Was gibt es da an Empfehlungen als Controller?


Bin gespannt und verbleibe erstmal mit besten Grüßen und Dank im Voraus!


PS: Hätte gerne nen Server und keine Synology 1813+ etc., da der Server auch mal ein paar Renderaufgaben etc. übernehmen kann. Er steht auch räumlich getrennt zu den Systemen, die gesichert werden sollen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hatte früher mal einen Adaptec 51245. Mit dem war ich sehr zufrieden. Hatte an dem Controller Samsung HD204UI. Kann auch Disks grösser 2 TB daran betreiben.
Heute würde ich mir ein neueres Modell aussuchen. Wie wäre es mit einem Adaptec 6805 oder 7805? Bieten jeweils 8 SATA Ports.

6805 ist für PCIe 2.0
7805 ist für PCIe 3.0

Kommt darauf an was du für ein Board hast.
 
Zuletzt bearbeitet:
Bitte kein Raid5 bei der Plattenzahl, die Wahrscheinlichkeit beim Ausfall einer Platte das Raid zu schrotten beim Rebuild ist einfach zu groß.
Letztens auf der Arbeit habe ich erlebt, dass in einem Platten Shelf beim Rebuild eines Raid6 6 Platten nach und nach kaputt gegangen sind und der Rebuild letzten Endes nicht geklappt hat.
Folge war Totalausfall und es musste von Band recovert werden.

Empfehlung für einen Hardware Raidcontroller habe ich nicht, aber schau dir doch mal ZFS an und die dazugehörigen Lösungen wie z.B. Napp-it oder Freenas an.
Bei ZFS reicht ein "dummer" HBA wie der IBM M1015. Allerdings würde ZFS kein nachträgliches Erweitern des Raids erlauben. Möglich ist nur Stripen über ein neues Vdev.
Das was du für den echten Raidcontroller bezahlt hättest kann direkt in die 2 zusätzlichen Platten wandern.
Dafür hast du etliche Vorteile wie Snapshots, Replikation, Dedup, Kompression etc.

Schau doch einfach mal in den ZFS Stammtisch hier im Server Bereich.
 
Das Problem beim fehlgeschlagenen Rebuild dürfte einfach das Alter und damit der Zustand der übrigen Platten sein, die dann die Belastung beim Rebuild eben auch nicht mehr überstanden haben. Da brauchen ja nur eine (RAID5) oder zwei (RAID6) auch noch Probleme zu machen und der Ärger ist da.
 
Also wie gesagt der Server bzw das RAID beherbergt keine live Daten sondern Backups. Daher würde ich eigentlich gerne bei einem RAID5 bleiben auch da es einfach erweitert werden kann. Ein raid 6 hat wieder mehr Nutzkapazitätseinbußen zur Folge.

So ideal ist das alles nicht, aber wie gesagt die perfekt Lösung ist nur immer wieder Backups zu haben. Wenn so ein fall wie hier beschrieben eintritt, dass die Festplatte alle nacheinander den Dienst quittieren, dann hilft kein raid Typ.

Aber bin natürlich für Vorschläge offen, v.a. auch konkret hinsichtlich Hardware.
Festplatten sind schon da wie gesagt, WD Reds. Werde in jedem fall nochmal raid 6 ansehen. Eine zusätzliche WD Red sollte noch drin sein.

Somit brauche ich nun noch nen passenden Controller :)
 
Zuletzt bearbeitet:
Was meint ihr zu einem HighPoint RocketRAID 2720SGL ?
Der könnte 8x SATA 3 und auch Raid 6

Klar nicht so gut wie einer der oben genannten Adaptec, aber es muss ehrlich kein >500€ Ding sein, oder?
 
Zuletzt bearbeitet:
Den verlinkten Artikel bei zdnet hast Du offenbar nicht gelesen. Das Backup nutzt Dir natürlich auch nur dann etwas, wenn es zuverlässig ist. Die Daten von einem unzuverlässigen RAID auf einem anderen unzuverlässigen RAID zu speichern, bingt es doch auch nicht. Du wirst Dich sicher fragen, warum ich unterstellen, dass Dein RAID unzuverlässig ist, aber lies doch einmal mal den Artikel und vergleiche mal die Datenblätter der der WD Red und z.B. der WD Se 4TB (WD4000F9YZ).
 
Okay habe den Artikel gerade gelesen. Interessant und auch schön dass er nochmal am Ende nen "Update" zum Thema RAID 6 geschrieben hat.
Also in jedem fall werde ich mir das mit der URE Rate nochmal zur Gemüte führen! Vorallem ist der Preisunterschied der WD Red zur SE auch nicht sooo die Welt.

Hat allerdings erstmal nun nix mit der Controllersache zu tun.
 
Zuletzt bearbeitet:
Ein Raid 5 in dieser Größe ist sinnfreier Unfug. Du verlierst Kapazität, Performance und Sicherheit/Verfügbarkeit gegenüber der einzelnen Nutzung der Platten und gewinnst überhaupt nix.

Hast du jemals ein Raid 5 solcher Größe gesehen, dass eine erfolgreichen Rebuild schafft? Höchstwahrscheinlich nicht.
Ich habe kein einziges gesehen. Dafür mehrere, die nicht ganz so groß waren und die es nicht geschafft haben.

Wenn du tatsächlich mit solchen Größen arbeiten willst, nimm wenigstens ein ordentliches Dateisystem mit Prüfsummen. Ansonsten sind die Backups völlig wertlos, da du nicht einmal mitbekommst, dass die Daten kaputt sind, bis du sie dann irgendwann brauchst.
 
Also habe mich nun mal etwas mit ZFS befasst und finde die Berichte, Möglichkeiten und Erfahrungen echt beeindrucken. Leider bin ich noch zu sehr Laie um es in Gänze zu verstehen, aber werde mich dem angesprochenere zfs-Stammtisch mal nähern, sobald ich bissl was verstanden habe.

Danke bis hierhin, nen Controller brauche ich dennoch und überlege mal den angesprochenen zu kaufen, um in den Live-Test-Betrieb damit zu gehen.
Die Test davon sind ja in der Tat sehr positiv und die Performance auch okay. Leider ohne bbu, dafür kann man für die Ersparnis noch einiges anderes machen und der backupserver hängt eh an einer usv.
Ich weiß sicherer und besser geht immer.
 
Also habe mich nun mal etwas mit ZFS befasst und finde die Berichte, Möglichkeiten und Erfahrungen echt beeindrucken. Leider bin ich noch zu sehr Laie um es in Gänze zu verstehen, aber werde mich dem angesprochenere zfs-Stammtisch mal nähern, sobald ich bissl was verstanden habe.

Danke bis hierhin, nen Controller brauche ich dennoch und überlege mal den angesprochenen zu kaufen, um in den Live-Test-Betrieb damit zu gehen.
Die Test davon sind ja in der Tat sehr positiv und die Performance auch okay. Leider ohne bbu, dafür kann man für die Ersparnis noch einiges anderes machen und der backupserver hängt eh an einer usv.
Ich weiß sicherer und besser geht immer.

Grundproblem:
Raid 5/6: hat ein Writehole Problem, braucht spezielle Hardware Raid-Controller mit BBU
Macht man vor allem bei Windows und NTFS da ReFS noch nichts taugt.

ZFS Z1-3: hat kein Writehole Problem, mag keine Hardware-Raid-Controller sondern simple HBA ohne BBU. Macht man vor Allem bei Solaris (ZFS only) aber auch BSD und Linux.

Ergo
Das (Datei) System bestimmt den benötigten Controller.
 
Zuletzt bearbeitet:
Fladdy, RAID-Z1 hat natürlich den Vorteil, dass das Filesystem natürlich weiß, welche Cluster belegt sind und beim Rebuild nur diese restaurieren muss, was natürlich nur dann wirklich etwas an dem Grundproblem der Unkorrigierbaren Bitfehler ändert, wenn das RAID nicht so voll ist. Normale Cosumer HDD mit einer UBER von 10^-14 eigenen sich schlicht nicht für solche großen RAIDs, die besseren SATA HDDs und einfacheren SAS HDDs haben ebenso wie Cosumer-SSDs nach JEDEC JESD218 eine UBER von 10^-15 und richtig gute Enterprise HDDs und Enterprise SSDs von 10^-16, die kosten aber auch richtig viel Geld.

Die Battery Backup Unit wird bei den Hardware RAID Controllern weniger wegen der Write-Hole Problematik benötigt sondern wegen dem RAM Cache. Wichtig ist das eben vor allem bei Datenbanken, denn damit kann das RAM des RAID Controllers (HBA haben üblicherweise keines) als Schreibcache aktiviert werden (das auf den Platten muss aber Deaktiviert sein!), ohne einen Datenverlust bei einem Stromausfall zu riskieren, zumindest solange der Strom vor dem Ende der Akkuladung wiederherstellt wird. Da die Akkukapazität aber mit der Zeit abnimmt, verwendet man heute immer öfter NANDs und Superkondensatoren um den Cacheinhalt bei einem Stromausfall zu speichern.

Der Hintergrund ist, dass gerade Datenbanken ein Commit immer erst dann abschließen, wenn die Platten bzw. der RAID Controller bestätigen, dass alles wirklich auch auf das Medium geschrieben wurde. Mit einer entsprechenden Backuplösung für den RAM-Cache müssen die Anwendungen aber nicht wirklich auf die HDDs waren, dann reicht es wenn die Daten im Controllercache stehen damit der Controller diese Bestätigung schickt.

Es ist eben einiges zu beachten, wenn man eine ordentliches RAID bauen möchte, dass auch eine gute Performance bietet.
 
ZFS als Dateisystem bietet sich bei dir leider nicht an, da ZFS die Daten bei einer Raid-Erweiterung nicht neu verteilt und man ein Raidz nicht sinnvoll erweitern kann mit wenigen HDDs.
Wenn du eh eine Hot-Spare vorgesehen hast, nimm gleich ein Raid6 mit 6-8 HDDs. Spätestens bei der Erweiterung mit neuen HDDs kann dir das Raid aber ab rauchen.
Hier solltest du öfters den Selbsttest der HDDs und den Patrol Read des Raidcontrollers nutzen um zumindest die eine oder andere HDD ggf. vorzeitig austauschen zu können.
Brauchbare Hersteller sind Adaptec, Areca und LSI. Kostenpunkt neu ca. 400-800 Euro.
 
...Letztens auf der Arbeit habe ich erlebt, dass in einem Platten Shelf beim Rebuild eines Raid6 6 Platten nach und nach kaputt gegangen sind und der Rebuild letzten Endes nicht geklappt hat....

Ich glaub dir dass es so passiert ist, aber einen derartigen Extremfall wuerde ich nicht mit der Anzahl der Platten im Array in Verbindung bringen. Es ist praktisch unmoeglich, dass sechs! Platten innerhalb des rebuilds ausfallen und es nur an den Platten liegt. Und wenn doch, dann muss mit denen irgendwas geschehen sein, das absolut unnormal war. Selbst bei grossen Arrays und rebuild-zeiten von 20h oder sowas in der Art. Oder die waren alle dermassen end of life und liefen schon 10jahre durch? Wieviel platten hatte denn das Array?
 
SnapRAID + FlexRAID Pooling.

Wenn dir die Geschwindigkeit einer einzelnen Platte reicht und sich die Daten wirklich nur bei einer Sicherung ändern, ist das meiner Meinung nach die erste Wahl.

Ich hatte vorher ein QNAP mit 4 Festplatten und beim Upgrade von 4x2TB auf 4x3TB geht dir schonmal die Düse..... 4 Rebuilds und da darf NICHTS schiefgehn.

Bei Platzmangel häng ich einfach eine neue Platte rein (egal welche Größe) und mach nen Resync. Fertig!


Einziger "Nachteil" ist eben, dass beim Ausfall einer Platte die jeweiligen Daten erstmal weg sind und wiederhergestellt werden müssen.


Einen Plattenausfall hatte ich auch schon - 2TB Platte rein, 3TB Platte raus, "fix" ausgeführt und die Daten waren wieder da.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh