Mehrere Beiträge und keiner macht mal den offensichtlichsten Vorschlag: 24 Port 4HE Inter-Tech Gehäuse und fertig ist die Laube.
So sehe ich das auch...
Das ganze irgendwie extern via LAN anzubinden (iSCSI, NFS, ggf. FCoE) macht nur dann Sinn, wenn man entsprechend anständige Infrastruktur hat.
Sprich ab 10G Ethernet (iSCSI, NFS oder FCoE)
Oder halt Geschichten wie IPoverIB mit 20/40 oder mehr GBit/sec und dann dort iSCSI oder NFS drüber fahren.
Bessere, weil schneller und stressfreier wäre aus meiner Sicht die komplette Maschine in ein "Storage Case" zu verfrachten und native anzubinden.
Ob man dabei nun so ein 4HE Case mit 24 Einschüben nimmt, oder ggf. sogar zwei übereinander nutzt um dann auf 48 zu kommen ist dabei erstmal relativ egal. Auch wäre ein großes 24er Case + ein kleineres 16er Case eine Option. Die Backplanes sollten intern direkt an die Controller gekoppelt werden um möglichst effizient den Speed nutzen zu können.
Für 14 + 16-24 HDDs = im höchstfall 38 HDDs wären das dann 4x8 Controller/HBAs + 6 OnBoard Ports des Boards. Oder 5x8 Controller.
Oder verstehe ich den Part: "
um bis zu 16/24 weitere Festplatten
erweitern" falsch und du meinst
auf bis zu 24 HDDs? Wenn letzteres, reicht imho ein Case
-> Hardware rein, Backplanes an die Controller verbinden, fertig.
Was ich bei dem Vorhaben eher als potentiell problematisch sehe ist das verwendete Raidlevel...
Mit nem Raid 10 über 24 HDDs würde ich ehrlich gesagt nun nicht unbedingt anfagen. Das ist zwar vom Speed her (Random Access) wohl fast die optimalste Lösung was geht. Aber vom Ausfallrisiko her eher suboptional. Bedenke, dass pro Mirror maximal eine HDD ausfallen darf. Das heist pro 19 HDD Mirror darf maximal eine Ausfallen (oder wenn du, siehe obige Frage, 24 max. meinst, dann pro 12 HDD Mirror).
Es nutzt dann halt auch keine Hot/Coldspare HDD was, wenn es dir ein zweites Laufwerk im Mirror während des Rebuilds zerlegt.
Besser wäre hier wohl was auf Paritätsberechnungsebene zu nutzen. Vorteil auch, du gewinnst Platz. Nachteil ist zumindest ein Stück weit, der Speed ist ggf. etwas geringer, da die Paritätsdatenberechnungen Zeit kosten. Das lässt sich aber via Caching und Co. ein Stück weit kompensieren bzw. gar ganz aus der Welt schaffen. Ebenso Vorteil, du kannst die Anzahl der Paritätsdaten nach oben hin steuern. Sprich zwei oder gar mehr wären potentiall machbar. Somit können auch mehr HDDs gleichzeitig stehen ohne das die Daten "in Gefahr" sind.
Hier dürfte wohl ein ZFS Storagesystem mit größerem Abstand am Flexibelsten sein. Die Frage ist eher, ob sich so ein Solaris/Unix Unterbau allein fürs Storage mit deinen Anforderungen deckt. Ist dann halt kein Ubuntu, wie du es jetzt hast und du musst dir ggf. Gedanken machen, wie du Sachen native auf dem Unix Derivat ausführst.
Ggf. ist es unter diesem Gesichtspunkt doch gar nicht soooo verkehrt, ein zweites System aufzuziehen, was allein das Storage bereit stellt. So eine kleine mini Xeon Kiste mit Anbindung der HDDs -> dort dann ein ZFS beherschendes System drauf und die beiden Systeme zusammen koppeln. z.B. via direkt verbundenen 10G Ethernet oder anderen Techniken, die schneller sind. Bei ner 1:1 Verbindung ist das teilweise sogar noch vergleichsweise günstig. Stellt sich halt nur die Frage, ob das mit dem Unix Unterbau zusammen tut.
Vorteil der Trennung wäre, das das Storage klar alleine agieren kann, wärend dein anderes System nur noch für die eigentliche Arbeitslast da ist und als Datenpool das externe Storage nutzt. Somit bleibst du flexibel, was deine Testereien angeht (freie OS Wahl) und beim Storage bist du ebenso optimal bedient.
Ein Zwitter wäre, das System auf ESXi umzubauen und das Storage über eine VM mit direkt durchgereichten Controllern zu nutzen. Nachteil hier aber, dein i7 kann kein vt-d -> ergo kein Durchreichen von Controllern an eine Storage VM. Das ist dann wieder anderweitig "gebastel". Sinnvoller, weil flexibler wäre hier ein Xeon E5 System...
Vielleicht wäre ein Tausch für sich interessant? Sprich SM Board + Xeon. Vorteil wäre sogar, du könntest auf ECC, ggf. gar Reg. ECC RAM gehen und somit auch mehr wie 64GB fahren. Der Preisunterschied rein Liste dürfte eher gering sein, kommt halt auf das Xeon Modell an. Ein Single 1600er ist preislich nicht sonderlich schlechter als der i7 und die RAM Preise unterscheiden sich auch nicht sooo extrem. Einzig die Boards werden ein Stück weit teurer sein.