Hatte kurz überlegt ob das System nicht eher in den Vorstellungsthread für Dual CPU Lösungen soll, dann aber doch entschieden hier anzufangen.
Im Endeffekt handelt es sich hier um meinen Storageserver, auf dem ab ~jetzt meine Daten bzw. Sicherungen gebunkert werden.
Für die teilweise suboptimalen Bilder entschuldige ich mich vorab, die wurden gemacht um was anderes zu zeigen und nicht um primär das System vorzustellen. Ich kann zur Zeit leider keine neuen machen, denn auf dem System steht zur Zeit in einem provisorischen Aufbau mein ESX Server, daher kann ich den Storagehobel im Moment nicht bewegen um Bilder zu machen.
Fangen wir mal an mit der verbauten Hardware:
Gehäuse: Chieftec BA-01
Netzteil: Thermaltake Toughpower XT 775 Watt
Lüfter: 4x AC F8, 3x AC F9, 4x AC F12
Mainboard: Tyan S7002 (S7002AG2NR)
CPUs: 2x Intel Xeon L5630 (Quadcore mit HT, 2.13 Ghz, TDP 40W) mit Noctua U12DX 1366 und NF-P12
Ram: 8x2 GB DDR3-1333 CL9 ECC Registered
SSD: Intel SSD Series 320 40 GB (für Win Server 2008 R2)
Storagecontroller 1: LSI 3ware 9750-4i
Storagecontroller 2: HP SAS Expander
HDDs: 16x Seagate Barracuda 7200.11 1.5 TB (ST31500341AS, acht davon in den HDD Bays des Cases und die anderen acht in zwei Coolermaster Einbaurahmen in je drei 5.25" Bays)
Storagecontroller 3: Emulex LPe 11002 Dualport 4 GBit Fibrechannel HBA
Externer FC Storage: Infortrend A16F-G2430 (16 Bay Sata to FC Enclosure mit derzeit 8x WD Caviar Black 1 TB (WD1001FALS) im Raid 5)
Auf den Bilder sieht man das Enclosure leider nicht und zur Zeit steht der Server selbst davor, den ich ja nicht bewegen kann!
Das Gehäuse und Netzteil wurden nach dem EHDA-Prinzip gewählt, denn beide waren eh da!
Das bot sich im Endeffekt auch an, das Gehäuse hat die perfekten Maße und die richtigen Montagemöglichkeiten. Das Netzteil ist überdimensioniert, aber immerhin ist es garantiert nich zu schwach und es war schon da, daher fand es seinen Weg in das System. Modulare Kabel waren hier natürlich ebenfalls von Vorteil.
Die CPUs kamen günstig von einem Kumpel und sind technisch gesehen nicht notwendig, aber ich wollte aus Prinzip etwas mit zwei CPUs und daher bot sich das an.
Alle anderen Teile wurden dann spezifisch für die Ausgangslage und die angedachte Nutzung beschafft.
Die 16 Platten werden mit zwei 4-Pin auf 8x Sata Stromstecker versorgt, die selbst gebastelt sind. Das war dringend notwendig, sonst wäre das Kabelchaos unvorstellbar.
Die Festplattenkabel sind original 3ware SFF-8087 auf 4x Sata in 1.0 Meter Länge. Die sind mit am günstigsten und schön flexibel, daher sehr angenehm zu verlegen. Besonders an den Platten in den Bays des Cases wird das interessant, da man die Kabel entsprechend abknicken muss damit die Seitenwand passt und nicht mit den abstehenden Kabeln kollidiert.
Zusammen bilden die Platten ein großes Raid 6 mit dann effektiv etwas mehr als 19 TB Kapazität.
Die Performance im Benchmark ist nicht 100% plausibel, ATTO spricht von Leseraten über 2 GB/s und Schreibraten im Bereich von 800 MB/s.
Das werde ich in Praxistests aber noch näher untersuchen. Im Moment ist das rein theoretisch, da der Server nur mit GBit Ethernet angebunden ist.
10 GBit ist für die Zukunft aber vorgesehen. Damit ist eigentlich auch die ToDo Liste schon erschöpfend behandelt, denn mehr als 10 GBit nachzurüsten habe ich derzeit damit nicht vor.
Erweiterbarkeit ist noch mehr oder weniger gegeben. Der Expander hat noch freie Ports und man kann einen Käfig für weitere vier Platten über dem Netzteil verbauen. Ob ich das noch mache weiß ich bisher nicht, bis dato ist es nicht notwendig.
Kreative Ideen sind aber immer gerne gesehen, also ruhig raus damit wenn jemand einen guten Einfall hat.
Ich bin mir aber auch nicht zu schade die Nachteile aufzulisten, die das System so mit sich bringt:
1. Das System hat bei mir noch keinen endgültigen Standplatz, daher habe ich die Füße durch Rollen ersetzt. Keine Ahnung wie schwer es ist, aber herumtragen ist definitiv zu müßig.
2. Weil es ein altes Gehäuse ist, ist es nicht vorgesehen die Kabel hinter dem Mainboardtray zu verlegen. Das Ergebnis ist offensichtlich, alle Kabel liegen "offen" herum.
3. Die vier 80mm AC F8 Fans vor den PCIe Karten sind zwingend notwendig zur Vermeidung von einem massiven Hitzestau. In Zukunft soll ja eine 10 GBit NIC den letzten freien PCIe Slot belegen, was die Situation sicher nicht verbessern wird.
Der Raidcontroller wird so heiß wie man das von Raidcontrollern kennt, der Expander wird so heiß, dass man sich problemlos böse die Finger verbrennen kann und weil die FC Karte erst gar keinen Kühler hat empfiehlt Emulex einen konstanten Luftstrom von 100 m³/h.
Die 10 Gbit NICs haben einen Verbrauch, laut Specs, je nach Modell, von bis zu ~20 Watt die sich dann auch noch in der Ecke tummeln werden.
Ich glaube das wars fürs erste, offene Fragen beantworte ich natürlich gerne.