aaaalso:
Das X8DAH+ hat zwei echte 16x PCIe 2.0 Slots, die also auch mit 16 lanes angebunden sind. Diese sind ideal für Grafikkarten geeignet.
Ein 16x PCIe 2.0 Slot mit 8 Lanes: Grafikkarten passen, haben dann aber "nur" die halbe Bandbreite. (Entspricht einem klassischen 16x PCIe 1.x-Slot. Mit anderen Worten: Das reicht immernoch.)
Weitere 8x PCIe-Slots mit 8 Lanes sind vorhanden (ideal für RAID-Controller) und ein 8x-Port hat 4x Lanes. Reicht für einige (RAID-)Controller oder z.B. für TV oder Netzwerkkarten. Der liegt aber eh so, daß er von einer Dual-Slot-Graka im 16x-Port verdeckt wird.
Dual Intel GbE LAN mit allen Fähigkeiten, die man für Virtualisierung benötigt. Angebunden an IOH-36D (also die Northbridge) über 4x PCIe (mehr als genug Bandbreite).
Nachteile möchte ich nicht verschweigen:
1. Das X8DAH+ ist RIESENGROSS. Das ist größer als eATX! Du mußt ein Gehäuse finden, welches dieses Board aufnehmen kann. Ich habe mit einer Flex einen älteren Chieftec Bigtower umgebaut, in den "nur" eATX gepasst hätte.
2. Du solltest ein Netzteil mit 2x 8pin EPS12V Anschlüssen haben. Es gibt zwar auch diverse Adapter, aber gedacht ist das Board eben für Netzteile, die die passenden Anschlüsse mitbringen.
3. Ich habe gelesen, daß die Halterungslöcher, vermutlich begründet durch die ungewöhnlichen Ausmaße des Boards, nicht an den Standardpositionen sitzen. Da werde ich also ein paar neue Halterungen bei mir im Gehäuse anbringen müssen.
4. Leider kein onboard SAS. Das hätte ich wirklich gerne gehabt.
Alternativ hatte ich mir das X8DTH-6 überlegt.
Wichtigste Unterschiede zum X8DAH+:
- eATX Formfaktor, also passt es in jedes Server-Gehäuse problemlos hinein.
- keine echten 16x-Slots! Alle PCIe Slots sind zwar in 16x ausgeführt, aber "nur" mit 8x verdrahtet. Das reicht für Grafikkarten aus, aber es ist natürlich nicht perfekt.
- "nur" 12 Rambausteine finden Platz, 96GB maximal. (Halb so wild, denn bei mehr RAMs sinkt die Leistung)
- Je nach Ausführung (ich habe "-6" angegeben) kommt das Board mit onboard SAS-II. Das ist natürlich ein nettes Extra. Der verbaute LSI Controller ist für einen onboard-Chip ganz OK und reicht zumindest für ein nettes RAID-1 mit 15k SAS platten für's OS. Es gibt auch Ausführungen ohne des SAS-Controller ("-i") und dafür mit SATA-Anschlüssen. Vergünstigt das Board ein paar Euro.
Achja: Die Boards sind nicht gerade leicht zu bekommen, da sie im Gegensatz zu den ASUS-Boards ehr für OEMs gedacht sind, die daraus fertige Server bauen.
Warum diese Boards und keine der anderen von Supermicro:
- Nur PCIe Slots: Ich habe zwar noch Controller für 64bit PCI und PCI-X, aber sind wir doch mal ehrlich: Alte Schinken. Neue Karten werden auf jeden Fall PCIe sein.
- 16x PCIe Slots (mechanische Ausführung ist gemeint): Egal ob 8x oder 16x verdrahtet - das ist als Workstation gedacht, da muß eine anständige Graka passen. Es gibt Boards, die haben nur 8x oder gar 4x Slots. Das hilft dann herzlich wenig. Spätestens wenn es mal einen RAID-controller gibt, der einen 16x Slot mechanisch verlangt, steht man dann mit einem tollen Board vor dem Problem, daß man die Controller nicht einsetzen kann. Irgendwie doof.
- LÜFTERLOS! (Ich finde es immer schön, wenn das Board mit passiven Kühlkörpern auskommt. Die kleinen Lüfter sind doch oftmals die ersten, die Lärm machen und ausfallen.)
Zusatz:
- Die Supermicro-Boards mit Endung -f bringen IPMI mit. Das brauche ich nicht.
- einige Supermicro-Boards haben spezielle Formfaktoren, so daß im Rack in einem Gehäuse zwei Server nebeneinander eingebaut werden können. Die fallen alle für Workstations raus.
Wenn Du unbedingt 32bit PCI oder gar 64bit PCI brauchst, dann mußt Du halt eines der anderen Wählen. X8DAi oder X8DA3 für 32bit PCI, oder das Monstrum X8DTN+ für PCI-X... Beachte, daß bei den ersten beiden dann aber auch schon kleinere Intel-NICs verbaut sind, die nicht mehr alle Virtualisierungsfunktionen unterstützen, falls das für Dich von Interesse ist.