Mach dich doch für deine Workstation mal kundig, ob dein Bulldozer-Unterbau auch ECC kann, ich habe es jetzt nicht genau im Kopf, meine aber dass die AMDs fast durchgängig ECC-RAM ansprechen können.
Mit AMD kenne ich mich gut aus, das kann ich aus dem Kopf beantworten. Die Intel Technologie ist die letzten Jahre an mir vorbeigegangen, ich kann dir dort nicht mal chronologisch die Sockeltypen aufzählen. Da kannst Dir jetzt vorstellen, welche Wissenslücke bei mir zu schließen ist.
Aber zum Bulldozer: Der RAM-Controller im Bulldozer, wie auch im Phenom und Phenom II unterstützt grundsätzlich ECC-RAM (unregistered, unbuffered). Es liegt immer am Mainboard, ob dieses die ECC-Features des Prozessors aktiviert oder nicht und ob die zusätzlichen Datenleitungen von den Speicherslots überhaupt bis zur CPU auf dem Mainboard vom Hersteller geätzt wurden.
Die meisten Mainboards von Asus unterstützen ECC-RAM in verbindung mit dem Sockel AM3 oder AM3+. Der Bulldozer FX-Prozessor hat immer zwei Speicherkanäle. Die meisten anderen Hersteller tun das nicht. In meinem Server habe ich ein bestimmtes Asus Board, welches zwei PCIe Slots bietet, eine integrierte Grafik und ECC-RAM Support. Allerdings war zur Upgrade-Zeit lediglich der unregistered, unbuffered RAM von Kingston (4x 4GB) mit 1333 MHz erhältlich.
In der Workstation benötigte ich vier PCIe x16 Slots. Solche Boards mit ECC-RAM Support gab es damals (vor einem halben Jahr) noch nicht und ich setze darauf 16 GB non ECC RAM ein. Allerdings mit 1866 MHz. Das ist der Speicher-Standardtakt des Bulldozers.
Nun habe ich gelesen, dass die Xeons mehr als nur zwei Speicherkanäle bieten, allerdings RAM nur mit 1600 MHz ansteuern können. Das ist aber in Ordnung, wenn ich dafür 32 GB ECC RAM einbauen kann. Ich denke die drei Speicherkanäle erlauben eine höhere Performancesteigerung, als der Speichertakt.
Der Server, der 24/7 läuft, soll besonders sparsam im Idle sein. Aber volle Leistung geben können, egal mit welchem Stromverbrauch, wenn diese abgerufen wird. Als System-RAID wird ein RAID-5 aus 4x Cheetah 15k.7 300 GB Disks verwendet. Für die Daten existiert ein RAID-6 aus 7x Seagate Constellation 7200 Upm 1TB. Die Anzahl an Festplatten limitieren natürlich die Stromsparerei. Aber so ist das nun Mal.
Daher habe ich an die folgende Grundkonfig für den Server gedacht:
* Mainboard von Supermicro mit "-F" mit den folgenden PCIe Steckplätzen (1x min. 8 Lanes, 2x min. 4 Lanes / besser wäre 1x 16Lanes, 2x ab 8Lanes und 1-2x 1bis4 Lanes)
* Xenon mit 4 Cores (8 HT). Die Xenons sind im Idle wohl sparsamer als die Opterons. Habe ich das so richtig herausgelesen?
* 32 GB ECC-RAM (4x 8GB)
Als Steckkarten (bereits vorhanden):
1x Areca ARC-1882ix-16 Controller
1x Intel PT 1000 Quad NIC
1x Infiniband-NIC
Für die Workstation denke ich an ein ähnliches System. Hier denke ich jedoch an eine Dual-Socket Board von Supermicro ebenfalls mit der Fernwartungsfunktion. Ebenfalls 32 GB ECC RAM. Als Grafikkarte kommt eine passive Asus Radeon HD6850 mit zwei Dual-Link-DVI Anschlüssen für die zwei 30 Zoll TFTs. Sollte noch einer oder zwei dieser Monitore dazukommen, werde ich eine zweite solche Grafikkarte benötigen.
Daher muss das Mainboard bereits für die Grafikkarten zwei PCIe x16 Slots bieten, welche mit jeweils min. 8 Lanes verschaltet sind und voneinander entsprechend weit entfernt sind, damit die Grafikkarten nebeneinander passen. Die Grafikkarten besetzen jeweils zwei Slots.
Zusätzlich kommt ins Board der vorhandene Areca Controller, welcher ein SSD-RAID0 ansteuert. Der Controller wird 4 oder 8 PCIe Lanes benötigen.
Dann noch eine Intel PT Dual-Nic, welche einen PCIe Slot mit min. 4 Lanes erfordert und letztendlich der Infiniband-Controller mit ebenfalls 4 PCIe Lanes.
Somit sollte das Board 2x PCIe x16 Slots haben und min. 3x PCIe 4x Slots. Sollten aber eher mehr für eventuelle spätere Erweiterugen sein.
Ich überlege noch, welche Vorteile mir ein System bietet, welches beispielsweise zwei Xeon CPUs mit jeweils 4 Cores beherberg, im Vergleich zu einem System mit einer Xeon CPU mit 8 Cores. Was kann ich von den beiden physikalisch getrennten CPUs erwarten, im vergleich zu einer CPU. Die Gesamtzahl der Cores, welches das System besitzt bleibt dabei gleich. Wie verhält es sich da mit dem Zugriff der beiden getrennten Prozessoren auf den Speicher und die Peripherie? Behindern sich die beiden CPUs dann eher oder ist das eher besser. Einen richtig guten Artikel mit der Unterscheidung konnte ich bisher nicht ausfindig machen. Hat Jemand hier diesbezüglich Erfahrungen?
Mein letzter Dual-CPU Rechner bestand aus zwei gemoddeten (Silberleitlack) AMD Athlon XP 2500+. Wie das Dual-Board damals hieß, weiß ich nicht mehr. Ist aber gute 10 Jahre her, seit ich das hatte. Die Athlon XP waren ja Single-Core CPUs, so dass ich daraus keinen Vergleich ziehen kann, um meine obige Frage zu lösen.
Gruss
Freeman