AdvancedTCA

zKoxx

Neuling
Thread Starter
Mitglied seit
17.07.2008
Beiträge
88
Hi Leute,

ich informiere mich nun schon seid längeren über Möglicheiten wie man sich als preisbewusten Privatmann mit enormer Rechenkraft auszustatten. Mehr als eine Quad-Sockel-F Workstation. Darüber hinaus skallierbar und ohne große Ansprüche an die Räumlichkeiten(Klima).

Sprich: Cluster

Habe nun eine Menge über mITX-Cluster, Beowulf, Pizza-Schachteln ;) und Bladecenter gelesen. Finde die Lösungen aus rohen günstigen Mainboards immernoch gut, allerdings informiere ich mich auch über die Qualitäten der kaufbaren Lösungen.

Um zu meiner Frage zu kommen. Da es mir im Grunde um eine skalierbare Kopplung von CPUs geht bin ich irgendwann auf Com-Express, SBC etc. gestossen. Information darüber ist aber sehr unübersichtlich und nur schwer zu finden.

Meine Frage: Baseboards nach PICMG 3.0/1 bzw. aTCA mTCA sind ja nun eigentlich die Grundlage für moderne Blade-Systeme. Dort sind die einzelnen Komponenten schön gekapselt und net verpackt. Plus nützlicher Verwaltungs- und Netzwerk-Funktionen des Chassis-System.
Boards gibt es aber auch einzeln ;) schöne 12-20 Steckplätze.

Was hält mich/uns davon ab ein nette 4HE Gehäuse zu holen. Baseboard rein und 10 CPU-Module und 2 Netzwerk-Module. Ein paar dicke Lüfter vieleicht net SSD XD ;)

Bitte helft mir auf die Sprünge.

:wink: zKoxx
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Boards gibt es aber auch einzeln ;) schöne 12-20 Steckplätze.

wo denn da z.B. ?

Was hält mich/uns davon ab ein nette 4HE Gehäuse zu holen. Baseboard rein und 10 CPU-Module und 2 Netzwerk-Module. Ein paar dicke Lüfter vieleicht net SSD XD ;)

ich denke, das ist erst mal eine frage der verfügbarkeit von passender hardware. in freier wildbahn habe ich sowas noch nicht für den selbstbau gesehen. klär' uns doch mal auf, wo es solches zeug gibt ?

davon abgesehen: was willst du denn mit - sagen wir - 20 CPUs anstellen ?


future_former
 
Zum Beispiel hier:
http://www.chassis-plans.com/single-board-computer/S6467-backplane.htm

Sind passive Backplanes, die über einen PCI-Express BUS COM-Express Module verbinden. Denke ich ;)

tjoah, interessante backplane, allerdings fehlen dann noch die CPU-module für PCI-X. aber miteinander kommunizieren werden die einzelnen module ja wohl eher nicht, daher würde es mich interessieren, wie das generell funktionieren soll ???
und ich stelle mir auch die frage, ob die popelige EPS-stromversorgung für knappp 10 CPU-boards ausreicht ?

also, ich halte ehrlich gesagt von der idee, einen selbstbau-cluster in ein 4HE-gehäuse zu stopfen eher wenig. da würde ich auf fertige lösungen zurückgreifen, zumal mir völlig schleierhaft ist, wie du den cluster überhaupt betreiben willst (OS usw.).
ein paar normale 1 HE 19" rackserver mit dual xeon/opteron sollten den zweck doch sicherlich genauso und kosteneffektiver erfüllen ?


btw: habe da auf dieser seite einen mir unbekannten motherboard-hersteller ausgemacht:

http://www.corvalent.com

atxs-5000p-top-270.jpg



future_former
 
Ich glaube du verwechselst da was. (Dein Link zu backplane)

Die SBC sind wie normale Motherboards nur ohne Erweiterungsslots. Das heißt es ist alles da untergebracht was man braucht. CPU,RAM, Controller...

Diese Teile kann man oft schon in dem Stadium betreiben. Man braucht erstmal nix weiter. Wenn man jetzt aber noch was nachrüsten will, zB Graka, RAID-Controller....
dann muß man sich erstmal Erweiterungsslots besorgen. Das wird über die sogenannten Backplanes realisiert. Dort wird bei den kleineren einfach die Kontaktleiste des SBC genommen und auf wenige Ports weiterleitet.
Bei den Größeren (dein Link) wird das ganze über PCIe/PCI-X bridges erledigt. So dass man aus einem PCIe mehre machen kann, dann aber natürlich mit Geschwindigkeitsbeschränkungen.
Dein Link hat nichts mit COM-Express zu tun, das ist ganz normales SBC und Backplane.

Wenn du COM-Express als Blade einsetzen willst, brauchst du auch nen Bladecenter wie es die Großen auch sind, halt nur in klein. Das kannst du aber nicht mit deiner Backplane realisieren, da die Backplane einfach nur einen (PCIe/PCI-X)Steckplatzmultiplizierer darstellt.

EDIT:
PICMG 3.0 ist einfach nur ein Standard für Bladecenter. Bisher hat jeder Hersteller seine Sache gemacht, HP seins, IBM seins... Die waren nicht kompatibel. Durch PICMG 3.0 gibt es ein einheitliches Layout für das Center und für die Blades. Somit sollte es dann möglich sein ein Multi"kulti" Bladecenter zu bauen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh