Cluster Frage

erichmetzger

Enthusiast
Thread Starter
Mitglied seit
16.04.2006
Beiträge
1.548
Hallo Allerseits,

ich habe mit einem Freund einen Cluster für FEM aufgebaut. Der Cluster besteht aus 10 Nodes die über einen 1 Gbit Switch betrieben werden. Es gibt momentan 4 Nodes a 6 GB Ram und 6 Nodes a 4 GB Ram. Der Cluster hat insgesamt 20 Kerne und 48 GB Ram.

Nun bin ich am Überlegen wie ich am bequemsten neue Software über den Cluster laufen lassen kann, und versuche nun einen Rocks Cluster mit CentOS aufzubauen.

Ich denke, dass es am einfachsten wäre eine VM (Virtuelle Maschine: z. B. Windows mit einer FEM Software) auf dem Masternode in CentOS laufen zu lassen. Dabei habe ich aber leider das Problem, dass mich der eher kleine Arbeitsspeicher des Masternodes (momentan sind es 6 GB und könnten noch auf 8 GB RAM eingerichtet werden) zum Ausführen von größeren Berechnungen einschränkt.

Insoweit müsste ich meines Wissens entweder eben einen Masternode mit größeren Arbeitsspeicher aufbauen, oder eine Multiple VM ? einrichten. Welche Alternativen bzw. Lösungen gebe es denn noch ?

Nun benötige ich den Cluster bald für Berechnungen, und weis nicht recht, was in meinem Fall das Sinnvollste wäre.

Mein Freund seine Workstation könnte zwar prinzipiell als Masternode dienen, da diese 32 GB Arbeitsspeicher verbaut hat, aber wird für CAD Modellierung benötigt.

Ich wäre Euch echt dankbar für Eure Hilfe.

Erik

PS: Da ich heute schon einen Thread im Softwareluxx unter Netzwerke, Security und Internet hab laufen lassen, aber mir leider niemand bis jetzt geantwortet hat, poste ich diesen Thread nun hier im Server/Workstation Bereich. Bitte entschuldigt, wenn nun der Thread zweimal im Forum besteht. Falls mir hier jemand weiterhelfen kann, bitte ich um Löschung des Threads im Softwareluxxforum.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was meinst du mit Cluster?

Cluster ist viel. Die Frage ist um was es dir genau geht?
Üblicherweise bringt Software, welche Multinode fähig ist, entsprechende Module zum verteilten rechnen mit. Ohne genaue Infos über das WAS und WOZU kann man dir aber nicht wirklich helfen.
 
Hier mal ein Foto vom Rechnerverbund.

Picture4.jpg

Wir hatten bis vor kurzem Ubuntu auf allen Nodes und mit OpenMPI dann Openfoam über die Rechner betrieben (Klassische Einrichtung zum parallelen Rechnen nach der Anleitung von Openfoam). Nun wollten wir FEM Tools (z.B. Z88), u. a. Sourcecode, der nicht für das parallele Rechnen optimiert ist, über alle Nodes laufen lassen. Insofern kam mir die Idee, einen Rocks Cluster aufzubauen. Über CentOS dann eine Virtuelle Maschine auf dem Masternode einrichten, auf dieser dann die FEM Tools laufen sollten. Da ich mich mit CentOS noch nicht so gut auskenne, würde dieses Vorgehen eine Übergangslösung sein. Damit die Programme nativ über den Rechnerverbund mit Rocks laufen, müsste ich die Tools ja alle auf dem Master einrichten, richtig?

Naja, wir hatten erst nur ein paar Nodes aufgebaut, und wollten es aus reiner Experimentierfreude mit Rechnen über mehrere Nodes belassen. Dann wurden es aber doch mehr Nodes, als anfangs vorgesehen. Ein Dualsockel- oder Quadsockelrechner wäre zum reinen Rechnen, ohne große Kenntnisse zum Parallelen Rechnen haben zu müssen, wahrscheinlich sinnvoller gewesen.

Noch etwas zu der Frage 'Wozu?':

Aufgabe ist die Berechnung verschiedener Belastungsfälle von Zugfahrgestellrahmen (u. a. für Diplomarbeit).
 
Zuletzt bearbeitet:
Ich habe eben nochmal drüber nachgedacht. Vielleicht probiere ich auch mal Windows Server 2012 R2 mit dem HPC Pack (Windows HPC Server), kein Failover Clustering, aus. Windows bietet anscheinend eine Testversion von Windows Server 2012 R2 für 180 Tage an.

Am liebsten wäre mir ein SSI (Single System Image) für den Cluster. Da kenne ich mich leider überhaupt nicht aus. Was wäre denn ein gutes SSI? OpenMosix kann man anscheinend nicht mehr runterladen.
 
Zuletzt bearbeitet:
Ich denke, dass es am einfachsten wäre eine VM (Virtuelle Maschine: z. B. Windows mit einer FEM Software) auf dem Masternode in CentOS laufen zu lassen. Dabei habe ich aber leider das Problem, dass mich der eher kleine Arbeitsspeicher des Masternodes (momentan sind es 6 GB und könnten noch auf 8 GB RAM eingerichtet werden) zum Ausführen von größeren Berechnungen einschränkt.
Üblicherweise läßt man auf einem Cluster einen Job Scheduler laufen. slurm tut einen ordentlichen Job auch auf größeren Clustern (torque ist nicht so toll), so daß er bei Euch problemlos laufen wird. MVAPICH harmoniert besser mit slurm als OpneMPI, d.h. slurm startet die MPI Ranks auf den Knoten automatisch auf und man muß sich nicht darum kümmern. Mit OpenMPI gibt es mehr Arbeit.

Zur Verteilung der Software auf die Knoten nutzt man Software wie xCAT.
 
@ jdl

Okay, dank Dir. Wenn ich wieder am Cluster bin, werde ich das mal versuchen einzurichten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh