Aufbau vSphere 5.5 Cluster - Empfehlungen?

jraf

Enthusiast
Thread Starter
Mitglied seit
26.07.2005
Beiträge
5.398
Hallo allerseits,

ich habe gerade ein aktuelles Projekt zum Thema VmWare ESX - ein bestehender Cluster mit VmWare ESX 4.1 soll abgelöst werden. Geplant ist ein neuer Cluster mit Vsphere 5.5, bestehend aus 3 Servern und einem Shared Storage.
Hardwaretechnisch wird es sich voraussichtlich um 3 identische Server HP DL380 G6 handeln und eine HP MSA P2000 Dual FC als Shared Storage.

Nun wäre meine Frage an euch - wie sollte eurer Ansicht nach der technische Aufbau eines derartigen Clusters aussehen, also wie könnte die Vernetzung der Systeme implementiert werden und wie ist die Integration des Shared Storage am Besten zu lösen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sowohl die Vernetzung der Systeme als auch die Integration der Shared Storage sind komplett abhängig von euren Anforderungen und Budget-Fragen. Ohne detailliertere Informationen gibt es kein "am besten".
 
abhängig von euren Anforderungen und Budget-Fragen
Also die Budget-Frage sollte nebensächlich sein, da sowohl Hardware als auch Software-Lizenzen vorhanden sind und nicht neu erworben werden. Die P2000 MSA verfügt über 2 Dual Channel FC-Controller 8GB/s - entsprechende Dual Port FC Adapter für die Server sind auch vorhanden. Was die Ethernet-Infrastruktur betrifft so sind gestackte managebare Gigabit-Switches vorhanden und entsprechende Netzwerkkarten in den Servern.

Die virtuellen Maschinen würden voraussichtlich mit 4x1GBit Link Aggregation an das Netzwerk angebunden (alle VMs befinden sich im gleichen Netzwerk). Allerdings braucht es ja auch noch Management und ggf. ein eigenes Netzwerk für Funktionen wie vMotion - speziell in dieser Richtung würde ich mich über Empfehlungen freuen für eine sinnvolle Implementierung - vielleicht hat auch jemand ein ähnliches System in Betrieb und kann den Aufbau beispielhaft skizzieren?
 
Zuletzt bearbeitet:
Du setzt 6 Jahre alte Hardware ein, da ist eine Budgetfrage durchaus berechtigt. ;)

Bei Hyper-V Clustern machen wir normalerweise 2 - 4 NICs für SAN-VLAN, 1 MGNT (Console etc) und 1 für die interne Kommunikation (z. B. Live Migration). Da du wohl 4 Port NICs hast, wäre dies also ein möglicher Aufbau.
 
Drängt sich bei deiner vorhandenen Hardware nicht sowieso eine Lösung auf?
2 NIC ports für Kommunikation nach außen, 1 NIC Management 1 NIC migration. Und dein FC Storage irgendwie als Shared Storage einbinden.

Was soll denn da überhaupt virtualisiert drauf laufen?
 
Ja, ich meine auch, dass vMotion über eine Netzwerkkarte gehen sollte, Management über eine weitere (wenn Management- und VM-Netzwerk getrennt sein soll) und die restlichen physikalischen Netzwerkkarten können an den virtuellen Switch, wo die virtuellen Maschinen dran hängen.

Ansonsten erneut: es kommt ganz auf eure Anforderungen an.
Ganz einfach kann man prinzipiell alles (sowohl Management als auch VM-Verkehr als auch vMotion) über einen virtuellen Switch laufen lassen, auch wenn das nicht empfehlenswert ist, man kann die Aufgaben aber auch dementsprechend komplett trennen, je nachdem wie viele Netzwerkkarten man hat und mit welcher Bandbreite das VM-Netzwerk angebunden werden soll. Ohne konkrete Anforderungen können wir noch so viele Lösungsbeispiele bringen, die aber allesamt für eure Umgebung Schwachsinn sein können.
 
vMotion über eine Leitung kann schon langsam sein.Vor allem wenn ein Host in Wartungsmode geht und viele VM´s migriert werden müssen.Ich würde der Portgruppe für die VM´s 2 Interfaces zuweisen und in den VMKernels vMotion + Management auch auf zwei Leitungen sharen.
 
Naja, in einer Umgebung mit nur drei Hosts und einer zentralen Storage dürften nicht so viele virtuelle Maschinen überhaupt laufen und somit gleichzeitig migriert werden, dass 1 Gbit/s dafür eine zu geringe Bandbreite ist. Da würde ich eher Management- und vMotion-Verkehr physikalisch trennen.
 
Habt ihr die FC Infrastruktur schon im Haus? Habt ihr schon einen bestehenden FC Switch?
Ansonsten wäre die P2000 mit SAS Connectoren eine Idee und in den Servern ein Controller mit externem SAS Port. Hier ist eine kleine Beschreibung dazu: HP P2000 G3 SAS SAN - Justin's IT Blog | Justin's IT Blog

Ich würde bei 4 Nic pro Server 2 für die VM Anbindung (vSwitch1) und 2 für Management und vMotion (vSwitch2) nutzen. Letzteres auf zwei unterschiedlichen vmkernel Interfaces mit unterschiedlichen VLANs.
 
Habt ihr die FC Infrastruktur schon im Haus? Habt ihr schon einen bestehenden FC Switch?
Ja 2 passende FC Switches sind auch vorhanden. Wir hatten auch überlegt die iSCSI Variante zu benutzen, allerdings sind die entsprechenden Controller für die P2000 preislich unattraktiv.
Ich würde bei 4 Nic pro Server 2 für die VM Anbindung (vSwitch1) und 2 für Management und vMotion (vSwitch2) nutzen
Ja so in etwa hatte ich mir das auch gedacht. Ich werde wohl den Servern noch eine Dual- oder Quadport Netzwerkkarte spendieren und dann 4 NICs für die VM Anbindung und je 2 für Management und vMotion verwenden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh