Storage auf ESXi Datenspeicher per RDM ist nicht optimal.
Eine saubere Lösung eines ESXi-Servers mit virtualisiertem NAS/SAN könnte so aussehen:
- ESXi auf einer onboard SATA Platte installieren
- auf dieser SATA Platte ein lokales datastore anlegen
- ein virtuelles SAN OS darauf anlegen (egal was, ich bevorzuge ZFS für Storage)
- einen zweiten Disk Controller einbauen, alle Datenplatten da anschließen und diesen
per vt-d und pass-through an das SAN OS durchreichen. Das SAN OS hat dann direkten Zugriff,
hat alle Reparaturmöglichkeiten und praktisch die gleiche Performance wie auf echter Hardware
Das NAS/SAN kann jetzt Datenserver spielen.
Unter anderem kann es auch shared storage (iSCSI oder NFS) für ESXi bereitstellen.
Jede VM kann darauf zugreifen z.B. ISO's mounten etc.
Neja so viel sauberer ist das nun auch nicht
Der Vorteil an der Geschichte ist, man kann das ganze direkt als Fileserver missbrauchen... Ansonsten bleibt als riesiger Nachteil der Single Point of Failure an der Stelle, wo eben die SAN VM abgelegt ist.
Hier kann man sich nur äußerst schwer schützen...
Das Problem ist und bleibt der mangelnde Software Raid Support von VMware für die ESXi Server... Den Host selbst kann man bequem auf nem USB Stick fallen lassen. Das SAN OS muss aber irgendwie auf nen Datastore. Der ohne Software Raid Support eben ne Single HDD/SDD, oder ein FlashMedium wie auch immer geartet sein muss. Raucht das Teil weg, steht die ganze Kiste.
Will man hier Sicherheiten haben, brauch es nem supported Raidcontroller und mindestens zwei HDDs zu. Kauft man aber das Teil, und kann man auf ne Fileserverfunktion selbst verzichten, so kommt man eher sogar vorteilhafter, den Raidcontroller gleich auch als Datastorepool zu nutzen.
Als Beispiel. So ein HP Smart Array P410 mit 256MB Cache + BBU kostet im Einkauf keine 200€ inkl. MwSt.
Er bringt Raid 0/1/10/5 Support und ich glaube sogar Raid 6. Wird voll vom ESXi unterstützt und bietet 8 Ports... Mit der Möglichkeit über ne Extenderkarte weitere HDDs zu betreiben.
Deutlich günstiger gehts in Sachen Hardware Raid fast nicht. Und man spart sich die Bastellösung mit dem SAN OS
Das Teil ist zwar nicht HighEnd, aber durchaus ordentlich...
Ich persönlich sehe den Vorteil von so nem Storage OS in ner VM mit durchgereichtem Controller nur dort, wo wirklich noch 100% Fileserverspeed gebraucht wird. Hat man dazu aber ne diskrete Kiste oder aber man begnügt sich mit den keine Ahnung 90 oder 80% Speed ner Fileserver VM mit vmdk Platten, so sehe ich an der Stelle echt keine Vorteile mehr.
Womögliche Probleme in Sachen Durchreichen von Controllern mal ganz außen Vorgelassen
PS: das mit den 10Gbit ist nur die halbe Wahrheit
Dafür benötigt man nämlich die Enterprise oder Enterprise Plus Version. Soweit mir bekannt kann die Standard Edition sowie die Essentiel Version(en) das nicht. Und die Advanced (wo es beim 4er schon nicht ging) fällt ja weg.
Mit nem ESXi und kostenloser Version wirds mit 10GBit in Sachen VM NIC auch nix. Bleibt der Flaschenhals zumindest bei der virtuellen Netzwerkkarte des Storage OS bzw. der Storage VM.
Zu dem Thema: Ich wusste es mal, aber habs wieder vergessen. Wie wird dieser Lock auf den vmdks aufgehoben wenn ein ESX ausfällt? Läuft das z.B. automatisch über HA ab sobald die anderen Hosts merken, dass der Ausgefallene nicht mehr antwortet?
Was meinst du damit genau?
Der Host selbst merkt, wenn jemand die Füße in der vmdk drin hat. Ist dies der Fall, geht kein weiterer Zugriff, sobald die "Füße" raus sind, hast du sofort Zugriff. Sprich fliegt dir ein Host um die Ohren sagen wir, ist sofort ab dem Zeitpunkt die vmdk quasi frei für jeden anderen.
Aber für was braucht man sowas!?
Da kommst du wohl eher besser, wenn du dir ein shared ISO baust, was du dann von Zeit zu Zeit mit den Tools updatest, die du benötigst. Das kannst du dann entweder direkt lokal auf die Hosts schieben und vom Datastore mounten, oder halt über den vSphere Client aus mounten über jegliche Storages, wo der Client halt Zugriff hat.
Bei uns läuft eine 3/4-Konfiguration, also könnte ich eigentlich im laufenden Betrieb einen ESX in den Maintanance Modus versetzen und dann upgraden. Denke aber ich verlege das ganze aufs Wochenende; ich erinnere mich noch daran wie ich unseren ExchangeSX per vMotion verschoben habe und 15m später ist mir aufgefallen, dass Outlook keine Verbindung mehr zum Exchange hat...
10Gb wären schon nett
Zuerst den vCenter Server in der neuen Version installieren. Ganz wichtig!
Am besten kein Update machen, sondern einfach ne zweite Maschine fertig vorbereiten, dort sauber den vCenter Server Dienst drauf bringen und die Zusatztools, was man sonst noch so braucht, wie den Update Manager.
PS: Zum Update Manager noch meinen Tip. Der 5er vCenter bringt nen SQL 2008 (ich glaub R2) in der 64Bit Version mit. Der Update Manager verlangt aber nen 32Bit DSN und meckert sonst rum.
VMware KB: Installing ESXi/ESX 4.1 and vCenter Server 4.1 best practices
Hier steht dazu alles wichtige unter dem Abschnitt Update Manager...
Ansonsten, läuft das vCenter sauber, kann man erstmal die Lizenzen einspielen... Da man ja über die Softwaresubscription bei VMware den Spaß life auf der Internetseite Updaten kann, bekommt man für alle seine Hosts, dann die 5er Keys. Diese werden zusammen mit den alten 4er Keys im neuen 5er vCenter eingespielt (im Lizenzmenü)
Am besten baut man dann die Cluster Konfiguration erstmal "trocken" im vCenter selbst auf, sind ja noch keine Hosts drin. Danach erfolgt das Anlegen von Distributed Switches, sofern in use. (wichtig zu wissen ist, der 5er ESXi kann nun nur noch Distributed Switches, wenn man auf die Enterprise Plus Version hat, austricksen wie beim 4er ist nicht mehr)
Steht das soweit, kann es ans migrieren gehen.
Schritt 1 ist. Im alten vCenter 4 einfach alles was mit HA zu tun hat, deaktivieren (sprich DRS, FT usw.)
Schritt 2, die Hosts aus dem vCenter (inkl. laufender VMs und ohne irgendwas an den Hosts selbst zu verändern) ausklinken (rechtsklick auf den Host und Verbindung trennen oder so heist das)
Schritt 3, die Hosts im neuen vCenter einklinken (an der Stelle verlangt er die Zuweisung der 4er Lizenzen, wie oben erwähnt) und direkt dem Cluster sauber zuweisen. (und auch gleich vMotion aktivieren)
Danach läuft erstmal alles wie gehabt weiter... Diese Schritte selbst gehen gänzlich ohne Boots oder ähnliches der Hosts und VMs. Sozusagen im Lifebetrieb.
Als nächstes fängt man nun an, die Hosts selbst in den Wartungsmodus zu schicken und nach und nach diese mit dem 5er ESXi neu zu installieren (am besten nicht updaten, was teils auch gehen würde)
Im Nachgang daran, wird der Update Manager angeschmissen und der Host gepatcht, den man gerade installiert hat. Sowie alles in Sachen vSwitche und Netzwerkzuordnung vorgenommen.
Hat man hier den ersten durch, kann man bei ner Enterprise Plus Lizenz/alternativ die 60 Tage Testphase in Form der Testlizenz für die Hosts dann erstmal einen Host sauber einrichten und ein Hostprofil anlegen. (was die Arbeit mit weiteren Hosts ungemein erleichtert)
Anmerkung dabei, die Arbeit mit den Hostprofilen gestaltet sich in meinen Augen etwas schwer, es gibt nun keine dedizierten Servicekonsole Ports (wie beim 4er ESX) mehr, sondern nur noch ESXi üblich vmKernel Ports. Das Problem ist aber, die Reihenfolge, wie man diese Ports anlegt, ist mehr oder weniger wichtig. Hier sollte man beim Arbeiten mit Hostprofilen diese entweder händisch selbst anlegen (und das was das Hostprofil erzeugt vorher löschen) oder aber ganz auf das Hostprofil verzichten. Bei mir hat es nämlich durch das Hostprofil die Reihenfolge umgebogen, was den Effekt hatte, das die Servicekonsole trotz richtig gesetzen Haken für eben diese nicht dort auf der IP erreichbar war, wie sie sollte... (man sperrt sich schön selbst aus
)
Beherzigt man das alles, werden dann im Nachgang alle Hosts so durchgenommen.
Schlussendlich hat man ohne Mucken ne laufende 5er Umgebung.
PS: die Datastores können im Nachgang (wenn alle Hosts, die Zugriff haben dann 5er Hosts sind) auf VMFS5 upgedated werden, das geht ebenso life ohne Unterbruch.
Die VMs selbst können ebenso von Version 4 oder 7 auf Version 8 gebracht werden, was ebenso life geht.
Im aller letzten Schritt sollten dann noch die VMware Tools auf allen VMs auf die neue Version gebracht werden. Das erfordert aber nen Neustart der VM selbst und erzeugt somit einen Unterbruch (sollte also nicht im scharfen Betrieb getätigt werden
)