Hallo Ihr,
kann ich einen vCenter Server virtualieren und um mich vor dem Ausfall zu schützen, diesen als VM auf 2 ESXi-Host laufen lassen, sowas wie ein vCenter Servercluster? Dies alles für den Privatbetrieb bzw. um mich fortzubilden. Geht das?
Welche Lizenz benötige ich dazu? Geht das mit der Essential Plus? Kann ich damit überhaupt 2 vCenter Server hochziehen?
Es gibt zwei Möglichkeiten...
Entweder die hier schon angesprochene Methode, die VM selbst zu clustern, sprich mindestens zwei Hosts, FT aktiv und die VM dann da drauf packen. Nachteil, du benötigst quasi doppelte Ressourcen. Und (zumindest war das mal so, keine Ahnung ob das in der aktuellen Version immernoch so ist) bist du an gewisse Hardwarerestriktionen gebunden. Was damals mal eine einzige vCPU war. Ob man das jetzt ggf. mit Cores erschlagen kann, weis ich nicht, müsste mal jemand testen...
Möglichkeit zwei, der vCenter selbst bietet die Möglichkeit geclustert zu werden. Sprich zwei vCenter im Cluster, fällt einer weg, läuft der andere weiter. Ich kann dir aber auch hier nicht aus dem Hut sagen, was dort für Vorraussetzungen zu erfüllen sind. Sicher dürfte aber sein, das es nur mit der Lizenz Standard und höher gehen sollte. Einfach, weil die Ess. Pakete dediziert für drei Hosts + einen vCenter gebaut sind.
Man würde eher nur einen vCenter Server installieren und den durch vSphere HA schützen. Wenn der vCenter Server ausfällt, funktionieren die anderen VMs ja uneingeschränkt weiter. Der Betrieb vom VC ist auf jeden Fall supportet.
Ob es sinnvoll ist, den vCenter selbst auf dem von ihm verwalteten Hosts-Cluster zu betreiben!? Hier scheiden sich die Geister. Klar, die VMs laufen erstmal weiter, aber was, wenn es dir die VM des vCenters mal gänzlich zerhaut? Sei es durch ein Storage Problem oder durch andere Hardwareprobleme auf dem Host. Das wird dann schon etwas mehr komplex, die Kiste zu recovern.
Da wäre es dann wohl einfacher, den vCenter auf nem Hypervisor zu betreiben. Bzw. wenn man mehrere Host-Cluster fährt, die vCenter VMs jeweils über Kreuz auf dem jeweils anderen Cluster.
Ich nehme mal stark an Hyper-V ein nettes Feature RemoteFX dafür hat im Gegensatz zu ESXi.
An der Stelle aber eher ungeeignet. Da man via RemoteFX soweit ich weis auch nur eine Grafikkarte in einer VM emuliert, die dann zu einem gewissen Teil auf der Hardware des Hosts beschleunigt wird. Man hat aber definitiv keinen vollen Featureumfang, gerade was propritäte Lösungen ala NVs Cuda und AMDs Stream angeht. OpenCL könnte hingegen funktionieren (beim 2012er Server, beim 2008R8 wohl eher nicht)
Ob es aber wirklich Hyper-V sein muss, ist eine Glaubensfrage. Ne VMware Workstation in der aktuellen Version wäre auch ne Option. Rennt wie hanne, wenn die Hardware passt und man kann nebenbei immernoch quasi uneingeschrenkt auf dem "Host" arbeiten. Im Vergleich zum Hyper-V bei Windows 8 ist der Speed gerade auf das Storage auch ungleich schneller. (Hyper-V bei nem Server habe ich so noch nicht gemessen)
Mhm, müsste ich mal probieren, eine Server 200R2 Lizenz hab ich noch rumliegen (MSDNAA) und ne FireGL müsst ich auch noch auftreiben können.
Thin Clients als Backend für die User hören sich auch ganz gut an, allerdings will ich das erstmal sehen. Scheinbar gibts ja viele Fallstricke die RemoteFX stören.
Und ob das dann noch einfacher als ne dedizierte Kiste ist, lass ich mal dahingestellt. Auf jeden Fall ist es interessant.
Wie gesagt, so 100% sinnvoll ist RemoteFX nicht. Du verlierst einfach zu viele Features, da im Grunde einfach eine Hyper-V VM benutzt wird, anstatt dediziert auf die Host Ressourcen zuzugreifen.
Da kommst du wohl weiter, wenn du dir ne 2008 R2 oder 2012 Server (mindestens Standard) Lizenz besorgst, dort dann die Hyper-V Rolle nachinstallierst (oder ggf. VMware Workstation nutzt) und via RDP dediziert auf dem Host deine Rechenaufgaben vollziehst. Die VMs laufen dann im Hyper-V/VMware Workstation nebenbei...
Vorteil wäre sogar noch, du kannst dir den WHS als VM(s) schenken, und die Storages direkt auf dem Host betreiben, was deutlich fixer sein sollte...
Einen wirklich unterbrechungsfreien Betrieb kann man nur mit
Fault Tolerance sicherstellen, aber wenn es nicht um eine wirklich große Installation geht, kann man das auch per
High Availability sicherstellen, dafür braucht's dann nur die Essentials Plus. Dort wird die virtuelle Maschine, wenn ein Host ausfällt, nach kurzer Zeit auf einem anderen Host neu gestartet. Das funktioniert auch für den vCenter Server, weil HA, wenn es aktiviert ist, nicht vom vCenter Server abhängt.
Bei letzterem stellt sich aber eventuell das Problem ein, das die VM gar nicht mehr hochkommt. Gerade die SQL DB ist beim vCenter recht anfällig. Lässt man die VM einfach so hinten runter fallen (nix anderes passiert ja), kann es sein, die DB ist korrupt und man bekommt den vCenter gar nicht mehr gestartet
Ich hätte die Möglichkeit an nen Fujitsu TX150 S6 zu kommen und würde da den ESXi 5.1 laufen lassen.
Kann ich prinzipiell einen SCSI Autoloader der an einem PCI SCSI Controller hängt in eine VM durchreichen?
Nicht zwingend den kompletten Controller, im Prinzip reichen mir 2 der SCSI Geräte die dran hängen (der Loader und das Laufwerk).
Wenn es nicht direkt mit dem Gerät funktioniert, einfach den Controller durchreichen. Das sollte wiederum funktionieren, sofern die Hardware passthrough unterstützt.