ESX / ESXi - Hilfethread

jemand workstation 11 schon?
Das sind drei Worte und eine Zahl, die aber keinen vollständigen Satz ergeben.

Wenn das eine Frage ist, ob jemand schon VMWare Workstation 11 im Einsatz hat, dann kann man die mit ja oder nein beantworten, ich glaube aber nicht, dass Du diese Antworten haben willst.

Also: hast Du eine konkrete Frage dazu?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ok nochmal. Jemand schon Workstation 11 im Einsatz? Wenn ja wie ist es im Vergleich zur 10er?

Eignet sich Workstation eigentlich auch um 24/7 vms laufen zu lassen?
 
Hallo zusammen,

ich habe ein seltsames Problem mit einem ESX 5.1.0 (Essentials).

Es existiert ein vCenter. Da waren 2 Hosts im Cluster eingetragen (das hat auch funktioniert). Nun krachte der Server einmal runter (USV defekt) und nun lässt sich der eine Host nicht mehr ins vCenter hinzufügen. Die Anmeldedaten stimmen. Einzeln lässt er sich auch aufrufen, nur eben nicht ins vCenter integrieren. (Meldung "A general system error occurred internal error vmodl.fault.HostCommunication"). IP statt Namen bringt denselben Fehler hervor.

Habe es sowohl im vSphere Client als auch Webclient versucht.

Kennt jemand

sofern noch VMs auf dem Host laufen solltest du diese mal stoppen und dafür sorgen, dass diese nicht mit dem Host hochfahren. Dann nochmal den ESX Host durchbooten und gucken ob es besser wird. Evtl. auch sogar mal alle darauf laufenden VMs derigistrieren.

VPXA agents neustarten hilft manchmal auch schon. VCenter Dienst kannst du auch mal neustarten. Mehr fällt mir erstmal nicht ein.
 
Versuch mal das:

vmware-vpxa service stoppen
das Configfile /etc/vmware/vpxa/vpxa.cfg bearbeiten (den Bereich von <vpxa> bis </vpxa> entfernen)
abspeichern, vmware-vpxa service starten und versuchen den Host ins vCenter neueinzubinden.

Siehe auch:
VMware KB: VMware vCenter Server displays the error: Failed to connect to host
Access to resource settings on the host is restricted to the server that is managing it - VMadmin.co.uk

sofern noch VMs auf dem Host laufen solltest du diese mal stoppen und dafür sorgen, dass diese nicht mit dem Host hochfahren. Dann nochmal den ESX Host durchbooten und gucken ob es besser wird. Evtl. auch sogar mal alle darauf laufenden VMs derigistrieren.

VPXA agents neustarten hilft manchmal auch schon. VCenter Dienst kannst du auch mal neustarten. Mehr fällt mir erstmal nicht ein.


Danke euch für die Tipps, werde ich versuchen!

VG
 
Danke für die Antwort. Leider lassen sich die Festplatten nicht hinzufügen, denn sie sind ja bereits hinzugefügt, erscheinen aber nicht als Volume. Wenn ich zu "neuer Datenspeicher" gehe dann erscheinen diese Platten nicht in der Auswahl. Wie kann man die Platten denn komplett aus dem ESX rausnehmen?

Hast es schon hinbekommen?
Ansonsten was liefert dir dieser Befehl (in der Console, oder über SSH):
Code:
partedUtil getptbl /vmfs/devices/disks/naa.{deine disk id}
 
Ich will 2 VMware ESX 5.5 Systeme Redundant machen. Normalerweiße habe ich hierfür eine Lösung aus Datenspeicher + 2 (oder mehr) Virtualisierungshosts die per iSCSI auf den Datenspeicher zugreifen. (Evtl. auch mal SAN Storage usw.) Wenn ein Host ausfällt, laufen auf dem anderen Server dank vMotion usw. die virtuellen Maschinen weiter.
Gibt es eine kostenlose oder vllt. auch in ESX(i) integrierte Lösung mit lokalem Speicher der Hosts? Das es sowass gibt weiß ich, kostet aber normalerweiße auch was. (Veeam, komplettlösungen von SimpliVity (OmniCube) usw.)
Der Grund für dieses vorgehen ist, dass es in der Umgebung mehrere virtuelle Maschinen gibt, die jedoch insgesamt nicht viel Speicherplatz benötigen. Es muss aber eine gewisse Ausfallsicherheit geben und wie immer: So wenig wie möglich kosten (Und in jeden Server 2 max 600GB SAS Platten sind günstiger als NAS, größerer Switch, evtl. Zusatzkarten und für die NAS entsprechende Enterpriseplatten)
Jemand eine Idee? :wink:

PS: vCenter ist dann natürlich vorhanden, ob ESX oder ESXi wird sich dann herausstellen. Lizenzen sind dann ebenfalls vorhanden...
 
Zuletzt bearbeitet:
ich hätte auch mal wieder eine Frage...

Ich würde gerne einen esxi 5.1 auf 5.5 aktuellen updatestand updaten.

Was passiert dabei mit nachinstallierten treibern? Ich habe auf dem esxi 5.1 einen Raidtreiber nach installiert. Den bräuchte ich
natürlich auch in der Version 5.5

besten dank

viele Grüße
 
Hi Olaf,

das was Du vorhast müsste mit FaultTolerance gehn. - Dabei läuft die VM quasi auf beiden Hosts, aber nur eine ist als aktiv markiert - Das könnte auch mit lokalem Speicher gehn, getestet hab ich das aber nicht.
 
Hallo Olaf,

kostenlos gibt nur vSphere Replication, damit kannst du deine VM auf einen zweiten Host spiegeln, allerdings dann nur als Cold-Standby. vMotion geht dann nicht.
Die integrierte Lösung um einen shared Storage mit internen Platten zu bauen nennt sich VSAN, aber das kostet nicht unbedingt wenig. ~2.400$ Liste pro CPU nach kurzem googeln.

Für Fault Tolerance brauchst du shared storage, damit hättest du aber auch bei einem Hardwareausfall einen Schwenk ohne Ausfall.

- - - Updated - - -

Hallo randyh,

ich bau dafür immer eigene Installations-/Upgrade Images und importier die benötigten Treiber.
Wie das geht steht in einem Artikel in den VMware Blogs: http://blogs.vmware.com/vsphere/2012/04/using-the-vsphere-esxi-image-builder-cli.html
 
Hi

@randyh: Bei einem Upgrade ist es nicht nötig, die Treiber neu einzubinden (zumindest bei meinem NIC Treiber war das so).
 
@Olaf16

die vsphere Storage Appliance (der Vorgänger vom VSAN) wäre denkbar, müsste kostenlos sein (zumindest im ess+ mein ich). Allerdings nur wenn performancemäßig keine großen Ansprüche gestellt werden denke ich. Aber meistens halte ich von sowas nichts, weil dann doch nach kurzer zeit, der service hier, der server da dazukommen und man sich dann mit so einer limitierten Lösung (bitte auch informieren wie es mit Support dafür aussieht!) den weg nach oben verbaut hat und wieder von vorne anfängt, was im nachhinein dann meistens mehr Arbeit ist/Geld kostet, als wenn man direkt etwas mehr in die Hand genommen hätte ;)
 
Ich will 2 VMware ESX 5.5 Systeme Redundant machen. Normalerweiße habe ich hierfür eine Lösung aus Datenspeicher + 2 (oder mehr) Virtualisierungshosts die per iSCSI auf den Datenspeicher zugreifen. (Evtl. auch mal SAN Storage usw.) Wenn ein Host ausfällt, laufen auf dem anderen Server dank vMotion usw. die virtuellen Maschinen weiter.
Aber auch das normale Shared SAN bietet dir ja erstmal nur VMWare HA, sprich, im Falle des Falles muss das System auf dem anderen Host erstmal wieder anfahren. Reicht das oder ist wirklich Hot-Standby ohne richtige Downtime gewünscht? Einigermaßen sinnvoll sehe ich hier nur virtuelle Microsoft Cluster die gestreched über bei Hosts laufen und schwenken können, dir damit aber die normale Umgebung ziemlich blockieren, Stichwort VMotion etc. oder aber Fault Tolerance, welches aber auch gesharten Storage benötigt. Ich bin aber auch davon kein wirklicher Fan, dies ist auf eine CPU reduziert und verwaltungstechnisch für den Host echt aufwendig.

Solche Dinge wimmle ich gerne ab wenn das gewünscht ist, bislang konnten wir dann alles mit physikalischen Clustern oder Loadbalancern anders hinbekommen ;)
 
Mit vSphere 6 kann man für Fault Tolerance bis zu 4 vCPU in einer Maschine nutzen.
HA mit Datastore Heartbeat etc. ist für die meisten Anwendungen aber völlig ausreichend.
 
Ein Lizenzschlüssel für VMware vSphere 5 Enterprise Plus ist btw. bereits vorhanden (für 2 physische CPUs u. unbegrenzt Kerne). Das sollte kein Problem darstellen.
Das Failover Cluster soll aus 2 ML350p Gen8 bestehen (1x E5-2650 v2, 64GB Ram) wovon bereits einer vorhanden ist, da läuft alles ohne Virtualisierung… (Backup, Warenwirtschaftsprogramm. Deshalb sind dort auch 13 HDDs verbaut, á 300GB + Bandlaufwerk)
Backup lagere ich auf eine andere Maschine aus, die dann auf Band & Disk sichert. Den DC lasse ich auch so wie er ist, ein 2. soll dann aber in die virtuelle Umgebung mit rein.
Ich könnte von den HDDs aus dem derzeitigen Server das meiste rausnehmen und in den neuen 2. Host dann reintuhen (Das meiste was dort verbraucht wird ist nur Backup, WWS grad mal 50-60GB. Das Backupkonzept wird aber ganz anders realisiert und ist erstmal nicht das Problem bei der Virtualisierung) Deshalb meine Frage zwecks so einem Cluster mit lokalem Datenspeicher. Spart man sich die Ausgaben bei nem NAS/SAN/...
Weiterhin werden dann auch einige alte Kisten ausgemustert und Virtualisiert laufen.
Edit: So ein VMHA reicht eig. aus. Es muss nicht 100% Online sein. Wenn im Notfall nur 4-5 Minuten ausfall ist reicht es. Nur soll es wieder laufen. So wie es aber aussieht (Habe noch bissl Recherchiert) ist es nicht billig oder gar leicht sowass mit lokalem Speicher zu lösen. Komme an was externem wohl leider nicht dran vorbei, oder? :/
 
Zuletzt bearbeitet:
die einzige "Bastellösung" die mir spontan einfallen würde wäre das System nachts, sofern vertretbar, automatisiert herunterzufahren und entweder per PowerCLI Script auf den anderen Datastore zu kopieren oder zu klonen. Habs noch nicht ausprobiert, aber ich meine wenn eine VM heruntergefahren ist lässt sich sowohl Host als auch Datastore frei wählen in einem Schritt. Dann würde im Hintergrund immer eine VERALTETE Kopie der Nacht auf dem anderen Datastore liegen. Alle anderen mir bekannten Lösungen kosten Geld. Zweitgünstigste Alternative wäre dann ein etwas hochwertigeres NAS zu kaufen, Synology oder Qnap oder sowas und dann zentralen Storage bereitstellen. Für mich sind das aber nicht unbedingt hochproduktive Lösungen. Oder man nimmt es bewusst in Kauf und erarbeitet ein gutes Backup/Restore Szenario, falls so ein NAS dann wegfliegt.

Beide Szenarien sind eher was für eine Test/Integrationsumgebung wenn Du mich fragst, zumal ich im ersten Beispiel einen veralteten Stand habe. Es gibt aber auch eine Vielzahl Server (Webserver etc.) bei denen das völlig egal ist.
 
[edit]
Frage schon selbst beantwortet, man muss nur wissen, wonach man suchen muss: das Zauberwort heißt "Shared nothing vMotion"...
Von hier
With the release of version 5.1, VMware introduced some extra functionality to the vMotion platform. One of these enhancements enables vMotion to run in environments without shared storage.
[edit]

Mal eine wahrscheinlich triviale Frage, über die ich mir aber noch nie Gedanken gemacht habe: bei einem Neukunden haben wir drei VMWare-Hosts mit lokaler Storage und kostenloser Lizenz vorgefunden (zwei Hosts mit ESXi 4.1 und einen mit ESXi 5.1). Der Host mit ESXi 5.1 ist recht aktuell (Fujitsu Primergy RX300S7 mit Xeon E5-CPUs) und soll mit mehr RAM und einer FC-Karte ausgestattet werden, so dass der an eine neue FC-Storage angebunden wird. So können die virtuellen Maschinen auch problemlos auf die FC-Storage verschoben werden. Außerdem kommt ein weiterer neuer VMWare-Host mit FC-Karte hinzu, so dass eine höhere Ausfallsicherheit entsteht. Ein vCenter Server (mit Essentials-Lizenzierung) wird natürlich eingesetzt, mit der Lizenz können ja drei Hosts in das vCenter eingebunden werden.

Nun ist die Frage, wie man am besten die virtuellen Maschinen der beiden anderen Hosts, die keine FC-Karten eingebaut haben, auf die FC-Storage bekommt.

Funktioniert das, wenn ich einen Host ohne FC-Karte in das vCenter einbinde und die virtuellen Maschinen (im heruntergefahrenen Zustand, da ja kein vMotion lizenziert ist) über die Migrations-Funktion des vCenters auf die FC-Storage migriere? Das würde ich dann dementsprechend hintereinander mit dem ersten und dann mit dem zweiten alten Host machen. Ansonsten könnte man da temporär eine FC-Karte einbauen, wenn das nicht funktionieren sollte. Ein Umweg über Herunterladen auf eine lokale Festplatte (z.B. auf dem Sicherungsserver, der genug Platz hat) und Hochladen auf den FC-Datastore wollte ich eigentlich vermeiden, da Herunter- und Hochladen immer sehr viel langsamer ist als eine Migration innerhalb des vCenters.

Wenn das möglich sein sollte, würde ich sogar probieren, das mit der 60-Tages-Testlizenz per Storage vMotion zu machen, aber wenn das sowieso nicht funktioniert, kann ich mir die Versuche auch sparen. ;)
 
Zuletzt bearbeitet:
Genau, wenn die Maschinen ausgeschaltet kannst du Host und vDisk vershieben, wenn der Host per vCenter verwaltet wird. Teste vorher, vllt mit einem Klon, wie lange das dauert übers Netzwerk ;)

Alternativ die Exportieren funktion und auf nen externen Datenträger.
 
Edit: So ein VMHA reicht eig. aus. Es muss nicht 100% Online sein. Wenn im Notfall nur 4-5 Minuten ausfall ist reicht es. Nur soll es wieder laufen. So wie es aber aussieht (Habe noch bissl Recherchiert) ist es nicht billig oder gar leicht sowass mit lokalem Speicher zu lösen. Komme an was externem wohl leider nicht dran vorbei, oder? :/

Das größte Problem was ich hierbei sehe ist einfach, dass man das zwar automatisieren kann, aber wer garantiert dir, dass die VMs nach greifen von HA auch wieder sauber auf dem anderen Host booten? Es gibt da ne ganze Menge Dienste, dehnen sowas nicht schmeckt. Allen vorran Datenbanken... Dir nutzt das automatisierte Starten absolut gar nix, wenn die VM einfach nicht mehr hochkommt nach einem harten Crash!

Ich finde es aber trotzdem immer etwas witzig, wenn man mit Ausfallzeiten von wenigen Minuten hantieren will, aber dann am Ende nichtmal bereit ist das notwendige Geld für eine anständige Umgebung auszugeben. ;) Soll jetzt nix gegen dich sein, keine Frage. Fällt mir nur immer wieder auf. Das Produkt muss alles können, muss alle Ausfälle möglichst unterbrechungsfrei abdecken können, darf aber nix kosten. -> idR geht das nicht soooo ohne weiteres.

Selbst wenn du hättest ein shared Storage gehabt, würde dir das nicht viel nutzen. Denn reißt es dir das Storage, steht auch die ganze Umgebung. Sprich es wäre eher ein redundantes Storage anzuraten. Zwei Logikeinheiten, entsprechend mit vollredundaten Plattenshelfs hinten dran. Doppelt redundant angebunden (vier Pfade via FC, FCoE oder iSCSI/NFS) und dann kann man sowas garantieren...
Ab ner gewissen Anzahl VMs wirst du wohl die 4-5min nichtmal einhalten können, wenn du auf ein und dem selben Host diese VMs alle gleichzeitig bootest!
So einfach zu realisieren, wie es klingt, ist das faktisch nicht.

Ich denke man kommt dabei eher ans Ziel, wenn man sich da Gedanken über eine anständige und vor allem zügig zu restorende Backup Strategie macht. Ein snapshotbasiertes Onlinebackup bspw. -> wo im Ausfallszenario der Backupserver dann einfach die Snapshots moutet um die VMs zu starten oder ähnliches.

Auch im Vergleich ganz brauchbar zu realisieren ist die Methode (kommt halt auf den Dienst an), das ganze Hostübergreifend zu clustern... Sprich mit "Softwaremitteln". Das wäre dann auch vollständig Hardware ungebunden... Also tendentiell auch ohne shared Storage realisierbar.

Genau, wenn die Maschinen ausgeschaltet kannst du Host und vDisk vershieben, wenn der Host per vCenter verwaltet wird. Teste vorher, vllt mit einem Klon, wie lange das dauert übers Netzwerk ;)
Das geht sogar Online... Stichwort WebClient ;)
Leider ist dafür minimum 5.1, wenn nicht gar 5.5 notwendig... Mit ner laufenden Lizenz inkl. Subscription sollte das aber kein Problem sein.
Ganz unterbruchsfrei wird es aber nicht gehen. Der 4.1er Host kann meine ich kein Storage vMotion zeitgleich zum Host vMotion. Auch nicht im WebClient.

Die 60 Tage Testlizenz wird ihm übrigens nix nutzen... Denn wenn der Host lange schon läuft, also die Install da schon lange drauf ist, wirst man ggf. keine Restzeit mehr haben -> hatte ich schon in einigen Fällen. Was man dann halt machen kann, man kann fix ein Update auf 5.5 durchfüren ;) Und die 60 Tage somit reaktivieren.
Ist halt die Frage ist es ein ESX 4.1 oder ein ESXi 4.1. Ersterer lässt sich nicht so ohne weiteres updaten... Letzterer schon. (sprich beibehaltung der Settings)
Die VMs müssen dazu freilich ausgeschalten werden...
 
Zuletzt bearbeitet:
Ja, das ist klar, dass es eine gewisse Unterbrechung gibt, entweder wenn die VMs offline migriert oder die Hosts auf eine aktuellere Version hochgezogen werden, so dass man die VMs dann online wegen Enterprise-Evaluierungslizenz migrieren kann. Ich wollte eben nur verhindern, dass ich die VM-Dateien von der lokalen Storage herunterladen und auf die FC-Storage hochladen muss, was wie gesagt meistens extrem lange dauert.

Die Hosts sind beide ESXi 4.1, da kann man also ein In-Place Upgrade machen (natürlich nicht ohne Sicherung der virtuellen Maschinen, die da drauf laufen, die Sicherung wird ab nächste Woche mit Veeam realisiert, aktuell ist da ARCserve D2D im Einsatz).
 
Servus,
bin derzeit auf ESXi 5.5 U2 und bekomm ums verecken kein Debian mehr installiert. Kann jemand die gleichen Probleme feststellen?

Custom Machine
LSI Logic SAS
VMXNET3
ThinProvision
EFI

Mit der Text Install bleibt es hier hängen direkt nach der Hostname angabe:
Screenshot 2015-01-20 20.55.15.png

Mit der Graphical install steht es bei "Configure the network".

Könnte also an der Netzwerkkarte liegen, also deaktiviert. So kann ich es installieren, aber beim booten kommt dann:
SMBus base address uninitialized - upgrade BIOS or use force_addr=0xaddr

Passiert mit der Testing Daily, Testing Weekly, Testing Beta 2, Stable.

Andere Debainsysteme laufen einwandfrei.

Kann mir hier jemand ein Tipp geben? Ich konnte dazu nix finden und tappe total im dunkeln.
 
Hab ich.
Hab auch schon BIOS anstatt EFI verwendet, kanns mir nicht erklären.

Screenshot 2015-01-20 21.25.46.png

EDIT:
Ubuntu geht, aber...naja...es ist halt Ubuntu....bootet aber auch nicht -.-

EDIT:
Scheint nen Kernelproblem zu sein. Ubuntu LTS geht...mit älterem Kernel.
 
Zuletzt bearbeitet:
Mal ganz allgemein gefragt: Hat hier schon jemand Erfahrung mit den Nvidia Grid Lösungen sammeln können?
 
Grid nicht, dafür aber peer esxi hosts mit quadro karten ausgestattet.
Zum testen direkt über pci weitergabe an die vms durchgereicht und auch als svga auch ausprobiert.
Genauso habe ich auch horizon view mit quadro 3d probiert.
Funktionierte alle wunderbar.
Einfach die treiber installieren und die karte reinstecken.
 
Mahlzeit....
Ich brauche mal eben auf die Schnelle eure Hilfe.
Ich habe auf dem HP Server aus meiner Sig ESXI 5.5 laufen und wollte gerade mit vsphere eine Debian VM Clonen.

Also hab ich einen neuen Ordner im Datastore angelegt, hab die zu clonende VM heruntergefahren und alle Dateien kopiert.

Danach habe ich angegeben, ich habe die VM kopiert und habe den Pfad zur vmdk überprüft.
Dieser wurde automatisch auf die vmdk Datei im neuen Ordner angepasst.
Also hab ich beide VM's hochgefahren, bei der zweiten die IP Adresse angepasst und musste feststellen, dass die erste plötzlich nicht mehr erreichbar war.
Das Spielchen hab ich ein paar mal hin und hergetestet, bis ich dann feststellte, dass ich offenbar auf der gleichen HDD arbeiten muss. (Wobei ich das auch komisch finde, ich würde erwarten, dass es beim zweiten Systemstart Fehler gibt)
Irgendwiehängen die VM's immer noch zusammen?!

Kennt jemand den Fehler und weiß Abhilfe?

Besten Dank

ädit: Na klasse nach 1 Stunde rumprobieren kam die Idee.
Lag wohl an Sophos, das eigentlich nur DHCP für Mobile Geräte aber in einem anderen Adressbereich betreiben soll.
Das hat da irgendwie reingefunkt und beiden VM's ständig dieselbe IP zugewiesen.
DHCP aus, schon gehts..
 
Zuletzt bearbeitet:
@VivianMeally:
D.h. du hast pro VM die mit einer Quadro arbeiten soll eine Quadro im Host stecken?
Kriegst du dann über Horizon View das von der Quadro gerenderte Bild ohne weitere Umwege per PCoIP zum Client?
 
Ich habe pro VM eine Quadro zugewiesen und auch shared (eine Quadro für mehrere VM hosts) probiert.

Wenn du vmware horizon server installiert hast, werden die gerendete Bilder ohne Umwege an die Zero Clients oder vmware view clients verteilt.
 
Klingt gut.
Die Grid Karten haben halt den Vorteil dass man relativ viele Clients auf einer Karte laufen lassen kann, im nächsten ESXi soll da wohl auch noch etwas mehr gehen im Bezug auf GPU Virtualisierung.
 
Versuch mal das:

vmware-vpxa service stoppen
das Configfile /etc/vmware/vpxa/vpxa.cfg bearbeiten (den Bereich von <vpxa> bis </vpxa> entfernen)
abspeichern, vmware-vpxa service starten und versuchen den Host ins vCenter neueinzubinden.

Siehe auch:
VMware KB: VMware vCenter Server displays the error: Failed to connect to host
Access to resource settings on the host is restricted to the server that is managing it - VMadmin.co.uk

sofern noch VMs auf dem Host laufen solltest du diese mal stoppen und dafür sorgen, dass diese nicht mit dem Host hochfahren. Dann nochmal den ESX Host durchbooten und gucken ob es besser wird. Evtl. auch sogar mal alle darauf laufenden VMs derigistrieren.

VPXA agents neustarten hilft manchmal auch schon. VCenter Dienst kannst du auch mal neustarten. Mehr fällt mir erstmal nicht ein.

Also tatsächlich musste man nur die Management Dienste auf dem ESX neustarten (services.sh restart) und danach konnte man den zweiten ESX wieder ins Cluster einbinden. Ergo hätte ein Neustart des ESX genau so geholfen.

Danke euch!

VG
 
Plane demnächst die ESX Hosts auf Version 5.5x zu bringen. Wir reden über knapp 150 Hosts. Insgesamt zu 50:50 über zwei RZ Standorte verteilt.

Ich möchte die Gelegenheit nutzen die Struktur etwas zu ändern. Möchte gerne von 2 VCentern weg (1pro Standort) hin zu einem Virtual Center Server der streched Cluster über beide Standorte verwaltet. Gleichzeitig möchte ich das VCenter so hochverfügbar wie möglich haben. Storage ist gespiegelt.

Macht es mehr Sinn das VCenter virtuell zu lassen oder auf Physik zu gehen? Werden Microsoft Failover Cluster unterstützt und wenn ja, wie sind da Eure Erfahrungen mit?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh