ESX / ESXi - Hilfethread

hatte jemand schon folgendes Problem gehabt? Ich möchte aktuelle vmware tools in esxi datastore zu aktualisieren.

vCenter Server 6.7 Update 3o
8 Hosts über zwei Datacenter verteilt:
alle 8 Hosts haben Zugriff auf san datastore /vmfs/volumes/VMwareTools

ich habe zuerst probiert ProductLockerLocation per https://vcenterxxxxx/mob/ zu aktualisieren.
Auf 4 Hosts hat es geklappt. Zur Kontrolle in den esxi erweiteren Einstellungen unter UserVars.ProductLockerLocation nachgeschaut.

Auf 4 weiteren wird der Eintrag nicht übernommen.
Ich habe dann probiert über powershell zu ändern (https://www.ivobeerens.nl/2021/07/0...aign=create-a-central-vmware-tools-repository)
Werte werden geschrieben, aber in der Ausgabe der aktuellen Werte ist immer noch der alte Pfad drin...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum?
Ich hatte mit NFS nur Probleme, mal davon abgesehen von der verschwurbelten Rechteverwaltung...
Oder was hab ich falsch gemacht?

Verwaltet man Speicherplatz auf demselben Host per Appliance und reicht diesen an den ESXi durch, nimmt man einfach NFS. Bei NFS geht der ESXi davon aus, daß es auch mal zu Störungen - wie Volume (noch) nicht bei Host-Start erreichbar - kommen kann und versucht eigenständig weitere Verbindungsaufbaus. Mit iSCSI ist der ESXi weniger gnädig, entweder das iSCSI-Volume ist erreichbar oder der ESXi verweigert die weitere Mitarbeit. In diesem Fall muß(te) man per Rescan das iSCSI-Volume manuell wieder finden und hinzufügen. Greifen auch noch andere ESXi auf das iSCSI-Volume zu, sollten alle dieselbe VMFS-Signature sehen. Das läßt sich meines Wissens nicht scripten und erfordert manuelles Eingreifen. NFSv3 ist da wesentlich pflegeleichter, hat aber das Problem fehlender Zugriffsschutz.
 
@Stangensellerie, ja: ich hatte letzhin aus Versehen einem ESXi seinen NFS Storage weg gezogen (napp-it AiO). Dann eine Minute später wieder gestartet, und die Gäste samt GUI tuckerten munter weiter. War da recht perplex, dass das so geht.
 
So, habe jetzt den Dell H330 (LSI 3008) bekommen und probegesteckt.

Habe gerade im Bios des Controllers gesehen, dass man diesen von RAID auf HBA umstellen kann.
Muss man jetzt trotzdem noch auf die "eigene" HBA IT Firmware flashen (TrueNas virtuell auf ESXi)?

Danke!

LG
 
ich bin mit meinem Gerät aktuell auf: 7.0U3b-18905247
Ich empfehle nicht zu booten. Ich habe die U3b auch schon eine weile drauf, musste das Blech aber heute für den Einbau einer NVME herunterfahren..... DingDong Fatal error: 8 (Device error)
WTF! Google sagt Filesystem defekt. Bin dann ins Portal und da lacht mich unter VSphere direkt eine Warnung an.

Nun versuche ich den ESXI zu flicken. Konfig backup ist zu alt und neu machen ist wegen dem TSE Modul schwierig.

Ich kotze gleich im Strahl........nun geht mir ESXI auf die Nerven mit der Partitionsgröße.... "oserror: no vmfs-L partiton found" https://williamlam.com/2020/05/changing-the-default-size-of-the-esx-osdata-volume-in-esxi-7-0.html bei einem upgrade geht das nicht... Ahhhhhhhhhhhhhhh


Edit: Nope das war nicht das Problem. Ein 2 ter Stick (selbes Modell ) geht einwandfrei zum installieren.
Wie flicke ich den richtigen Stick jetzt?
 
Zuletzt bearbeitet:
Installation auf USB ist doch schon lange nicht mehr supportet?
Hatte den Stress auch mal, regelmäßig nach ca. 28 Tagen flog der Stick aus dem BIOS, ein Schelm, wer 32bit Timestamps dahinter vermutet. =)
Dann ging auch immer nix mehr.
 
Jo das ist mir jetzt auch egal, ich bügel ihn auf eine 180 Gb SSD. Hoffentlich zickt das TSE nicht rum. Eingerichtet ist der hier ja fix.

Und nur weil ich den Data Store (mal schnell) tauschen wollte ^^ Arghh so eine ...

Edit: So läuft wieder alles. Man hat ja nix anderes zu tun am Freitag Abend grumpf. :coffee2::fresse2:
 
Zuletzt bearbeitet:
Kaum geht mein Esxi mal kaputt ^^ Das war im übrigen das erste mal seit das System dauerhaft läuft (2018). Ich habe den Stick noch unberührt gelassen, evtl. mal unter Linux anschauen was es da gekillt hat.

ESXi 7 auf SD-Karte oder USB-Stick installieren

 
Man kann übrigens auch im laufenden System ein Image des ESXI Bootsticks ziehen.
Das mache ich automatisiert in regelmäßigen Abständen und ziehe es auf mein NAS.
Damit kann man dann in Minuten einen neuen Stick generieren und ist sofort wieder online.
 
ich habe schon lange das Problem, das mein Supermicro X11SSL-CF sehr lange Zeit ebnötigt, um ESXi zu booten.
Der Bootvorgang stockt immer für längere Zeit bei der Meldung

nfs41client successfully loaded

Vermutlich liegt das irgendwie an dem napp-it AiO Setup, bei dem ja napp-it per nfs wieder Datastores für VMs an ESXi bereitstellt.
Bislang war die Verzögerung immer nur einige Minuten, jetzt sitze ich aber schon 40 Minuten und warte genau mit dieser Meldung.
Gefühlt warte ich bei jedem Bootvorgang länger...

Auf die Gefahr hin, dass ich tatsächlich der Einzige bin, der Probleme mit langen Bootzeiten des ESXi aufgrund von fehlenden NFS Datastores durch ein AiO Setup hat, möchte ich trotzdem kurz beschreiben, wie ich es gelöst habe:

In der boot.conf Datei auf dem ESXi Bootdevice (liegt in einem volume Verzeichnis unter /vmfs/volumes/<uuid>) habe ich "jumpstart.disable=nfs41,restore-nfs-volumes" in der Zeile "kernelopt=" ergänzt. Das sieht dann bei mir so aus:

Code:
bootstate=0
title=
timeout=5
prefix=
kernel=b.b00
kernelopt=installerDiskDumpSlotSize=2560 no-auto-partition jumpstart.disable=nfs41,restore-nfs-volumes
modules=jumpstrt.gz --- useropts.gz --- features.gz --- k.b00 --- chardevs.b00 --- user.b00 --- procfs.b00 --- uc_intel.b00 --- uc_amd.b00 --- uc_hygon.b00 --- vmx.v00 --- vim.v00 --- sb.v00 --- s.v00 --- ata_liba.v00 --- ata_pata.v00 --- ata_pata.v01 --- ata_pata.v02 --- ata_pata.v03 --- ata_pata.v04 --- ata_pata.v05 --- ata_pata.v06 --- ata_pata.v07 --- block_cc.v00 --- bnxtnet.v00 --- bnxtroce.v00 --- brcmfcoe.v00 --- char_ran.v00 --- ehci_ehc.v00 --- elxiscsi.v00 --- elxnet.v00 --- hid_hid.v00 --- i40en.v00 --- iavmd.v00 --- igbn.v00 --- ima_qla4.v00 --- ipmi_ipm.v00 --- ipmi_ipm.v01 --- ipmi_ipm.v02 --- iser.v00 --- ixgben.v00 --- lpfc.v00 --- lpnic.v00 --- lsi_mr3.v00 --- lsi_msgp.v00 --- lsi_msgp.v01 --- lsi_msgp.v02 --- misc_cni.v00 --- misc_dri.v00 --- mtip32xx.v00 --- ne1000.v00 --- nenic.v00 --- net_bnx2.v00 --- net_bnx2.v01 --- net_cdc_.v00 --- net_cnic.v00 --- net_e100.v00 --- net_e100.v01 --- net_enic.v00 --- net_fcoe.v00 --- net_forc.v00 --- net_igb.v00 --- net_ixgb.v00 --- net_libf.v00 --- net_mlx4.v00 --- net_mlx4.v01 --- net_nx_n.v00 --- net_tg3.v00 --- net_usbn.v00 --- net_vmxn.v00 --- nfnic.v00 --- nhpsa.v00 --- nmlx4_co.v00 --- nmlx4_en.v00 --- nmlx4_rd.v00 --- nmlx5_co.v00 --- nmlx5_rd.v00 --- ntg3.v00 --- nvme.v00 --- nvmxnet3.v00 --- nvmxnet3.v01 --- ohci_usb.v00 --- pvscsi.v00 --- qcnic.v00 --- qedentv.v00 --- qfle3.v00 --- qfle3f.v00 --- qfle3i.v00 --- qflge.v00 --- sata_ahc.v00 --- sata_ata.v00 --- sata_sat.v00 --- sata_sat.v01 --- sata_sat.v02 --- sata_sat.v03 --- sata_sat.v04 --- scsi_aac.v00 --- scsi_adp.v00 --- scsi_aic.v00 --- scsi_bnx.v00 --- scsi_bnx.v01 --- scsi_fni.v00 --- scsi_hps.v00 --- scsi_ips.v00 --- scsi_isc.v00 --- scsi_lib.v00 --- scsi_meg.v00 --- scsi_meg.v01 --- scsi_meg.v02 --- scsi_mpt.v00 --- scsi_mpt.v01 --- scsi_mpt.v02 --- scsi_qla.v00 --- sfvmk.v00 --- shim_isc.v00 --- shim_isc.v01 --- shim_lib.v00 --- shim_lib.v01 --- shim_lib.v02 --- shim_lib.v03 --- shim_lib.v04 --- shim_lib.v05 --- shim_vmk.v00 --- shim_vmk.v01 --- shim_vmk.v02 --- smartpqi.v00 --- uhci_usb.v00 --- usb_stor.v00 --- usbcore_.v00 --- vmkata.v00 --- vmkfcoe.v00 --- vmkplexe.v00 --- vmkusb.v00 --- vmw_ahci.v00 --- xhci_xhc.v00 --- elx_esx_.v00 --- btldr.t00 --- esx_dvfi.v00 --- esx_ui.v00 --- esxupdt.v00 --- weaselin.t00 --- lsu_hp_h.v00 --- lsu_inte.v00 --- lsu_lsi_.v01 --- lsu_lsi_.v00 --- lsu_lsi_.v04 --- lsu_lsi_.v02 --- lsu_lsi_.v03 --- lsu_smar.v00 --- native_m.v00 --- qlnative.v00 --- rste.v00 --- vmware_e.v00 --- vsan.v00 --- vsanheal.v00 --- vsanmgmt.v00 --- xorg.v00 --- imgdb.tgz --- state.tgz
build=6.7.0-3.89.15160138

Damit wird das nfs41 Kernelmodul gar nicht erst geladen (weil nicht benötigt) und das nfs3 Modul versucht beim Booten nicht die Datastores zu mounten, denn der entsprechende NFS Server (hier napp-it) ist ja noch nicht gestartet, da es eine VM innerhalb des ESXi ist.

So geht das Booten bei mir wieder schnell ohne >60 Minuten Wartezeit. Allerdings muss nach erfolgreichem Booten von ESXI und nachdem die NAS VM (napp-it) gestartet ist das restore-nfs-volumes im ESXI angestoßen werden. Dazu habe ich in napp-it unter Services->Bonjour & Autostart die folgende Zeile ergänzt.

Code:
ssh <esxi-ip-adresse> /bin/esxcfg-nas -r

So ganz klar war mir bei napp-it nicht, ob ich dann noch "Bonjour dns/multicast service" enablen muss oder nicht. Ich habe es gemacht und es funktioniert.

Dadurch wird nach Hochfahren von napp-it im ESXI das Verbinden der NFS Datastores getriggert. Voraussetzung ist natürlich, dass root sich vom napp-it Server per ssh und Public-Key-Authentication ohne Passwort Dialog auf den ESXi Server verbinden kann. Außerdem sollte die Austart-Verzögerungszeit der VM, die nach der NAS-VM (napp-it) gestartet wird, ggf. verlängert werden. Diese darf natürlich erst starten, nachdem napp-it (per Bonjour Skript) die NFS Datastore Verbindungen wiederhergestellt hat. Habe es im Moment auf 180 Sekunden, vermutlich geht es aber auch mit geringeren Werten.

Wenn ich mehr Zeit habe, werde ich nochmal ein komplett neues Setup von ESXI machen, dann vermutlich die Version 7.0.
Da bin ich aber nicht ganz sicher, ob es ggf. Probleme mit folgenden Punkten gibt:
  • Durchreichen des onboard SATA Controller (passthrough.map)
  • Durchreichen der USB PCIe Karte
  • Mellanox ConnectX-3 Support
Ich meine zumindest mich beim ersten Punkt zu erinnern, dass es da Probleme gibt. Richtig?
 
So geht das Booten bei mir wieder schnell ohne >60 Minuten Wartezeit. Allerdings muss nach erfolgreichem Booten von ESXI und nachdem die NAS VM (napp-it) gestartet ist das restore-nfs-volumes im ESXI angestoßen werden. Dazu habe ich in napp-it unter Services->Bonjour & Autostart die folgende Zeile ergänzt.

60 Minuten, oder wolltest du 60 Sekunden schreiben?
 
Es sind tatsächlich 60 Minuten... teilweise noch länger...

In Post 8368 sind Screenshots mit den Timestamps zu sehen...
 
Ich habe jetzt schon einige Jahre das AIO Setup im Einsatz mit verschiedenen ESXi Versionen, aber solche Probleme noch nie gehabt.
Aktuell bin ich auf ESXi-7.0U3a-18825058-standard (ja ich weiß Update wurde zurück gezogen, aber im Standalone Betrieb hab ich keine Probleme).
 
Ich habe jetzt schon einige Jahre das AIO Setup im Einsatz mit verschiedenen ESXi Versionen, aber solche Probleme noch nie gehabt.
War bei mir auch so, mein Server läuft jetzt auch seit ca. 4 Jahren. Diese extremen Timeoutzeiten habe ich erst seit wenigen Monaten. Interessanterweise ist es im Netz kein völlig unbekanntes Problem, aber eine echte Ursache konnte ich nicht ausmachen.
 
Ich habe jetzt schon einige Jahre das AIO Setup im Einsatz mit verschiedenen ESXi Versionen, aber solche Probleme noch nie gehabt.
Aktuell bin ich auf ESXi-7.0U3a-18825058-standard (ja ich weiß Update wurde zurück gezogen, aber im Standalone Betrieb hab ich keine Probleme).

Moin, auch ich habe hier keine Probleme mit dem aktuellsten Vmware Image. Weder im vSAN / vCenter Umfeld in der Firma, als auch in der privaten vCenter Umgebung. Zu deinem Problemen mit den Timeouts behilft wirklich nur ein Reboot der Kiste oder hilft schon ein Neustart des vSphere Client dienstes im ESXi? Evt Probleme mit dem Medium wo der Esxi drauf liegt?
 
Zu deinem Problemen mit den Timeouts behilft wirklich nur ein Reboot der Kiste oder hilft schon ein Neustart des vSphere Client dienstes im ESXi?
Das beschriebene Problem tritt nur beim Reboot auf. Wenn der ESXI gestartet ist, dann läuft er problemlos.
Das Problem tritt auf, wenn er NFS Datastores mounten will, die noch nicht verfügbar sind, weil der NFS Server ja erst später als VM im ESXI gestartet wird.
Ein Timeout ist also schon zu erwarten, die Frage ist nur, warum dauert das bei mir mehr als eine Stunde, bis er mit der Bootsequenz weitermacht.

Evt Probleme mit dem Medium wo der Esxi drauf liegt?

Habe als ersten Schritt ein Images des USB Stick auf einen neuen Stick geschrieben und dann getauscht. Gleiches Problem.
Daher erst der oben beschriebene Workaround, bis ich Zeit habe ESXI neu zu installieren.
 
Mir fallen jetzt noch zwei Punkte ein. Punkt 1 wäre, daß der ESXi nur bei der Anzeige zum NFSv4.1 stehenbleibt, daß Problem aber durch das unfertig und unmittelbar davor geladene Modul verursacht wird. Das kann unter Umständen auch HW sein, die wegen UEFI und mangels UEFI-kompatibler FW erst durch das OS initialisiert wird und nach einem Cold-Boot entweder zuviel Zeit braucht oder beim Warm-Boot nicht sauber initalisiert wird. Vielleicht hilft ein Slot-Wechsel dem System auf die Sprünge.
Als Punkt 2 würde mich interessieren, wieviel Ruhezeit nach dem ESXi-Start du der Auto-Start/Stop-Funktion gönnst, bevor die erste VM gestartet wird. Bei mir startet Nappit erst als zweite VM, in feststehender Reihenfolge, mit festen Wartezeiten zwischen allen VMs bzw nach Erreichbarkeit der Tools. An Position 1 startet immer die apcupsd-VM und selbst die muß sich 3 oder 5min gedulden.
 
daß Problem aber durch das unfertig und unmittelbar davor geladene Modul verursacht wird.
Ich denke nicht, da es ja mit dem o.g. Workaround funktioniert, bei dem ich nur die NFS3-Verbindungen beim Bootvorgang deaktiviere. Ist also definitiv durch den Versuch die NFS3 Datastores zu mounten verursacht.

Als Punkt 2 würde mich interessieren, wieviel Ruhezeit nach dem ESXi-Start du der Auto-Start/Stop-Funktion gönnst, bevor die erste VM gestartet wird.
Hab hier nichts explizit angegeben, aber vermutlich sind es 90 Sekunden bei der napp-it VM. Bei mir kann nur die napp-it VM zuerst starten, da nur diese auf dem lokalen VM Storage liegt. Alle anderen VMs liegen auf den NFS Storage, der durch napp-it bereitgestellt wird. Habe zwischen napp-it VM und der 2. VM (vom NFS Storage 180 Sekunden eingestellt. Da ja noch das Mounten des Storage getriggert wird. Vermutlich würden hier aber auch 90 Sekunden reichen.
 
30 s sind bei mir ein guter Wert.
Die VMs brauchen, bis auf Home-Assistant und Github, keine 10 s bis zum Login-Prompt und das längste sind die 5 s Debian-Grub-Wartezeit...
 

In einer Warnmeldung stufen die Entwickler das von der Lücke (CVE-2021-22045) ausgehende Risiko als "hoch" ein. Als Voraussetzung für eine erfolgreiche Attacke muss eine VM mit einem CD-ROM-Gerät laufen. Hat ein Angreifer darauf Zugriff, könnte er auf einem nicht näher beschriebenen Weg einen Speicherfehler (heap-overflow) auslösen und Schadcode im Hypervisor ausführen.

Warten auf Sicherheitsupdates​


Für ESXi 6.5 und 6.7 sind die Sicherheitsupdates ESXi650-202110101-SG und ESXi670-202111101-SG erschienen. Das Sicherheitsupdate für ESXi 7.0 steht noch aus.
 
Ich nutze die EXSi Free Version.
Ich habe meine EXSI VMs auf einem NFS-Share liegen. Dieser NFS-Share setzt auf ZFS und ich erstelle regelmäßige Snapshots der VMs.
Bisher konnte ich die VMs auch immer wieder mit den Snapshots zurücksetzten. Ich habe immer die VM heruntergefahren, dann per Snapshot zurückgesetzt und das war alles.

Da ich mich jetzt auch viel mit Proxmox beschäftigt habe, habe ich festgestellt, dass meine Snapshots der VMs wohl nie konsistent waren. Ich habe die VMs für die Snapshots nie heruntergefahren.
Macht ihr das auch so, oder sollte man das tunlichst so nicht machen? Hatte ich nur Glück, dass ich aktuell keine Fehler habe?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh