ESX / ESXi - Hilfethread

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mich würden die Skripte bzw playbooks/rollen dafür interessieren, welche du verwendest.
sofern öffentlich 8-)
 
Ob ich hier richtig bin? Eventuell könnte ich eine Antwort bekommen auf meine Noobfrage :d...

Beim Eingabefeld im VMware Player für die CPUs pro VM, sind das ganze oder halbe CPUs (also Threads)? Also ihr wisst schon, wie ich meine, der Task-Manager zeigt beim 12 Core mit SMT ja 24 "CPUs" an.
Wenn ich der VM jetzt 4 Kerne geben mag, tipp ich dann 4 oder 8 in das Feld?
 
Der VMWare Player kennt kein SMT, also wenn Du vier eingibst, sieht der Gast auch vier Threads.
 
All-in-One (ESXi, inkl. free + virtualisierte ZFS SAN storage appliance): Autostart der VMs von NFS

Als ich die AiO Idee vor über 10 Jahren erstmals vorstellte, ging das noch einfach. Die Storage VM starten und mit einer Verzögerung die VMs auf NFS. Mit aktuellem ESXi geht das nicht mehr. ESXi scheint die Verfügbarkeit einer VM vor der Autostart Verzögerung zu überprüfen. NFS der Storage VM steht da noch nicht bereit.

Workaround:
- Anlegen einer leeren Dummy VM auf dem lokalen Datastore
- Autostart der OmniOS Storage VM
- Autostart der Dummy VM mit ausreichender Startverzögerung bis OmniOS NFS bereitstellt und ESXi das automatisch verzögert mountet.
- Autostart der anderen VMs auf NFS
Ich musste nach BIOS-update meines Dell T30 und Neustart gerade feststellen:

Das funktioniert bei mir leider nicht -- ESXi 8.0.2 weigert sich, nach einem ESXi-Neustart einen bestehenden NFS-store von OmniOS zu öffnen. Erst das löschen und Neuanlegen des stores in ESXi erlaubt dann den Zugriff.

Ein Zwischenschalten einer autostart Dummy VM (ohne Betriebssystem) reicht leider nicht aus (oder ich habe eine zu kurze Startverzögerung?).

Die Probleme müssen andere doch auch haben - gibts da keinen workaround? Nach jedem ESXi-Neustart den NFS-store zu löschen, neu anzulegen und alle VMs neu zu registrieren ist doch kein Zustand ...

Von Linux aus ist NFS mountbar, die Probleme scheinen also klar bei ESXi zu liegen.

Für Hilfe dankbar :-)
 
Zuletzt bearbeitet:
Die Startverzögerung und die Dummy VM braucht man nur für den verzögerten Autostart von VMs die auf NFS liegen. OmniOS auf dem lokalen Datastore wird vermutlich per Autostart starten und NFS freigeben.

-Wird denn NFS als v.3 gemounted
-Nach dem Booten von OmniOS und aktiviertem NFS, zeigt der Datastore Browser von ESXi den Inhalt des NFS Shares (nach 1min Wartezeit und/oder Storage Refresh)
-steht MTU auf 1500

Bios Update sollte ESXi eigentlich egal sein wenn es gebootet hat.
 
-Wird denn NFS als v.3 gemounted
Ja.
-Nach dem Booten von OmniOS und aktiviertem NFS, zeigt der Datastore Browser von ESXi den Inhalt des NFS Shares (nach 1min Wartezeit und/oder Storage Refresh)
Nein - der datastore lässt sich (von ESXi aus) nicht öffnen. ESXi zeigt mir im datastore browser einen dicken roten "Error!". Aktualisieren bringt nichts.

-steht MTU auf 1500
Nein - ich nutze seit jeher jumbo frames mit MTU 9000. Das machte "früher" keine Probleme.
Bios Update sollte ESXi eigentlich egal sein wenn es gebootet hat.
Jupp
 
Danke - ich teste die nächste Woche mal. Ich muss ja neustarten, um das Fehlerbild wieder nachzubilden.

Jetzt - nach löschen des alten und einrichten des neuen NFS mounts - läuft ja alles:

Code:
[root@esxi:~]  nc -zvu 192.168.1.250 2049
Connection to 192.168.1.250 2049 port [udp/nfs] succeeded!
[root@esxi:~]  vmkping -I vmk0 -s 8150 192.168.1.250
PING 192.168.1.250 (192.168.1.250): 8150 data bytes
8158 bytes from 192.168.1.250: icmp_seq=0 ttl=255 time=0.140 ms

MTU > 9000 lässt sich im ESXi free nicht einstellen.
 
Mir kam das irgendwie bekannt vor mit den NFS Shares, ich hatte sowas auch unter 6.5 und 6.7... Wir haben in unserem internen Wiki dazu sogar einen Eintrag. :fresse:
Folgender Befehl via Shell/SSH sollte die wieder mounten, ohne dass man die Shares entfernt:

Code:
esxcfg-nas -r

Sind deine NFS shares über Namen oder IP gemountet? Ich meine mich zu erinnern, dass die Ursache fehlende Namensauflösung war, zumindest wenn sie nicht direkt via IP gemountet sind.
 
Moin zusammen, hat es schon einmal jemand geschafft, eine Samsung NVMe 980 Pro SSD per Passthrough an eine VM durchzureichen?

Mein Setup: Supermicro X11SSH?LN4F Mainboard, interner M.2 Slot belegt (Datastore für ESXi), PCIe-NVMe Adapter für 2 NVMe im mittleren PCIe-Slot, im Bios Bifurcations auf x4x4 eingestellt. ESXi ist 7.0.3, seit gestern auch aktuelles Patchlevel (7.0.3o). Bios des Boards seit gestern ebenfalls aktuell. Im Adapter stecken zwei Samsung NVMe 980 Pro, sie werden auch beide angezeigt, wenn ich beispielsweise einen neuen Datastore anlegen möchte. Passthrough habe ich am Host in den Hardware Einstellungen umgeschaltet, auch nach mehreren Reboots bleibt dort der Zustand „Aktiviert / erfordert Neustart“ bestehen. Beim Hinzufügen eines PCI Geräts in der betreffenden VM erscheinen die NVMes nicht zur Auswahl. Stattdessen zwei Ethernet Adapter (steckt nur eine NVMe im Adapter, wird nur ein Ethernet Device angezeigt, stecken zwei NVMe drin, werden zwei EthernetßAdapter angezeigt.

Ich hab das Problem hier https://www.hardwareluxx.de/community/threads/zfs-stammtisch.570052/post-30182240schon einmal geschildert, sind mehrere Beiträge mit Fortschrittsmeldungen. Hier https://www.hardwareluxx.de/community/threads/zfs-stammtisch.570052/post-30183341 sind noch ein paar Screenshots mit weiteren Details. Vielleicht hat hier von den ESXi Profis jemand noch einen entscheidenden Hinweis. Bin gerade etwas ratlos…

Danke vorab! :-)
 
Manchmal gehen / vertragen sich einige Dinge nicht. Mach doch mal eine frische Installation auf ESX 8 oder schau Dir Proxmox mal an.

ESX kannst Du spätestens dann vergessen, wenn Du eine Windows 11 VM betreiben möchtest, weil man für TPM ein vCenter benötigt.
 
Welche Werte hast du denn im Bios unter:
1. Advanced —> NB —> IOMMU
2. Advanced —> NB —> PCI ACS Enabled
Stehen? Falls die auf „Auto“ oder „Disabled“ stehen: mal auf „Enabled“ stellen.
 
Manchmal gehen / vertragen sich einige Dinge nicht. Mach doch mal eine frische Installation auf ESX 8 oder schau Dir Proxmox mal an.

ESX kannst Du spätestens dann vergessen, wenn Du eine Windows 11 VM betreiben möchtest, weil man für TPM ein vCenter benötigt.
Ja, aber nein:
1702462161277.png
 
Das ist dann eine uralte version, wo die HW Checls noch nicht aktiv waren oder umgangen worden sind. Mit aktuellem Build und regulärer Installation wird u.a. SecureBoot und TPM vorausgesetzt.
 
Bin gerade dabei zu aktualisieren, ansonsten kann man immer noch mit Rufus den ganzen Schrott im ISO abschalten...

//Edith:
Ok, Windows Update bietet 23H2 standardmäßig nicht an, ISO downloaden, Reg-Einträge setzen und appraiserres.dll leeren scheint zu klappen.
(Ist momentan bei 46 % von Updates suchen...)

//Edith2:
Fluppt.
1702475507243.png

Ein mit Rufus bearbeitetes Original-Image sollte demnach reichen.
 
Zuletzt bearbeitet:
Win 11 hat bei mir damit funktioniert
 
@kandamir ich hab in meinem Serverchen 4 980 Pro per Passthrough durchgereicht. Klappt problemlos.
 
Moin erstmal und Danke. Für die Rückmeldungen bisher! Die Woche war etwas stressig, weshalb ich wenig Zeit zum Antworten - geschweige denn zum Ausprobieren hatte…

@besterino: Deine Rückmeldung macht mir Mut, dass ich das doch noch zum Laufen kriege.

@mrpasc: Die Werte habe ich nicht im Kopf, die werde ich heute Abend mal prüfen und ggf. umstellen. Danke für den Tipp!

@Supaman: Windows VMs spielen bei mir aktuell keine Rolle. Update / Neuinstallation auf ESXi 8 ist Plan C oder D. Da will ich erst noch einmal querlesen, welche Probleme ich mir ggf. damit einhandle. Ist aber auf jeden Fall eine Option, wenn sich sonst keine Lösung findet.
 
Welche Werte hast du denn im Bios unter:
1. Advanced —> NB —> IOMMU
2. Advanced —> NB —> PCI ACS Enabled
Stehen? Falls die auf „Auto“ oder „Disabled“ stehen: mal auf „Enabled“ stellen.
@mrpasc, ich kann diese Einträge im Bios leider nicht finden. Advanced natürlich schon, aber den Rest nicht, auch nicht ähnlich lautend. Hier mal Screenshots zur Orientierung…
IMG_6055.jpegIMG_6056.jpegIMG_6057.jpegIMG_6058.jpegIMG_6059.jpegIMG_6060.jpeg

Ich habe noch den original Supermicro PCIe-M2-Adapter ausprobiert, der hat auch nix gebracht. Außerdem noch eine andere PCIe Karte raus genommen, für den Fall, dass sie ggf. stört, ebenfalls ohne Erfolg…

@besterino: Welches Mainboard und welche ESXi Version nutzt Du?
 
Supermicro H12SSL mein ich. Jedenfalls Supermicro für Epyc. ESXi 7irgendwas. Hab die Details vergessen, der läuft halt seit langer Zeit einfach… :d

EDIT & Nachtrag:

Bei mir stecken 4 der 980 Pro auf einer ASRock HyperX x16@PCIe4 Adapterkarte. Der Epyc hat halt einfach so schön viel Lanes.

ESXi 7.0u3. Uptime: hmmm… nur 231 Tage… glaub ich hatte da nochmal an den SSDs gefummelt oder RAM nachgesteckt…?
 
Zuletzt bearbeitet:
Okay, Danke! Alles eine Nummer größer, als bei mir. 😁 Aber schon mal das gleiche ESXi. Das hatte mir am WE nochmal richtig Probleme bereitet, weil richtig lange keine VMs mehr starten wollten und ich nicht raus kriegen konnte, warum nicht. Nach x Reboots tat‘s dann plötzlich irgendwie wieder - just, nachdem ich das ISO mit ESXi 8 ziehen wollte…Napp It meckert jetzt noch, dass die Machine ID nicht zur Lizenz passt - tut sie aber eigentlich. Tausch der Lizenz hat auch nix gebracht. Irgendwas ist da faul an der Kiste… Naja, da hab ich über Weihnachten ja was zu tun…
 
Mit was backupt ihr eure VMs?
Ich schau mir gerade paar Optionen an, aber veem scheint mir für gerade mal 6 VMs irgendwie to much.
 
Ich kopiere die direkt per ZFS, oder allenfalls mit Samba auf den Desktop. Die VMs sind aber Anwendungsserver, und von daher recht statisch.

Inkrementelle Backups gibt es nur vom Desktop, und dort auch nicht wirklich. Lieber mal die Fullbackups, hihi.
 
Mit was backupt ihr eure VMs?
Ich schau mir gerade paar Optionen an, aber veem scheint mir für gerade mal 6 VMs irgendwie to much.
Warum? Das gute bei VEEAM ist, sofern du an den VM's nix änderst (Namen der VM, Storage auf dem sie ist etc.), kannst das ding einfach vergessen und arbeitet vollkommen unmerkbar im Hintergrund.

Daher finde ich es vertretbar und bin sehr zufrieden damit.
 
Ich schau mir tatsächlich gerade die Einrichtung von Veem an 😅
 
Es gibt ja in dem Bereich nicht viel Besseres.
Wenn du eine ESXi-Lizenz hast, geht es mit Veeam B&R in der Community Edition auch kostenfrei.
 
Ja 2x Standard, genau deswegen schau ich es mir gerade an.
So lange kein Enterprise Plus und aktive VMware Subscription dafür verlangt wird, passt es.
 
Standard Lizenz ohne aktive Subscription ist ausreichend. 👍🏻

Edit: Du kannst auch kostenfreie NFR-Lizenzen von Veeam im Homelab zum „Testen“ nutzen.
Müssen nur jährlich per gleichen Account erneuert werden. Dann fallen alle Einschränkungen weg und auch Veeam One ist dabei.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh