ESX / ESXi - Hilfethread

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1668000485450.png

Bin ich blind?
Ich weiß, bei v7 war immer beim Download-Button ne Lizenz...

//Edith:
Bin einen Schritt weiter:
1668002206654.png

Jertzt habe ich wenigstens die Lizenzfehlermeldung... -.-
 
Zuletzt bearbeitet:
Bei mir funktionierts irgendwie nicht - es wird immer wieder die alte v7 Lizenz angezeigt!?
 
Kann mir vielleicht jemand sagen wie lange ich noch auf der 7u2 noch bleiben kann ohne gravierende Einschnitte bei der Sicherheit?
Sind die ESXi-Versinonen LTS-Versionen und noch über Jahre zu gebrauchen oder muss man eigentlich nach kürzester Zeit ein Update machen?
 
Kann mir vielleicht jemand sagen wie lange ich noch auf der 7u2 noch bleiben kann ohne gravierende Einschnitte bei der Sicherheit?
Sind die ESXi-Versinonen LTS-Versionen und noch über Jahre zu gebrauchen oder muss man eigentlich nach kürzester Zeit ein Update machen?

Ein virtualisierer Host ist nicht so anfällig wie ein altes Windows. Wenn Du eine abgeschottete oder kleine, überschaubare Umgebung hast und da keine exzessiven Webserver drauf laufen, kann man den ESX so lange betreiben, wie die Hardware es mitmacht bzw die Betriebsysteme unterstützt werden.
 
Es gibt kein LTS beim ESX, warum auch? Serverhardware wird eh alle paar Jahre ausgetauscht und da der Hypervisor in der Regel ohne Weiteres auszutauschen ist, ohne dass es gravierende Probleme gibt, macht es keinen Sinn so ein System über Jahrzehnte zu supporten. Das ist kein Windows oder Linux.
Des Weiteren implementiert Vmware auch ständig neue Sachen und so muss man auch mal alte Zöpfe abschneiden.
Nicht umsonst kickt VMware jedes Mal beim HW-Support Sachen raus.

Um auf die Frage zu antworten, 6.5 und 6.7 wurden im Oktober offiziell auf EOL gesetzt. D.h. es gibt Updates nur nach Einwurf kleiner Münzen.
Und was war noch im Oktober? Richtig, Release von 8.0.
(6.0 hatte sein EOL März 2020, was kam im April 2020? Richtig, 7.0)
Man kann grob sagen, dass VMware noch eine Gen rückwirkend supportet oder 5 Jahre, was rein zufällig einem HW-Lebenszyklus entspricht.
(6.5 kam 2016 und 6.7 2018 auf den Markt)

Die Frage ist, warum du auf 7.0.2 bleiben willst? Mit deiner Lizenz kannst auf ein 7.0.3g fahren.
Ansonsten würde ich sagen, dass 2025-2027 irgendwo Schluss mit 7.0 ist. (denn es gibt da nur kleinere Update)

Aber ansonsten siehe über mir. Ist alles eine Frage der Umgebung und wie das System sonst eingebunden ist.
Homeuser ist was anders als Firma, saubere Segmentierung ist was anders als ein Netz für alles.
Viele Clients drauf sind was anderes als wenige. (im Kombination mit den Sachen davor)
Daran kann man ausmachen, was man zu machen "hat".
PS: Ich habe auch noch nen 6.7 laufen... (privat)
 
All-in-One (ESXi, inkl. free + virtualisierte ZFS SAN storage appliance): Autostart der VMs von NFS

Als ich die AiO Idee vor über 10 Jahren erstmals vorstellte, ging das noch einfach. Die Storage VM starten und mit einer Verzögerung die VMs auf NFS. Mit aktuellem ESXi geht das nicht mehr. ESXi scheint die Verfügbarkeit einer VM vor der Autostart Verzögerung zu überprüfen. NFS der Storage VM steht da noch nicht bereit.

Workaround:
- Anlegen einer leeren Dummy VM auf dem lokalen Datastore
- Autostart der OmniOS Storage VM
- Autostart der Dummy VM mit ausreichender Startverzögerung bis OmniOS NFS bereitstellt und ESXi das automatisch verzögert mountet.
- Autostart der anderen VMs auf NFS

autostart.png

 
Zuletzt bearbeitet:
Mit aktuellem ESXi geht das nicht mehr.
Mit "aktuellem" meinst du vermutlich vSphere 8, oder?
Unter 7.0.3 habe ich dieses Verhalten zumindest noch nicht festgestellt. Bei mir im Lab wartet der ESXi aber auch 6 oder 7 Minuten auf die Storage VM und dessen NFS Datastores, bevor es mit dem Autostart der nächsten VM weiter geht.
 
Ich habe das mit ESXi 8 (free, ohne Vsphere) gemacht.
Ohne Dummy VM und 300s Verzögerung der ersten NFS VM gabs lediglich die Ereignismeldung wird gestartet und dann nicht gefunden. Mit Dummy VM (200s Startverzögerung) booten alle weiteren VMs stabil.
 
Kann man nen RAID-Controller irgendwie im ESXi resetten?
Habe folgende Herausforderung mit dem 71605:
Nach dem Starte des ESXi fluppt die TrueNAS-VM (EFI-Boot) einwandfrei.
Controller wird erkannt, Platten sind an der Expander-Backplane alle da, fluppt.
Jetzt starte ich die TrueNAS-VM neu und sie hängt mit:
1671522543792.png

Ok, kein Problem, durch Zufall herausgefunden, dass ich mit ner Linux-VM (auch EFI-Boot!) den Controller wieder ans laufen bring.
Also, TrueNAS-VM zu, Debian-VM auf, bootet, Controller wird in der Debian-VM erkannt, alles da.
Debian-VM zu, TrueNAS-VM wieder gestartet, geht. WTF?!
Bis zum abermaligen Neustart der TrueNAS-VM und dann spackt auch die Debian-VM rum:
1671522375268.png


ESXi v8.
Adaptec 71605 im HBA-Modus, FW 7.6 (war schon drauf, im Netz finde ich nur 7.5).
Passtrough in beiden VMs an, aber ohne die ominösen ...msi.enable=false Parameter.
BIOS auf dem X10-DRU-i+ ist aktuell.
TrueNAS v13.
Debian 11.

Gibts eventuell Infos abseits von "der Controller ist kagge"?
 
Evtl. ein paasthrough-Problem?

Dell T30, passthrough der iGPU: Plex-VM an, läuft. Plex-VM aus und wieder an: läuft nicht. Da muss ich auch (fast?) jedesmal passthrough aus- und wieder anschalten und dann startet auch die VM wieder.
 
Falls das in 8 überhaupt noch aktuell ist (meine letzten Experimente dazu waren mit 6.7U3): ggf. mal in der passthru.map mit anderen Settings spielen betreffend link/bridge/d3d0 - das legt nach meinem Verständnis/Erinnerung und vereinfach ausgedrückt fest, wie der Adapter über den PCIE-Bus resetted werden soll und wirkt sich vor allem bei einem VM-shutdown aus.

Hier dazu mal ein ganz altes vmware-doc.
 
Interessant wären diesbzgl. mehr Erfahrungen mit den Intel Arc's. Als AV1 Encoder in einer VM wären die vmtl. nicht uninteressant, schon die kleine A380 reicht dafür ja aus.
Wirklich viel findet man da ja nicht im Netz dazu; und das was da ist, ist Proxmox. (Dort eher "määäh" bzgl. Erfolg bisher: zumindest mit Bildausgabe).
Ok, die Karten sind eh nicht Mainstream und Passthrough im Heimbereich auch nicht; kein Wunder das da nicht viel rumgeistert.
 
Danke Leute, les ich mir nachher mal durch.
Was mir aufgefallen ist, dass die TrueNAS-VM gerade eben schneller den Adapter initialisiert hat.
Habe meinen alten ESXi auseinander gepflückt, die 128 GB RAM in den neuen gestopft und die Intel X710 in den Slot, wo vorher der HBA drin war, gesteckt.
Ist voll doof, die Riser-Karte für CPU1 hat einen internen und einen externen Slot, der interne ist weiter hinten angeordnet und erlaubt keine Slotblende. :wall:
Mangels zweiter CPU muss ich erstmal die eine Riser-Karte nutzen.
Und jetzt scheint es mir, als ob die Initialisierung viel schneller ging.

Heute Nacht mal bissi rum probieren, wenn ich jetzt die Medien- und Minecraft-Server abschalte, um "was zu testen", kommt aus der einen Ecke ein Nudelholz und aus der anderen wahrscheinlich ein Matchbox geflogen... :fresse:

Ach ja, 32+8 GB in einem Kanal scheint der CPU / dem Board nicht zu schmecken, beim booten gibts "invalid Channel Config DIMM-A1..D1".
Erkennen und nutzen tut er die 160 GB trotzdem...

Das wird ja nen Spaß, wenn ich die dann auch unter zwei CPUs aufteile und die nur im Dual-Channel betreibe...
 
Heute Nacht mal bissi rum probieren, wenn ich jetzt die Medien- und Minecraft-Server abschalte, um "was zu testen", kommt aus der einen Ecke ein Nudelholz und aus der anderen wahrscheinlich ein Matchbox geflogen... :fresse:
Hehe... das kenne ich nur zu gut. Auch muss ich mir mal langsam einen Aushilfs-Admin heranziehen, der den Minecraft-Server selber administrieren kann... also neue Minecraft-Instanz aufsetzen oder bestehende ändern.

*grübel* So viel ist das eigentlich nicht...

1. login
2. sudo -s
3. cp -r /opt/minecraft/MC-INSTANZ-ALT /opt/minecraft/MC-INSTANZ-NEU
4. rm -r /opt/minecraft /MC-INSTANZ-NEU/world
5. rm /opt/minecraft/MC-INSTANZ-NEU/mods/*
5. [auf'm Windows-PC gewünschte mods für passende curseforge Version runterladen und auf SMB-Share kopieren]
6. mount -t cifs ////IP//SMB-SHARE /mnt/smb
7. cp /mnt/smb/[MODS] /opt/minecraft/MC-INSTANZ-NEU/mods
8. vi /opt/minecraft/MC-INSTANZ-NEU/server.properties [freien Port nehmen - das ist vielleicht etwas knifflig, wenn man nicht weiß, welche schon in Verwendung sind]
9. systemctl start minecraft@MC-INSTANZ-NEU
10. [am Windows-Client unter Multiplayer neuen Server mit IP:PORT hinzufügen]
11. systemctl enable minecraft@MC-INSTANZ-NEU [wenn 9. start und 10. connect funzt]
12. 2x exit

Achja, und:
0. vor allem ein Backup der VM irgendwo hinlegen. :d

Muss echt die Tage (= im neuen Jahr) mal probieren, ob das so aus dem Gedächtnis funzt... :d Klar, gibt noch ein paar Stolpersteine, aber eigentlich ein gutes Einstiegsbeispiel, anhand dessen man so ein paar grundlegende Dinge erklären kann.
 
Ich nutze den Crafty Controller dafür, damit gehts über WebIF. :fresse:

//Edith:
 
Pah. Neumodischer Firlefanz! ;)

Und mal ernsthaft: muss ich mir mal anschauen. Aber eigentlich finde ich die Idee ganz charmant, den Nachwuchs mal an Linux und Console heranzuführen… :)
 
Hehe... das kenne ich nur zu gut. Auch muss ich mir mal langsam einen Aushilfs-Admin heranziehen, der den Minecraft-Server selber administrieren kann... also neue Minecraft-Instanz aufsetzen oder bestehende ändern.
Vielleicht erstmal klein anfangen und die Administration auf die Minecraft Console beschränken ;)

Für so generelle Spielspäßchen kann ich pterodactyl.io empfehlen, das kann mehr als nur Minecraft-Server administrieren, falls irgendwann mal ein eigener Voice-Server, weitere Game-Server o. ä. Wünsche aufkommen sollten.
 
Evtl. ein paasthrough-Problem?

Dell T30, passthrough der iGPU: Plex-VM an, läuft. Plex-VM aus und wieder an: läuft nicht. Da muss ich auch (fast?) jedesmal passthrough aus- und wieder anschalten und dann startet auch die VM wieder.
Fluppt nicht.
Außerdem kommt jetzt bei jedem Neustart die Meldung, dass der ESXi nochmal neu gestartet werden soll, was recht nervig ist.
(Seitdem ich den Controller auf die andere Seite der Riser-Karte gesteckt und im ursprünglichen Port die X710-DA2 drin hab.)

Nach jedem Neustart des ESXi Passtrough aus- und wieder einschalten ist ätzend, weil ich so keinen Autostart mehr machen kann. *NARF*

Falls das in 8 überhaupt noch aktuell ist (meine letzten Experimente dazu waren mit 6.7U3): ggf. mal in der passthru.map mit anderen Settings spielen betreffend link/bridge/d3d0 - das legt nach meinem Verständnis/Erinnerung und vereinfach ausgedrückt fest, wie der Adapter über den PCIE-Bus resetted werden soll und wirkt sich vor allem bei einem VM-shutdown aus.

Hier dazu mal ein ganz altes vmware-doc.
Fluppt auch nicht, weder d3d0, noch link oder bus bringen was oder ich bin zu blöd für die Datei.

Die Methode mit der "Reset"-VM klappt auch nur genau einmal.
Danach hilft nur noch kompletter Neustart. *meh*
 
Ich hasse es.
Die beiden Xeons sind da.
Fluppen einwandfrei.

Aber:
ESXi 8.0 erkennt die beiden X540-T2 nicht.

Lustig:
MIT der X710 zusätzlich drin hat er sie (die beiden X540) erkannt und benutzt.
Ohne die X710 erkennt er sie nicht.
WTF?!

Ich reiß dann mal den Server wieder ausm Schrank und frickel das Ding erstmal wieder rein.
Was für eine Resourcenverschwendung... :wall:

//Edith:
Ok, fluppt.
Aber NUR, wenn im ganz linken Slot (von hinten gesehen) eine Karte drin steckt.
WTF?!
Hab jetzt den RAID-Controller wieder anstelle der X710 rein.
Schraub das shize Teil jetzt wieder zu und stopf es wieder in den Serverschrank, Schnauze gestrichen voll.
Nicht wundern, einfach akzeptieren...

//Edith2:
Keine Ruhe.
Passthrough vom RAID-Controller geht nicht mehr.
Ich hasse es...
 
Zuletzt bearbeitet:
Das sieht mir aber eher nach einen Board Problem aus.
 
Oder BIOS.

Evtl. irgendwas mit CMS/legacy vs. UEFI? Ggf. bestimmte Slots dazu spezifisch eingestellt? BIOS der onboard-NIC aktiv? Ggf. mal umstellen (je nachdem, was gerade aktiv ist)?

Wie isn der Schaltplan vom Board? Evtl. hängt der „linke“ Slot am Chipsatz, was erklären würde, warum passthrough nicht geht. Sonst irgendwas im Kleingedruckten von Specs/Manual (z.B. Karte in Slot 123 deaktiviert onboard NIC)?

Oder ESXi.

Was sagt z.B. eine Linux Live-CD? Erkennt ein anderes OS die NIC?
 
Muss ich mal suchen.
Es klappt alles, wenn der RAID-Controller über den integrierten X540 sitzt (im x8) UND irgendeine Karte (hab jetzt ne uralt Intel GBit rein) in dem x16 auf der anderen Seite.
Ich werd mir nachher mal die Anleitungen durchforsten und ein paar Schaltbilder posten, jetzt muss ich erstmal Mittag machen, die Strafe vom Nudelholz fürs aufbleiben bis 0500...
Also, nach Rosenkohl und Schweinesteaks lesen wir uns wieder. =)
 
1672754969919.png1672755117439.png
Wenn ich die beiden richtig interpretiere, hängt eine der beiden X540-AT2 am PE1 und Port A alleine, die andere und der RAID-Controller an PE2 und Port C, die Intel-GBit-Karte an PE3 und Port B?
Port B ist definitiv nicht Passtrhough-fähig, gerade mal versucht die Intel zu aktivieren, macht dasselbe Geschiss mit "needs restart"...
 
Mal kurzes (längeres) Update von mir:
Das ist tatsächlich so, dass Supermicro diese verqueren Verbindungen macht.
Der PCIe2 von CPU1 geht an Port3 der Riser-Karte.
Hab jetzt den RAID-Controller auf einen Slot von CPU2 gesetzt, da spackt zumindest ESXi nicht mehr mit diesem dauernden fake "Passthrough-Neustart haben wollen".
Es bleibt jetzt gleich aktiv.
Ein Neustart der VM bringt ihn trotzdem durcheinander.
Naja, der M1215 kommt bald..

In Slot3 von CPU1 stecken jetzt die beiden NVME-SSDs über ne Supermicro Bifurcation-Karte.
Wenn man erst mal das Slot-/PCIe-Bezeichnungsschema von SM kapiert hat, klappt das dann auch ganz gut in den BIOS-Einstellungen zum umstellen.
Auto checkt er übrigens ned, musste manuell auf x4/x4/x4/x4 umstellen, obwohl das nur nen x8 Slot ist... :wall:

Komischerweise brauch ich jetzt auch keine Phantom-Karte mehr in Slot2, damit ESXi die X540 erkennt und nutzt.

ALLERDINGS:
Hätte mir auch mal jemand sagen können, dass das drecks X10-DRUi+ NICHT (ohne weiteres) von NVME booten kann! :fire:
Hab jetzt zusätzlich das BIOS gemoddet:

Obacht an Nachahmer:
Es gibt KEINEN String der "CSMCORE" heißt (zumindest nicht in der aktuellen 3.5er BIOS-Version).
Ich hab das DXE einfach im Bereich 01 (da wo "DXECORE" drin steht) eingefügt, ging auch.

Danach fluppt auch der Boot von NVMe SSDs einwandfrei.
Was ein Wochenende mit vielen tieffliegenden Nudelhözern, weil die Downtime ungeplant länger war UND das Pihole als 2. DNS irgendwie die Amazon-Server blockt.
(Prime auf der Glotze geht, man kann Filme auswählen, aber der Film selbst wird nicht abgespielt, auch nach nem Neustart der Glotze nicht, im Pihole sind keine verdächtigen Blocks im Log...
Mit dem Adguard und denselben Blocklisten geht alles einwandfrei... :unsure:)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh