ESX / ESXi - Hilfethread

@ctcn
Weshalb siehst du keine Alternative? Von der 7590 abgesehen sind alle FBs CPU-technisch noch schwächer aufgestellt und mangels HW-Unterstützung wird sich daran zumindest momentan auch nix ändern.
Wenn ich in Richtung Ubiquiti schaue, kann die UDM kein WiFi 6 und hat kein Multigigabit-Ethernet. Jetzt mag aber einer sagen: "Moment, es gibt doch die UDM Pro!". Ja richtig, aber ich habe kein 19" Rack zuhause und lege kein Wert drauf eines aufzubauen. Fehlt der Platz für. :-)

In Richtung Meraki gibt es auch kein Multigigabit bei den kleineren MX-Modellen. Bei Mikrotik habe ich mir das RouterOS Interface angeschaut und bin weggelaufen.

Es gibt halt einfach nichts. Aber ich bin jetzt schon nach Canossa gegangen und habe mir eine gebrauchte UDM gekauft. Dann kann ich wenigstens den AC-Lite einmotten bzw. der Familie vererben.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ehm ... ich hab mit dem ESXi Webclient ne VM Verschoben.... Die Taucht im Webclient nicht mehr auf. Dachte mir OK dan registrier ich sie halt nochmal aber nixda der ESXi will nicht weil

Fehler beim Registrieren der VM [DS_0_2TB_SRQ] W10-energi/W10-energi.vmx. Der angegebene Schlüssel, Name oder Bezeichner '54' ist bereits vorhanden.

Warum?

Ist die VM noch da?

Bekomme ich die wieder gelistet oder irgendwie de-registriert um sie wieder aufzunehmen ?

Ein LOCK File gibt es nicht ...


€:

Grade gefunden .... der die Übersicht im Webclientzeigt 11 VMs aber nur 10 sind sichtbar und mein Browser lässt mich da "Fenster" nicht größer ziehen :/
Danke
 
@Brokk auf der CLI via SSH direkt vom Host?
Ähnliche komische Verhalten hat man mit dem Webclient, wenn man versucht nach nem Storage Ausfall (APD bspw.) VMs zu deregistrieren die noch so halb im Hintergrund laufen auf dem Host. Da kommst via Client nicht ran. Aber auf der CLI lässt sich sowas kicken...

vim-cmd /vmsvc/getallvms
-> listet alle VMs

vim-cmd /vmsvc/unregister <id>
-> deregistriert die angegebene ID

Es gibt halt einfach nichts. Aber ich bin jetzt schon nach Canossa gegangen und habe mir eine gebrauchte UDM gekauft. Dann kann ich wenigstens den AC-Lite einmotten bzw. der Familie vererben.
Trenn doch die Funktionen? Also das Einwahl VPN weg lagern - in eine VM bspw.
Die FB rein als Einwahl Router vorn als erste Instanz kann ja bleiben. Die stört ja nicht dort. Intern einfach mit statischen Routen die internen Netze dann zeigen lassen. Und wenn irgendwann mal was kommt, was für dich der bessere Router ist, stellst du diesen einfach zwischen FB und dem internen Rassel. -> so läuft das btw. bei mir atm mit einer UTM hinter einem Speedport rein für die Einwahl. Blöderweise kann der Speedport keine statischen Routen nach intern. Bisschen Hässlich, aber man arrangiert sich halt - NAT und so...
 
Trenn doch die Funktionen? Also das Einwahl VPN weg lagern - in eine VM bspw.
Die FB rein als Einwahl Router vorn als erste Instanz kann ja bleiben. Die stört ja nicht dort. Intern einfach mit statischen Routen die internen Netze dann zeigen lassen. Und wenn irgendwann mal was kommt, was für dich der bessere Router ist, stellst du diesen einfach zwischen FB und dem internen Rassel. -> so läuft das btw. bei mir atm mit einer UTM hinter einem Speedport rein für die Einwahl. Blöderweise kann der Speedport keine statischen Routen nach intern. Bisschen Hässlich, aber man arrangiert sich halt - NAT und so...
Könnte ich machen, aber ich habe tagsüber schon genug trouble mit enterprise hardware. Da brauche ich auch nicht noch nach dem Feierabend ein Wust aus diversen VMs und kleinen Plastikkisten mit bunten Lämpchen drauf. Die Fritzbox als Modem davor ist schon in Ordnung. Dann kommt jetzt die UDM, sodass ich zur Not auch mal den Server auslassen kann und trotzdem noch in mein Netz komme. Zumal ist dann alles noch im Notfall auf dem iPad vom Sofa meiner Freunde aus bedienbar.

Im Zweifel immer nach dem KISS-Prinzip. :)
 
€:

Grade gefunden .... der die Übersicht im Webclientzeigt 11 VMs aber nur 10 sind sichtbar und mein Browser lässt mich da "Fenster" nicht größer ziehen :/
Danke

Das ist mir letztens auch aufgefallen. Absolut nervig. Die Letzte Zeile verschwindet bis auf einen ganz kleinen streifen... Ist das ein Browser Bug? Oder esxi Bug?
 
Mal ne Frage an euch vmware Spezis. Wie mache ich denn die Verbindung zu einer Storage VM "richtig"? Ich dachte, ich mache einen neuen vswitch und eine Portgruppe und so mit MTU9000. Die weise ich der zweiten Netzwerkkarte der Napp-It VM zu. Wie weiß denn jetzt der ESXi das er die IP ansprechen kann? Mein erster Gedanke war, eine VMKernel Netzwerkkarte mit der entsprechenden IP erstellen. Dann kann man die Portgruppe aber der VM nicht mehr zuweisen...
 
ESXi Management geht über den (default) vswitch mit den vmkernel Diensten. Auf diesen Switch muss man auch die oder eine virtuelle napp-it Netzwerkkarte mit einer ip aus dem Management Subnet legen. Dann hat ESXi Zugriff auf NFS und napp-it Management ist für Rechner möglich die auch ESXi managen können.

Optional kann man eine zweite napp-it vnic in ESXi auf einen zweiten vswitch z.B. normales LAN legen.
 
Moin beisammen,
ich hab gerade die wochenendliche Bastelstunde, aber komme gerade nicht mehr weiter.

Folgendes Szenario:
2x WAN (vom Modem per LAN Kabel) geht in den ESXI Host rein und dient dort PFSense als Zugangs-Interface, DHCP Server, Firewall etc. (2x wg. Fallback)
2x LAN geht vom ESXI raus

Nun habe ich hier zwei Switches:
1x Zyxel mit POE+ für die Unifi AP's
1x Netgear für alle anderen Geräte

Also dachte ich mir:
Unter ESXI -> Netzwerk -> LAN 2 Uplinks nutzen
1x Uplink hiervon geht in den Zyxel Switch
1x Uplink hiervon geht in den Netgear Switch

Der Theorie nach müssten nun beide Switche direkt im Netzwerk sein, Zugriff auf das NAS, Internet etc. haben, aber dem ist so nicht.
Der Zyxel Switch funktioniert hervorragend
Der Netgear Switch erscheint nicht mal in der DHCP Liste von PFSense. Erst wenn ich per LAN Kabel vom Zyxel Switch in den Netgear gehe, läuft auch dieser problemlos.

Wie konfiguriert man das nun richtig, sodass die Daten nicht vom ESXI Host -> Zyxel Switch -> Netgear müssen, sondern direkt ESXI -> Zyxel und ESXI -> Netgear?
Ich dachte mit zwei physischen Uplinks für LAN (1x Uplink an Zyxel, 1x Uplink an Netgear) wäre der Drops gelutscht. Aber Pustekuchen.
 
Hast Du bei der pfsense nur einen "LAN" vSwitch, und dort 2x die pNIC angeklemmt? Sollte eigentlich gehen. Ansonsten kannst Du auch zwei vSwitches mit jeweils einem Adapter machen, und die in den Netzwerk Einstellungen der Firewall an das selbe Netz klemmen.
 
Hast Du bei der pfsense nur einen "LAN" vSwitch, und dort 2x die pNIC angeklemmt? Sollte eigentlich gehen. Ansonsten kannst Du auch zwei vSwitches mit jeweils einem Adapter machen, und die in den Netzwerk Einstellungen der Firewall an das selbe Netz klemmen.
PFSense hat nur 1 LAN und 1 WAN Interface. Zur PFSense reiche ich nichts durch oder dgl., da ich das gerne alles durch ESXI machen lassen wollte (was wohl auch die "best-practice" ist).
Aber im Screenshot ist die Konfiguration sichtbar. Wenn nun vmnic1 am Zyxel hängt, alles gut. vmnic1&3 am Zyxel, auch alles gut. vmnic1 am Zyxel und vmnic3 am Netgear, dann kommt der Netgear erst gar nichts ins Netzwerk rein und erscheint auch nicht in der PFSense DHCP Liste. Fallback wurde auch testweise auf "Nein" gestellt, ebenfalls keine Änderung.
 

Anhänge

  • Switch.JPG
    Switch.JPG
    75,3 KB · Aufrufe: 137
Stichwort?
Habe die PDF einmal durcharbeitet, Virtuelle-Switche brauchen nicht immer einen Uplink, und den Passus
"Some virtual switches should not connect to a physical network
and thus have no uplink port, as shown in Figure 2. This is the
case, for example, for a virtual switch that provides connections
between a firewall virtual machine and the virtual machines
protected by the firewall. "


Grundsätzlich funktioniert der Host seit Monaten genau so, wie ich es mir vorstelle.
Nur ist die Konfiguration mir ein Rätsel, die man wählen muss, um zwei physische Switche direkt an den Host anzuklemmen. Die will nicht, sobald ein zweiter Switch hinzukommt.
 
Grundsätzlich arbeitet ein virtueller Switch (per Software) wie ein physischer managebarer Level 2 Switch. Das bedeutet dass man an die Ports eines vSwitches virtuelle Netzwerkkarten anschließen kann und dann bestimmen kann ob alle Ethernet Datenpakete da ankommen sollen oder nur solche aus einem bestimmten vlan. Man kann Ports kombinieren für Failover oder Aggregation, nicht jedoch zwischen IP Bereichen /Netzen routen. Dazu bräuchte man eine VM mit zwei virtuellen Netzwerkarten oder einer Netzwerkarte mit Routing über vlans.

Man kann jedoch nicht nur die internen virtuellen Netzwerkkarten auf einen Switch Port legen, sondern auch auch die physikalische Nic von ESXi. Beim Zusammenschluß von Switchen (physikalisch oder virtuell), muss man erst überlegen was man machen möchte um keinen "Kurzschluß" zu stecken. Wenn jeder Switch ein anderes Netzwerksegment ohne vlans darstellt, bräuchte man zwei physische Netzwerkanschlüsse um jeden Vswitch auf den jeweiligen physischen Switch zu klemmen.

Normalerweise würde ich mit vlans arbeiten und die Netze logisch über den gleichen (v)Switch trennen. Mehrere virtuelle Switche nimmt man meistens um intern VMs zusammenzuschalten (ohne vlans) oder um garantiert keine externe Netzwerkverbindung zu unsicheren externen Netzen zu haben. Bei Vlans muss man mehr aufpassen dass die Konfiguration sicher ist.
 
Grundsätzlich arbeitet ein virtueller Switch (per Software) wie ein physischer managebarer Level 2 Switch.
Einer der größten Trugschlüsse, wenn es um vSwitches geht.
Die Funktionieren nach innen, wie jeder beliebige andere Switch auch. Nach außen tun sie dies aber nicht.

Man kann Ports kombinieren für Failover oder Aggregation
Das ist das einzige was man mit externen (NIC)Ports an einem vSwitch machen kann.

@Gen8 Runner
Die Frage ist also, willst du eine der zuletzt genannten Optionen verwenden?
Was ergibt sich aus deiner Antwort daher als Konsequenz?

EDIT:
Evtl. noch ein kleiner Hinweis:
Themenpunkt "How Virtual Switches Work", 1. Abschnitt. Warum ist die dort erwähnte Zahl so groß? (nein, es war keiner so spendabel und hat nen 8Bit-Value freigegeben)

Das Dokument ist btw. aus 2007.
 
Zuletzt bearbeitet:
Auf jeden Fall nicht Plug & Play das ganze.
Brauche ich gerade akut nicht, aber ist für die Zukunft dennoch notwendig.

Man kann Ports kombinieren für Failover oder Aggregation
Das ist das einzige was man mit externen (NIC)Ports an einem vSwitch machen kann.
Damit wäre dann die Idee raus, dass ich einfach 1 Kabel an Switch 1 und 1 Kabel an Switch 2 hänge.

Also entweder zweites NIC in PFSense einpflegen und durch Firewall-Regeln / Bridging / was auch immer dafür sorgen, dass die Geräte ins selbe Subnet kommen und dort auch kommunizieren können?
Oder LAN -> Switch 1 -> Switch 2 (im besten Fall 10Gbit, um Engpässe zu vermeiden)?
 
Mal ganz doof gefragt: brauchst Du aus dem WLAN wirklich mehr als 1 Gbit/s in alle Richtungen? So eine hohe Bandbreite dürfte wenn überhaupt nur in Richtung internes Netzwerk benötigt werden, in Richtung Internet wird eher die Internetverbindung oder die Netto-Übertragungsrate des WLANs limitieren als der Uplink zwischen den Switches, oder? Insofern dürfte es keinen Flaschenhals darstellen, wenn Du den Zyxel-Switch hinter den Netgear-Switch hängst.
Auf jeden Fall nicht Plug & Play das ganze.
Nö, das hat ja auch niemand behauptet und alle anderen Bare-Metal-Hypervisoren sind genauso wenig Plug&Play in dieser Hinsicht.
 
Mal ganz doof gefragt: brauchst Du aus dem WLAN wirklich mehr als 1 Gbit/s in alle Richtungen? So eine hohe Bandbreite dürfte wenn überhaupt nur in Richtung internes Netzwerk benötigt werden, in Richtung Internet wird eher die Internetverbindung oder die Netto-Übertragungsrate des WLANs limitieren als der Uplink zwischen den Switches, oder? Insofern dürfte es keinen Flaschenhals darstellen, wenn Du den Zyxel-Switch hinter den Netgear-Switch hängst.
Genau das war jetzt auch meine Überlegung. Notfalls mit Link Aggregation hinter den Netgear-Switch gehen, dann kommen ja auch bereits ~2Gbit durch (die wahrscheinlich nie erreicht werden).
LAN->Homeserver sollte aber schon über 1Gbit liegen, da dort eben wirklich alles drauf läuft (NAS, Plex-Server, Nextcloud &&&).

Nö, das hat ja auch niemand behauptet und alle anderen Bare-Metal-Hypervisoren sind genauso wenig Plug&Play in dieser Hinsicht.
Hat auch keiner. :-)
Wäre auch zu schön gewesen, wenn man an das ESXI LAN-Interface einen Uplink an einen Switch und den zweiten Uplink an einen weiteren Switch hätte hängen können.
Aber dann werde ich dort ESXI außenvorlassen und das alles über die Switche lösen und dort mal schauen, wie man das alles in die Wege leitet.
 
Üblicher Weise bindet man genau so Server und auch Cluster an ein Netzwerk an.
Man braucht dazu nur die richtigen Switche. ;)
vSwitch oder physische Switch?

Zyxel ist der GS1900-10HP und Netgear der GC752X.
Beide managed...

Mach doch nicht so ein Rätsel draus, werfe wenigstens mal ein paar Stichworte in den Raum, wie es denn "richtig" ginge und dann auch so funktionieren würde, dann google ich weiter. ;)
Mehr vSwitch in ESXI einsetzen, da du dich oben auf die 248 vSwitche bezogen hast (was ich gerade erst gesehen habe)?
Oder mit (mehr) VLAN's arbeiten, wie gea angemerkt hatte?
 
Zuletzt bearbeitet:
Ich würde das so machen

An beiden physikalischen Switchen portbasierte vlans konfigurieren. Damit kann man an einem Switch mehrere getrennte Netze betreiben, z.B.

Port1=vlan1 (Switch Management)
Port 2-3=tagged (alle vlans)
Port 4-6=vlan 2 (LAN)
Port 7-8=vlan 3 (WAN/Internet)

mehr Ports oder vlans (Wlan, DMZ, Verwaltung, Gäste) nach Bedarf

Wenn man die beiden Switche über Port 2 verbindet, hat man an beiden Switches alle Netze. Port 3 geht dann an ESXi mit allen Netzen. Damit kann man dann eine virtuelle Netzwerkkarte einer VM auf ein beliebiges Netz (vlan) schalten. Man könnte auch eine 2 Port Netzwerkkarte von ESXi an beide Switche im Failovermodus betreiben. Fällt ein Switch aus, hat ESXi immer noch Netz. Man könnte auch beide Nics auf einen Switch geben (Aggregation, doppelte Bandbreite)
 
Zuletzt bearbeitet:
@Gen8 Runner häng doch einfach den einen Switch in den anderen, davon dann von EINEM Switch in ESXi (an EINEN vSwitch mit EINEM phys Uplink) und fertig ist die Laube?

Wenn Dir das zu simpel ist und Du es komplizierter möchtest, kannst du dann noch Failover mit zwei Uplinks im VSwitch basteln und Uplink 1 in Switch 1 und Uplink 2 in Switch 2 stecken. Dann kann Dir ein Switch ausfallen bzw. eins der Kabel zum ESXI rausfallen o.ä. Musst aber aufpassen, dass die dann auch wirklich nur alternativ aktiv sind - sonst pfui und Chaos. :d

Alternativ entweder Vlans oder unterschiedliche Adressbereiche mit Router-/Firewall-VM dazwischen. So hab ich das zum Beispiel: 3 physikalische switche, 3 virtuelle Switche im ESXI mit je einem phys. Uplink, 3 IP-Subnetze und die SophosUTM managed, wer von wo wohin darf. Im wichtigen Netz mit den „vertrauenswürdigen“ Clients ist alles an ein und dem gleichen Phys. Switch - das hat den Vorteil, dass da auch alles weiter funktioniert sollte sich der ESXi oder die Firewall-VM mal verschlucken (bisher nicht vorgekommen). Alles andere hängt hinter der Sophos - ESXI/Firewall down —> duster. :d

Ich hab aber dafür auch 2 WLANs aufgespannt: die Eltern sind in einem, Schutzwürdigere Dritte und Gäste in einem anderen. ;)
 
Zuletzt bearbeitet:
Man kann scheinbar echt aus allem eine Wissenschaft machen.

mal ohne VLANs
Willst du zwei getrennte Netze haben?
-> 2 vSwitche, 2 vNICs, 2x NICs, 2x Switche
Willst du ein Netz haben?
-> 1 vSwitche, 1x vNIC, 1x NICs, 2x Switche
Willst du ein Netz und kompliziert haben?
-> 2 vSwitche, 2x vNICS@Bond, 2x NICs, 2x Switche
Willst du ein Netz und Failover haben?
-> 1 vSwitche, 1x vNIC, 2x NICs @Failover, 1x Switch oder 2x Switch
Willst du ein Netz und semi Redundanz haben?
-> 1 vSwitche, 1x vNIC, 2x NICs @LACP, 1x Switch
Willst du ein Netz und echte Redundanz haben?
-> 1 vSwitche, 1x vNIC, 2x NICs @LACP, 2x Switch (z.B. Aruba 8320 oder einen der anderen Alternativen)

vLANs ermöglichen dir nur, die Kombination aus zwei getrennten Netzen und den Mehrfeatures einer Einnetzkonfig.

Warum versteifst du dich so sehr auf das eine vSwitch?
Es hat schon einen Grund, warum man auf dem ESX soviele vSwitche machen kann. Und nein, nicht damit es möglichst kompliziert wird.
 
Zuletzt bearbeitet:
Servus zusammen,

da mal wieder Patch Day war, hab ich begonnen mit folgenden befehlen meinem VSphere (ESXI) 7 die aktuellen Patches anzuwenden:

Code:
esxcli network firewall ruleset set -e true -r httpClient
esxcli software profile update -p ESXi-7.0U1b-17168206-standard \
-d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml
esxcli network firewall ruleset set -e false -r httpClient

Leider erhalte ich folgende Ausgabe:
1605886134209.png


Jemand ne idee wie man über die Meldung "cannot be live installed" hinweg kommt also das Update komplett angewendet bekommt?
Hat evtl. auch schon jemand entsprechenden Meldungen beim aktuellen Update erhalten? Sonst hatten wenn dann nur die Tools geklemmt, die jetzigen Meldungen sind neu.
Das Update habe ich ohne aktive VMs gestartet.

Folgend ein Logfile auszug:

Code:
2020-11-20T15:15:56Z esxupdate: 2100235: LiveImageInstaller: DEBUG: The transaction is not supported for live install: ['VIB VMware_bootbank_cpu-microcode_7.0.1-0.15.17168206 cannot be live installed.', 'VIB VMware_bootbank_esx-base_7.0.1-0.15.17168206 cannot be live installed.', 'VIB VMware_bootbank_gc_7.0.1-0.15.17168206 cannot be live installed.', 'VIB VMware_bootbank_esx-update_7.0.1-0.15.17168206 cannot be live installed.', 'VIB VMware_bootbank_vsan_7.0.1-0.15.17168206 cannot be live installed.', 'VIB VMware_bootbank_native-misc-drivers_7.0.1-0.15.17168206 cannot be live installed.', 'VIB VMware_bootbank_gc_7.0.1-0.10.17119627 cannot be removed live.', 'VIB VMware_bootbank_cpu-microcode_7.0.1-0.10.17119627 cannot be removed live.', 'VIB VMware_bootbank_vsan_7.0.1-0.10.17119627 cannot be removed live.', 'VIB VMware_bootbank_esx-update_7.0.1-0.10.17119627 cannot be removed live.', 'VIB VMware_bootbank_esx-base
2020-11-20T15:15:56Z esxupdate: _7.0.1-0.10.17119627 cannot be removed live.', 'VIB VMware_bootbank_native-misc-drivers_7.0.1-0.10.17119627 cannot be removed live.', 'VIB VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.1-0.10.17119627 cannot be removed live.']
2020-11-20T15:15:56Z esxupdate: 2100235: HostImage: INFO: LiveImageInstaller is not supported, skipping.
2020-11-20T15:15:56Z esxupdate: 2100235: vmware.runcommand: INFO: runcommand called with: args = '['/usr/lib/vmware/vob/bin/addvob', 'vob.user.esximage.install.stage.error', '(Updated) ESXi-7.0U1b-17168206-standard', 'The transaction is not supported: VIB VMware_bootbank_cpu-microcode_7.0.1-0.15.17168206 cannot be live installed. VIB VMware_bootbank_esx-base_7.0.1-0.15.17168206 cannot be live installed. VIB VMware_bootbank_gc_7.0.1-0.15.17168206 cannot be live installed. VIB VMware_bootbank_esx-update_7.0.1-0.15.17168206 cannot be live installed. VIB VMware_bootbank_vsan_7.0.1-0.15.17168206 cannot be live installed. VIB VMware_bootbank_native-misc-drivers_7.0.1-0.15.17168206 cannot be live installed. VIB VMware_bootbank_gc_7.0.1-0.10.17119627 cannot be removed live. VIB VMware_bootbank_cpu-microcode_7.0.1-0.10.17119627 cannot be removed live. VIB VMware_bootbank_vsan_7.0.1-0.10.17119627 cannot be removed live. VI
2020-11-20T15:15:56Z esxupdate: B VMware_bootbank_esx-update_7.0.1-0.10.17119627 cannot be removed live. VIB VMware_bootbank_esx-base_7.0.1-0.10.17119627 cannot be removed live. VIB VMware_bootbank_native-misc-drivers_7.0.1-0.10.17119627 cannot be removed live. VIB VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.1-0.10.17119627 cannot be removed live.']', outfile = 'None', returnoutput = 'True', timeout = '0.0'.
2020-11-20T15:15:56Z esxupdate: 2100235: vmware.runcommand: INFO: runcommand called with: args = 'localcli system visorfs ramdisk list | grep /esx-update-2100235 && localcli system visorfs ramdisk remove -t /tmp/esx-update-2100235', outfile = 'None', returnoutput = 'True', timeout = '0.0'.
2020-11-20T15:15:57Z esxupdate: 2100235: Ramdisk: INFO: Unmounting manual tardisk /tardisks.noauto/esxupdt-2100235
2020-11-20T15:15:57Z esxupdate: 2100235: Ramdisk: INFO: Unmounting manual tardisk /tardisks.noauto/tpmesxup-2100235
2020-11-20T15:15:57Z esxupdate: 2100235: Ramdisk: INFO: Unmounting manual tardisk /tardisks.noauto/weaselin-2100235
2020-11-20T15:15:57Z esxupdate: 2100235: Ramdisk: INFO: Unmounting manual tardisk /tardisks.noauto/loadesx-2100235
2020-11-20T15:15:57Z esxupdate: 2100235: root: ERROR: Traceback (most recent call last):
2020-11-20T15:15:57Z esxupdate: 2100235: root: ERROR:   File "/usr/lib/vmware/esxcli-software", line 789, in <module>
2020-11-20T15:15:57Z esxupdate: 2100235: root: ERROR:     main()
2020-11-20T15:15:57Z esxupdate: 2100235: root: ERROR:   File "/usr/lib/vmware/esxcli-software", line 780, in main
2020-11-20T15:15:57Z esxupdate: 2100235: root: ERROR:     ret = CMDTABLE[command](options)
2020-11-20T15:15:57Z esxupdate: 2100235: root: ERROR:   File "/usr/lib/vmware/esxcli-software", line 259, in ProfileUpdateCmd
2020-11-20T15:15:57Z esxupdate: 2100235: root: ERROR:     nohwwarning=opts.nohwwarning)
2020-11-20T15:15:57Z esxupdate: 2100235: root: ERROR:   File "/build/mts/release/bora-17119627/bora/build/esx/release/vmvisor/esxupdate/lib64/python3.5/site-packages/vmware/esximage/Transaction.py", line 357, in UpdateProfileFromDepot
2020-11-20T15:15:57Z esxupdate: 2100235: root: ERROR:   File "/build/mts/release/bora-17168206/bora/build/esx/release/vmvisor/esxupdate/lib64/python3.5/site-packages/vmware/esximage/Transaction.py", line 1583, in InstallVibsFromProfile
2020-11-20T15:15:57Z esxupdate: 2100235: root: ERROR:   File "/build/mts/release/bora-17168206/bora/build/esx/release/vmvisor/esxupdate/lib64/python3.5/site-packages/vmware/esximage/Transaction.py", line 1048, in _installVibs
2020-11-20T15:15:57Z esxupdate: 2100235: root: ERROR:   File "/build/mts/release/bora-17168206/bora/build/esx/release/vmvisor/esxupdate/lib64/python3.5/site-packages/vmware/esximage/Transaction.py", line 1204, in _validateAndInstallProfile
2020-11-20T15:15:57Z esxupdate: 2100235: root: ERROR:   File "/build/mts/release/bora-17168206/bora/build/esx/release/vmvisor/esxupdate/lib64/python3.5/site-packages/vmware/esximage/HostImage.py", line 956, in Stage
2020-11-20T15:15:57Z esxupdate: 2100235: root: ERROR: esximage.Errors.StatelessError: The transaction is not supported: VIB VMware_bootbank_cpu-microcode_7.0.1-0.15.17168206 cannot be live installed. VIB VMware_bootbank_esx-base_7.0.1-0.15.17168206 cannot be live installed. VIB VMware_bootbank_gc_7.0.1-0.15.17168206 cannot be live installed. VIB VMware_bootbank_esx-update_7.0.1-0.15.17168206 cannot be live installed. VIB VMware_bootbank_vsan_7.0.1-0.15.17168206 cannot be live installed. VIB VMware_bootbank_native-misc-drivers_7.0.1-0.15.17168206 cannot be live installed. VIB VMware_bootbank_gc_7.0.1-0.10.17119627 cannot be removed live. VIB VMware_bootbank_cpu-microcode_7.0.1-0.10.17119627 cannot be removed live. VIB VMware_bootbank_vsan_7.0.1-0.10.17119627 cannot be removed live. VIB VMware_bootbank_esx-update_7.0.1-0.10.17119627 cannot be removed live. VIB VMware_bootbank_esx-base_7.0.1-0.10.17119627 cannot be
2020-11-20T15:15:57Z esxupdate: removed live. VIB VMware_bootbank_native-misc-drivers_7.0.1-0.10.17119627 cannot be removed live. VIB VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.1-0.10.17119627 cannot be removed live.

Grüße

Elektromat
 
@Elektromat

Teste mal: ESXi Host in den Wartungsmodus, rebooten, dann Update ausführen, rebooten und erst jetzt den Wartungsmodus beenden.

Bei den 6.x Versionen hatte ich diese Reihenfolge mal angefangen weil der ein oder andere ESXi nach langer Uptime das Update per Update Manager nicht wollte beim 1. Versuch. Ich habe dann einfach zuerst die Hardware Fixes installiert und erst dann die VMware Patches - da war der Reboot in der Reihenfolge dann schon mit drin.
 
Mal ne Frage an euch vmware Spezis. Wie mache ich denn die Verbindung zu einer Storage VM "richtig"? Ich dachte, ich mache einen neuen vswitch und eine Portgruppe und so mit MTU9000. Die weise ich der zweiten Netzwerkkarte der Napp-It VM zu. Wie weiß denn jetzt der ESXi das er die IP ansprechen kann? Mein erster Gedanke war, eine VMKernel Netzwerkkarte mit der entsprechenden IP erstellen. Dann kann man die Portgruppe aber der VM nicht mehr zuweisen...
Vmkernel interface ohne Dienst im passenden Subnet anlegen.
Das Vmkernel interface bzw. Die dazugehörige portgruppe den Anhängsel nfs, iscs (bei iscsi den software initiator am esxi installieren und an das Vmkernel interface binden) dazugeben damit man das später wiedererkennt.

Dann im storage die IP von dem Vmkernel als host eintragen. Fertig :)

Ob du ne 9000er mtu am switch brauchst bleibt dir überlassen. Kannst du on the fly ändern.




By the way. Pci passtrough von usb unter 7.x :)

Windows 10 nicht unter uefi sondern unter BIOS installieren (advanced options der vm) . Dann bootet die vm mit angeschlossenen USB Geräten, so wie es unter 6.7 ging :)
 
@Elektromat

Teste mal: ESXi Host in den Wartungsmodus, rebooten, dann Update ausführen, rebooten und erst jetzt den Wartungsmodus beenden.

Bei den 6.x Versionen hatte ich diese Reihenfolge mal angefangen weil der ein oder andere ESXi nach langer Uptime das Update per Update Manager nicht wollte beim 1. Versuch. Ich habe dann einfach zuerst die Hardware Fixes installiert und erst dann die VMware Patches - da war der Reboot in der Reihenfolge dann schon mit drin.
Im Wartungsmodus mit Reboot etc. wie beschrieben hab ich es getestet, die Meldungen bleiben bestehend keine Änderung. Die Patches werden nicht eingegliedert.
Selbige Meldungen erscheinen auch wenn ich das Depot von einem Store aus anwende "VMware-ESXi-7.0U1b-17168206-depot.zip" (war irgendiwe zu erwarten) es liegt also nicht am downloaden des Depots.

Über mein vCenter auf diesem VSphere sind die Updates ebenfalls nicht erfolgreich :rolleyes2: .
Bin ein wenig ratlos woran es klemmt. Alle Patches zuvor waren rellativ problemlos, auch wenn manchmal etwas zickig, bisher anwendbar.
 
Vmkernel interface ohne Dienst im passenden Subnet anlegen.
Das Vmkernel interface bzw. Die dazugehörige portgruppe den Anhängsel nfs, iscs (bei iscsi den software initiator am esxi installieren und an das Vmkernel interface binden) dazugeben damit man das später wiedererkennt.

Dann im storage die IP von dem Vmkernel als host eintragen. Fertig :)

Ob du ne 9000er mtu am switch brauchst bleibt dir überlassen. Kannst du on the fly ändern.

Öhhh, hä? :oops:o_O
Muss ich mir morgen mal ganz im Ruhe anschauen. :LOL:
Danke dir auf jeden Fall.
 
Code:
[root@ESXIFujitsu:~] esxcli software sources profile list -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml | grep ESXi-6.7.0-202011040
01
ESXi-6.7.0-20201104001-no-tools   VMware, Inc.  PartnerSupported  2020-11-11T12:40:20  2020-11-11T12:40:20
ESXi-6.7.0-20201104001-standard   VMware, Inc.  PartnerSupported  2020-11-11T12:40:19  2020-11-11T12:40:19
[root@ESXIFujitsu:~] esxcli software profile update -p ESXi-6.7.0-20201104001-no-tools -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xm
l
 [OSError]
 [Errno 28] No space left on device
 Please refer to the log file for more details.
[root@ESXIFujitsu:~] esxcli software profile update -p ESXi-6.7.0-20201104001-no-tools -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xm
l
 [OSError]
 [Errno 28] No space left on device
 Please refer to the log file for more details.
[root@ESXIFujitsu:~] df -h
Filesystem   Size   Used Available Use% Mounted on
VMFS-6     551.2G   1.7G    549.6G   0% /vmfs/volumes/datastore1
VMFS-6     558.8G 207.0G    351.8G  37% /vmfs/volumes/VMStorage
vfat       285.8M 197.5M     88.4M  69% /vmfs/volumes/5f5bd704-38b37759-51c7-901b0e1e2b13
vfat       249.7M 148.9M    100.9M  60% /vmfs/volumes/ba95de79-9230cf2d-aaae-e50668a8219b
vfat       249.7M 148.9M    100.9M  60% /vmfs/volumes/f3900b7d-5907a6f5-fd72-f7ef9af1a02e
vfat         4.0G  23.6M      4.0G   1% /vmfs/volumes/5f5bd710-1c75b029-cbe7-901b0e1e2b13
[root@ESXIFujitsu:~]

Plan war eigentlich: ESXI wie üblich patchen, mit folgendem Befehl.
Code:
esxcli network firewall ruleset set -e true -r httpClient
esxcli software profile update -p ESXi-6.7.0-20201104001-standard \
-d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml
esxcli network firewall ruleset set -e false -r httpClient

Nachdem das wegen zig Dependency-Errors fehl schlug, wollte ich erstmal ein profile update mit obigstem Befehl durchführen...Ständig kommt aber Error 28, egal ob mit oder ohne VM Tools.
Auslagerung bringt auch keine Lösung (Verwalten -> Auslagerung). Habt ihr noch Ideen? Ich bin mittlerweile ratlos.
 
Kurz zur Info. Hab meinen VSphere 7 clean neu installiert. Die Updates laufen wieder Problemlos.
Die Meldung "cannot be live installed" ist seit dem nicht mehr aufgetreten.
Es bleibt somit spannend wie sich die folgenden Updates verhalten.
Beitrag automatisch zusammengeführt:

Nachdem das wegen zig Dependency-Errors fehl schlug, wollte ich erstmal ein profile update mit obigstem Befehl durchführen...Ständig kommt aber Error 28, egal ob mit oder ohne VM Tools.
Auslagerung bringt auch keine Lösung (Verwalten -> Auslagerung). Habt ihr noch Ideen? Ich bin mittlerweile ratlos.

Den Fehler [Errno 28] No space left on device hatte ich unter 6.7 auch regelmäßig. Hab es als sehr nervig in Erinnerung.
Mal in die Logs geschaut, ob hier infos hervorgehen?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh