ESX / ESXi - Hilfethread

Da ich mich ja gefreut habe, dass man in einem AMD X570-System die einzige GPU im System nach dem Booten von ESXi an eine Gast-VM durchreichen kann:

Ist es bei einem Intel Kaby Lake-Xeon/C236-System möglich, die iGPU und onboard Soundkarte auch nach dem Booten durchzureichen?
Moment, redest du von der internen Vega GPU der Ryzen CPU?
Welche CPU hast du da verwendet und welches X570er Board?

Hatte mit den internen GPUs immer das Problem mit Code 43, oder Bluescreens nach/während der Treiberinstallation, was mich aufgrund der Architektur nicht ganz überrascht. Dedicated GPUs durchschleifen sind absolut kein Problem (bis 6.7 U3 :P - ab 7.0 kann es sein das nach dem Reboot vom Host der PCI Passtrough Eintrag neu erstellt werden muss).
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Schließe mich der Frage an :) iGPU (Vega) durchreichen wäre cool
 
Beim X570-System (ASUS Pro WS X570-ACE) habe ich eine dGPU WX4100 mit einem iGPU-losen 3900 PRO getestet (und ESXi 7.0).

Als ich noch ein Kaby Lake-Bastel-VM-System laufen hatte, habe ich das leider nie getestet, da ich irrtümlich die Annahme hatte, das würde grundsätzlich nicht gehen wenn im System nur eine einzige Grafikkarte ist.
 
Hallo,
ich habe im Moment das Problem das ESXi (egal welche Version) beim Setup mit der Meldung "No network card found" abbricht.
Es ist eine Intel 219-LM verbaut, die laut KB unterstützt wird.
Nur leider hat sie eine komplett andere DID (8086:0d4c) als alles was bei KB gelistet ist.

Es schien ja schon früher Probleme mit 219 NICs zu geben, deswegen habe ich ESXi 6.0/6.5/6.7 und 7 ausprobiert, aber immer mit dem gleichen Ergebnis.
Auch neu gebaute ISOs mit V-Front e1000e Treiber haben nicht funktioniert.
Kann man irgendwie die Treiber VIBs editieren oder gibt es sonst noch Möglichkeiten?
 
Ja, mit dem Powershell-Script habe ich die ISOs gebaut.
Auch die NUC Treiber haben nicht geholfen.
Es liegt wohl an der Device ID, so dass sich kein Treiber dafür zuständig fühlt.
 
Bei mir hängt sich eine ESXi VM immer komplett auf, in der Web-GUI funktioniert nicht mal mehr Reset bzw. Shutdown.
In der ESXi hilfte steht:
esxcli vm process list
gibt:
Backup
World ID: 529883

esxcli vm process kill -t=force -w=529883
bei diesem Command gibt es keinen Output. Leider läuft die VM immer noch weiter und ich kann sie nicht stoppen. Weiß da jemand weiter. ESXi host "abwürgen" mag ich nicht machen..

Im Verdacht hab ich eine HDD, die wohl ausgefallen ist, kann das sein?
 
Bei mir hängt sich eine ESXi VM immer komplett auf, in der Web-GUI funktioniert nicht mal mehr Reset bzw. Shutdown.
In der ESXi hilfte steht:
esxcli vm process list
gibt:
Backup
World ID: 529883

esxcli vm process kill -t=force -w=529883
bei diesem Command gibt es keinen Output. Leider läuft die VM immer noch weiter und ich kann sie nicht stoppen. Weiß da jemand weiter. ESXi host "abwürgen" mag ich nicht machen..

Im Verdacht hab ich eine HDD, die wohl ausgefallen ist, kann das sein?
Drück den Ausschaltknopf am ESXi, der fährt dann VMs runter und danach sich selbst.

Danach dann mal die vmware.log und die Logs von der VM überprüfen. Wenn deine VM nur auf der potentiellen HDD liegt oder eine VMDK darauf hatte und die HDD wegen einem defekt richtig miese Latenzen hat, wirkt sich das auch auf das OS der VM aus.

Ansonsten mit kill die VM stoppen:
 
Und ja. Treibermodell mit 7.0 wurde umgestellt, VMKLinux Treiber werden nicht mehr unterstützt. Deshalb funzt der Realtek Treiber auch nicht mehr. Müsst beim Hersteller schauen ob es Treiber für 7.0 gibt.


Seit dem Upgrade von ESXi 6.7U3 auf 7.0 wird meine Dual-Port Netzwerkkarte "LogiLink PC0075, 2x 1000Base-T, PCIe x1" (basierend auf Realtek Chip 8168) nicht mehr erkannt.
Unter Patchlevel 6.7U3 lief alles reibungslos, (Hatte diese Treiber im erfolgreich integriert. https://vibsdepot.v-front.de/wiki/index.php/Net55-r8168)

Zumindest wird die PCI DualNic auf auf der esxi-cli erkannt (lspci -v I grep -A1 -i ethernet), leider keine Zuordnungen als "vmnic1 und vimnic2".
Ebenso ein "Passtrough" schlägt in der vSphere Webui fehl, der Status bleibt immer auf ""Aktiviert/Erfordert Neustart" hängen (Trotz ESX Host reboot)

Hat hier jemand seine Netzwerkkarte (Realtek) unter ESXi 7.0 zum laufen bekommen? Oder einen Treiber Link/Tipp?
 
Esxi setzt man doch idr dann ein, wenn man keinen Stress und frickeleien moechte. Daher mein Tipp: Realtek rauswerfen und fuer n schmalen Taler ne Dual Intel organisieren. Fertig ist die Laube.
 
Selbst Frickeln wäre nicht das Problem. Ich sehe allerdings aufgrund des Wegfall der VMKlinux Driver keine zeitnahe Option hierfür oder habe noch nicht die richtigen Hinweise gefunden.
Auf der anderen Seite konnte ich für mich jetzt noch nicht so den Quantensprung von ESX 7.0 entdecken, spiele mit dem Gedanken wieder auf 6.7U3 zu gehen.

Eine nachhaltige Option wäre in der Tat eine neue Karte zu kaufen, diese müsste mit meinem Dell T30 kompatibel sein, konnte in den Sammelthreads noch keine Dual-Nic Alternative zur LogiLink finden.
 
Eine nachhaltige Option wäre in der Tat eine neue Karte zu kaufen, diese müsste mit meinem Dell T30 kompatibel sein, konnte in den Sammelthreads noch keine Dual-Nic Alternative zur LogiLink finden.

Wieso? So ein Exot? Da müsste doch eine Standard pcie Karte funktionieren. Intel pro 1000PT, gibt's ab ~17€ und die läuft einfach in ESXI.
 
Ja stimmt schon, die "Low Profile PCIe" haben mich etwas verwirrt. Ich habe nun eine Intel in der Bucht gekauft.
 
"Low Profile" bedeutet nur, dass das PCB (und ggf. das Slotblech) halbhoch ist. Es gibt aber auch "Low Profile"-Karten mit Slotblechen voller Höhe wie eben die Pro/1000 PT Dual-Karte. Bei Neuware sind bei der Karte sowohl eine Low Profile- (z.B. für aufrecht stehende Karten in 2HE-Servern) als auch eine full height-Blende (für normale Gehäuse oder über Riserkarten flachgelegte Slots in 1- oder 2HE-Servern) dabei.
 
Ich habe mal weiterprobiert (eher zufällig, weil die CX3 kurzzeitig ausgefallen ist): Sobald die CX3 am vSwitch als Uplink hängt, habe ich Probleme mit CARP. Wenn ich nur einen oder zwei der Intel 1GBE-Ports als Uplinks habe, funktioniert es problemlos.
Hat jemand eine Idee, woran das liegen könnte, und wie ich der CX3 beibringe, da nicht zwischenzufunken?
Hatte das Problem auch schon früher, hier hat es geholfen an dem vSwitch den Promiscious Mode zu aktivieren, sonst gibt es immer ein Split Brain im CARP.
 
Der Promiscous Mode am vSwitch alleine hat bei mir leider nicht geholfen, sobald ein Link an der CX3 stand, war Ende mit CARP.
Ich vermute, dass der Switch (TPLink 1700G-28TQ) mit Multicast auf den 10G-Ports was anderes anstellt, als auf den 1G-Ports, da die auch als Uplink/Stacking-Ports gedacht sind.
Leider habe ich noch nicht herausgefunden, was ich umstellen muss, damit sich das normalisiert.
 
Selbst Frickeln wäre nicht das Problem. Ich sehe allerdings aufgrund des Wegfall der VMKlinux Driver keine zeitnahe Option hierfür oder habe noch nicht die richtigen Hinweise gefunden.
Auf der anderen Seite konnte ich für mich jetzt noch nicht so den Quantensprung von ESX 7.0 entdecken, spiele mit dem Gedanken wieder auf 6.7U3 zu gehen.

Eine nachhaltige Option wäre in der Tat eine neue Karte zu kaufen, diese müsste mit meinem Dell T30 kompatibel sein, konnte in den Sammelthreads noch keine Dual-Nic Alternative zur LogiLink finden.
Ich habe es mal in der Beta-Version ausprobiert aber konnte die REalteks auch nicht mehr einbinden. Habe deshalb - wo es geht - auf Boards mit Intel Chipsatz gewechselt bzw. die Boards mit Realtek-Nics werden wohl auf 6.7 U3 bleiben müssen.
 
Habt Ihr mal versucht, die Karten als PCIßDevice durchzureichen? Ggf. vorher in der passthru.map eintragen. Ich hab vormvier Wochen etwas unfreiwilllig ein Update von 6.5 auf 7.0 gemacht (okay, wäre auch auf 6.7 gegangen), aber bei mir gab‘s keine größeren Probleme dabei. Und der o.g. Weg hat bei mir geklappt, sowohl den Onboard SATA-Controller als auch der USB-Controller in eine VM durchzureichen (den USB-Controller, weil die USB-Performance grottenschlecht war und das Guest-OS - OmniOS - so besser damit zurecht kam).
 
Habt Ihr mal versucht, die Karten als PCIßDevice durchzureichen? Ggf. vorher in der passthru.map eintragen. Ich hab vormvier Wochen etwas unfreiwilllig ein Update von 6.5 auf 7.0 gemacht (okay, wäre auch auf 6.7 gegangen), aber bei mir gab‘s keine größeren Probleme dabei. Und der o.g. Weg hat bei mir geklappt, sowohl den Onboard SATA-Controller als auch der USB-Controller in eine VM durchzureichen (den USB-Controller, weil die USB-Performance grottenschlecht war und das Guest-OS - OmniOS - so besser damit zurecht kam).

7.0 bzw. 7.0.1 und aufwärts:
PCI USB Karte durchreichen geht, aber bevor die VM eingeschaltet wird, müssen alle USB Devices von der USB-Karte abgesteckt werden, sonst bleibt die VM vor dem BIOS Bootscreen hängen.
Alternativ gibts noch folgende Methode:

Aber da hat die VM gehangen und die USB-Geräte haben sich irgendwann abgemeldet und angemeldet. Sound war dann vom Kopfhörer (Logitech G930) nicht mehr da.


Dedizierte GPU durchreichen geht auch, aber bei meinem X570 Aorus Master muss ich nach dem Reboot die GPU erneut im in der Passtrough Liste deaktivieren und aktivieren (was aber keinen Neustart erfordert).

Sata Controller habe ich bisher noch nie probiert.


Und in 7.0 wird die passthru.map nicht mehr benutzt. Dafür gibts im /etc/vmware Verzeichnis jetzt eine ah-trees.conf.
 
Ehm, sicher mit der passthru.map ? Für ein GPU-Passthrough hatte ich die editiert und dann lief es mit dem X399 und 7.0.0. Siehe hier im GPU NVidia-Thread.
 
@Seelbreaker: würde auch mal mit den PCI-Reset Modi in der passthru.map spielen. Damit habe ich auch schon einen zickigen Onboard-USB-Controller (AMD) zur Zusammenarbeit mit einer VM überredet - allerdings unter 6.7U3.

Wenn Version 7 tatsächlich die passthru.map ignoriert müsste sich dazu doch irgendwo was offizielles finden lassen?
 
@Seelbreaker: würde auch mal mit den PCI-Reset Modi in der passthru.map spielen. Damit habe ich auch schon einen zickigen Onboard-USB-Controller (AMD) zur Zusammenarbeit mit einer VM überredet - allerdings unter 6.7U3.

Wenn Version 7 tatsächlich die passthru.map ignoriert müsste sich dazu doch irgendwo was offizielles finden lassen?
Unter 6.7 U3 absolut keine Probleme mit gar nix :-) Da läuft Passtrough perfekt.

Die Synology ist eh das NAS bei mir, die lokalen Platten gehen als Single Datastores oder für vSAN drauf (nvme + SSD für All-Flash).

Ich denke durch die ganzen Umstellungen in 7.0 + die Änderungen in Bezug auf USB und vmKernel haben da etwas durcheinandergebracht.

Das schöne ist aber, dass ich heute nen Beta-SR für die USB PCIe -Passtrough eröffnen durfte :-) Momentan sind die bei vmware auch mit etwas mehr aufmerksamkeit bei den Homelab-Usern mit PC-Hardware unterwegs.

Das man nach nem Reboot die GPU in der GUI für Passtrough aktivieren kann, ist Mainboard-abhängig :-( Eventuell könnte ich ein BIOS Update probieren, aber momentan läuft alles in dem Bezug :P
Beitrag automatisch zusammengeführt:

Ehm, sicher mit der passthru.map ? Für ein GPU-Passthrough hatte ich die editiert und dann lief es mit dem X399 und 7.0.0. Siehe hier im GPU NVidia-Thread.
ah moment..

Cool, vielen Dank! Gleich mal anschauen :-)

Edit:
So, mal ausprobiert.
Dasselbe aus deiner passthru.map mit der Vendir ID und Subvendor ID von meiner RX580 eingetragen und die GPU ist wieder verschwunden.
Bei meinem anderen ESXi unter 7.0 mit nem AsRock Pro4 mATX bleiben die AMD GPUs nach nem Reboot drin. Da gibts nur das USB PCie Passtrough Problem, wie bei dem ESXi mit dem Gigabyte Aorus Master.
 
Zuletzt bearbeitet:
Moin,
wo finde ich die erweiterten Logs für (nvme) Datenspeicher in ESXI?

Ich habe gerade mehrfach versucht alle VM's von einer SSD auf die andere zu verschieben, wobei der ganze Vorgang immer wieder abgebrochen ist und der ganze Datenspeicher (die gesamte SSD) erst nach einem Neustart wieder verfügbar war.
Dass sie drosselt, wenn zu viel auf einen Schlag kopiert wird und die Leistung einbricht, ist klar. Aber dass es sofort zum Blackout kommt...:rolleyes2:

Edit: Und gerade Absturz Nr. 5 - nach 100GB Backup-kopieren mittels VEEAM von FreeNAS auf die Sandisk NVME SSD Blackout, alle VM's abgeschaltet und SSD nicht verfügbar.

Unglaublich. Habe mit VEEAM das Backup zurückspielen können, aber nur mit reduzierter Geschwindigkeit. Bei unlimitiert hat die Sandisk sofort abgeschmissen, was definitiv nicht passieren dürfte. Also ab jetzt doppelt und dreifach Backups fahren.
 
Zuletzt bearbeitet:
Sandisk ist nicht unbedingt für Stabilität bekannt. Hoffentlich hast du nur ein Montagsgerät erwischt. Meine SATA-SSD vom selben Hersteller war jedenfalls auch nach einem knappen halben Jahr komplett ausgefallen. Das Hauptproblem in meinen Augen sind die Temperaturen im Gehäuse und bei NVMe direkt auf dem MB sogar noch mehr. Im normalen Office/Desktopbetrieb kommen nur selten Kopieraktionen vor, auf dem ESXi dagegen ist das der Dauerzustand. Da der ESXi meines Wissens nach auch keinen Energiesparzustand kennt, wird die SSD dauerhaft mit der Leerlaufleistung versorgt. Das sind zwar nur vielleicht 2W, aber ohne ausreichende Kühlung heizen sich SSDs trotzdem stark auf.
 
Zuletzt bearbeitet:
Sandisk ist nicht unbedingt für Stabilität bekannt. Hoffentlich hast du nur ein Montagsgerät erwischt. Meine SATA-SSD vom selben Hersteller war jedenfalls auch nach einem knappen halben Jahr komplett ausgefallen. Das Hauptproblem in meinen Augen sind die Temperaturen im Gehäuse und bei NVMe direkt auf dem MB sogar noch mehr. Im normalen Office/Desktopbetrieb kommen nur selten Kopieraktionen vor, auf dem ESXi dagegen ist das der Dauerzustand. Da der ESXi meines Wissens nach auch keinen Energiesparzustand kennt, wird die SSD dauerhaft mit der Leerlaufleistung versorgt. Das sind zwar nur vielleicht 2W, aber ohne ausreichende Kühlung heizen sich SSDs trotzdem stark auf.
Danke für deinen Einwurf.
Also eher nach einer NVME für den Professional-Bereich umsehen? (Bezahlbare) Empfehlungen, Intel fällt mir nur grundsätzlich ein, wobei die 660er bspw. ja auch ziemlich Consumer-mäßig aussieht...
 
Hi

Kurze Frage: konnte schon jemand bei einem SP3 Mainboard, z.B. dieses hier, erfolgreich einen SATA Controller an einen Filer durchreichen? Kann wer für ESXi 7.0 ein anderes Mainboard empfehlen? Wenn ja, warum? Wie gesagt, wir sind vorläufig mal beim ASRock ROMED8-2T, das hat halt 10Gbit/s auf Kupfer, und würde auch sonst gut passen von der Ausstattung her. Falls jemand Alternativen hat: gerne bringen.
 
Kurze Frage: konnte schon jemand bei einem SP3 Mainboard, z.B. dieses hier, erfolgreich einen SATA Controller an einen Filer durchreichen?
Noch nicht probiert.

Der Dialog zur Aktivierung sieht bei meinem Asus KRPA-U16 mit ESX 6.7 so aus:
2020-08-17 23_30_50-esxhost3.stnet.local – VMware ESXi.png
Passthrough ist aktivierbar. Etwas seltsam aber, dass drei Controller auftauchen bei 16 SATA Anschlüssen.
Kann wer für ESXi 7.0 ein anderes Mainboard empfehlen? Wenn ja, warum?
vSphere ESX-Unterstützung sollte jedes SP3-Board haben.
Wie gesagt, wir sind vorläufig mal beim ASRock ROMED8-2T, das hat halt 10Gbit/s auf Kupfer, und würde auch sonst gut passen von der Ausstattung her.
Schönes neues 2020er Board mit seeehr viel PCIe 4.0. Tendenziell nutzen neure Boarddesigns die Plattform besser aus. Die Anzahl der PCIe 4.0 fähigen Slots ist da schon ein Indikator. Sehr schön auch, dass hinter den PCIe-Slots Platz für lange PCIe-Karten ist und keine Speicherslots im Weg sind. Mit 8 SATA Anschlüssen ist das Board was das betrifft eher am unteren Ende. 16 SATA Ports sind durchaus gängig. Da ATX kriegt man auch "nur" 8 Speicherslots unter. Das dürfte aber kaum stören. Ich würde auf jeden Fall noch auf die Memory QVL schauen, ob der benötigte Speicher auch zu einem guten Preis verfügbar ist.
Falls jemand Alternativen hat: gerne bringen.
So groß ist die Auswahl ja nicht:
ASUS KRPA-U16
Supermicro H11SSL-i R2.0 und Varianten
ASRock Rack ROMED8-2T
Gigabyte MZ32-AR0
Die älteren 2018er Boards würde ich nicht mehr kaufen, da es jeweils einen Nachfolger gibt. Ansonsten würde ich nach Featureset und Preis auswählen.
Ich hab das ASUS KRPA-U16 und hab daran nicht wirklich was zu meckern. Läuft wie ne Eins. Aber nur 2 der Slots mit PCIe 4.0, wobei das für meine Zwecke mehr als ausreichend ist.
 
Hallo zusammen,

seit einem Update von 6.0 bzw 6.5 auf 6.7 haben wir das Phänomen, dass wenn wir den angebundenen Speicher (LUN) vergrößern, die Hosts/Vcenter das nicht realisieren und immer noch eine Warnung ausgeben.

Speicheradapter, Speichergeräte und Host-Cache Konfiguration wurde schon mehrmals neu eingelesen bzw. aktualisiert...ohne Erfolg..

Unter "Speichergeräte" wird allerdings die aktualiserte Kapazität angezeigt...

Hatte das schonmal jemand ?

----------
Edit
Ok,..... es dauert wohl nur ewig, bis das alle Hosts realisieren....war wohl vor dem Update nicht so ein getue..
 
Zuletzt bearbeitet:
Hallo zusammen,

seit einem Update von 6.0 bzw 6.5 auf 6.7 haben wir das Phänomen, dass wenn wir den angebundenen Speicher (LUN) vergrößern, die Hosts/Vcenter das nicht realisieren und immer noch eine Warnung ausgeben.

Speicheradapter, Speichergeräte und Host-Cache Konfiguration wurde schon mehrmals neu eingelesen bzw. aktualisiert...ohne Erfolg..

Unter "Speichergeräte" wird allerdings die aktualiserte Kapazität angezeigt...

Hatte das schonmal jemand ?

----------
Edit
Ok,..... es dauert wohl nur ewig, bis das alle Hosts realisieren....war wohl vor dem Update nicht so ein getue..
Browser-Cache erneuert? Hatte das auch schon, dass nach solchen Upgrades der Browser mit gecached Sachen hochkommt.

Mal in den jeweiligen Datastores unter Aufgaben und Tasks geschaut ob dort die Meldungen noch drin sind?
 
Browser-Cache erneuert? Hatte das auch schon, dass nach solchen Upgrades der Browser mit gecached Sachen hochkommt.
Ja, gerade getestet.Allerdings schlägt ja auch unser Monitoring dauerhaft an...sollte ja vom Browser Cache recht unbeeindruckt sein...

Mal in den jeweiligen Datastores unter Aufgaben und Tasks geschaut ob dort die Meldungen noch drin sind?
Unter "Aufgaben" ist alles erledigt und unter "Ereignisse", sieht man schön den Verlauf "wurde von gelb auf grün" und dann nach 30 min wieder "von grün auf gelb" etc...

Allerdings ist die Warnung schon wieder hochgekommen - im Monitoring geht sie gar nicht weg und in den Hosts nach einer Aktualisierung etc..kommt aber nach einiger Zeit wieder....während unter Speicheradapter nach wie vor die richtige/erweiterte Kapazität angezeigt wird...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh