ESX / ESXi - Hilfethread

Hab es glaube ich gefunden, unter Verwalten-Dienste TSM-SSH -Mit Host starten und beenden....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hallo,
kurze Frage:
Gibt es eine Möglichkeit, das in vcenter ein host, der nicht imme reingeschalte tist, nicht auf rot (not responding) steht, also so eine Art "standby" Einstellung. besagter Host wird nur mehr gelegentlich eingeschaltet, um darauf zu replizieren, sonst habe ich ihn runtergefahren, aber die Fehlermeldungen in vcenter stören.
 
hallo,
kurze Frage:
Gibt es eine Möglichkeit, das in vcenter ein host, der nicht imme reingeschalte tist, nicht auf rot (not responding) steht, also so eine Art "standby" Einstellung. besagter Host wird nur mehr gelegentlich eingeschaltet, um darauf zu replizieren, sonst habe ich ihn runtergefahren, aber die Fehlermeldungen in vcenter stören.



Du kannst Meldungen Ereignisse in den Alarmdefinitionen deaktivieren.
 
hallo,
noch eine Frage.
Ich bin gerade dabei, zwischen 2 esxi hosts (host1 esxi 6.0, host2 esxi 6.7) eine direkte 10gbit verbindung (sfp+ fibre) für vmotion einzurichten und habe Probleme. Dazu kommt, dass ich zwar in beiden Servern HP sfp+Karten aus der jeweiligen optional-parts-List ehabe, aber die Module, weil billig, von 10gtek sind (lt. Beschreibung hp kompatibel, aber die reden da von HP Curve oder wie der Switch heisst, was ja nicht bedeuten muss, dass sie auch für sfp+Pcie-Karten kompatibel sind).
Also:
Ich habe auf beiden Servern einen eigenen vSwitch eingerichtet mit vmKernel-Adapter, beide logischerweise im selben Subnetz und auch noch (obwohl eh überflüssig) vlan getaggt, kein gateway.. Wenn ich als TCP/IP-Stack vmotion wähle, dann geht kein vmkping über putty, der host kann dann nicht mal seine eigene vmkernel-Adapter pingen. Wenn ich als Stack Standard wähle und nur vmotion Hacken setze, dann gehen die pings, sowhl eigene ip als auch ip anderer host.
auf vmk0, also der vmkernel-adapter, wo das management network läuft, habe ich vmotion dekativiert, da ist als aktiver Diesnt nur mehr Management angehackelt.
Ich frage mich jetzt, warum der vmotion Stack nicht funktioniert, ich dachte, der ist genau dafür da. Und gibt es irgendeinen Unterschied, den Standard Stack zu nehmen und da nur vmotion anzuhackeln. Offenab rja, weil es ja mit vmotion Stack nicht geht.
Bin für Hilfe dankbar.

ps:
ich sehe gerade, dass er mir bei beiden hosts slebstständig ein gateway für den kerneladapter einträgt, beim esxi 60. nimmt er 192.168.111.1 (ist ein 192.168.111er Netz), beim esxi 6.7 nimmt er 0.0.0.0. . Bei beiden lässt sich diese Einstellung weder löschen noch verändern? Hä???
 
Zuletzt bearbeitet:
Versuch es mal mit "vmkping"

Mit dem vMotion Stack bist du in der Lage bspw. ne eigene Routingtabelle für vMotion zu nutzen, brauchst du in deinem Fall zwar nicht, aber es ist halt dann wichtig den Source Port beim Ping anzugeben, da sonst einfach der erste Kernelport genommen wird - und über diesen ist der Ziel vMotion Stack nicht erreichbar!


Andererseits wäre halt die Frage, funktioniert vMotion? Weil einmal sauber eingerichtet und der Spaß funktioniert normalerweise auch.
Das mit den GBICs ist natürlich blöd, hier solltest du ggf. prüfen in wie weit die Dinger überhaupt in den Karten funktionieren. Im Zweifel halt offline ohne ESXi Zeugs, wenn du dir nicht sicher bist, dass die Netzwerkstacks funktionieren.


PS: der vMotion Stack ist wohl primär deswegen erfunden wurden, weil man eine separate Routinginstanz für vMotion erschaffen wollte, respektive brauchte, weil mit 6.0 sogenanntes Cross vCenter Migration einzug erhalten hat. Sprich du kannst jetzt live, während der Fahrt unter gewissen Voraussetzungen auch über Sites hinweg vMotion Vorgänge tätigen. Das geht sogar über (schnelle) WAN Verbindungen hinweg.
Wie sinnvoll das ist, muss jeder für sich entscheiden - mMn bringt mir die Livemigration nur bedingt was, wenn am Ziel dann die Guest-NIC Config nicht mehr passt, weil am Ziel am anderen Standort sozusagen das Network wahlweise gar nicht oder vllt ganz anders konfiguriert ist/wurde. Dann kann ich gleich offline migrieren -> was vor 6.0 schon ging. Und auch über Routinggrenzen hinweg (ohne vMotion Stack)
 
habs jetzt rasugefunden. der "normale" vmkping geht nicht, man muss es so machen:
vmkping -I vmk1 -S vmotion x.x.x.x (x ist die ip des vmotion interfaces des anderen hosts)
so antwortet der ping.
muss man auch wissen, hier der link, wo das erklärt wird:
vMotion vmkping pio.nz

mache gerade ein vmotion zum test. Es geht mit der 10gb Vebrindung zwar schneller, aber nicht so schnell wie erwartet. Was mich auch wundert: Als Test habe ich die apc pcns (power chute network shutdown va) genommen. Eingeschaltet zeigt es mir eine Inkompatibilität an. Ist die vm ausgeschaltet geht es. Vcenter lässt sich eingeschaltet auch nicht migrieren (ausgeschaltet habe ich logischerweise nicht getestet, weil das geht ja nicht). Bin, was 10gb und vmotion angeht, noch relativ unbewandert.

update:
habe jetzt ein bisschen gegooglet und glaube zu verstehen, was da bei mir los ist. kann mir einer die folgenden Ausführungen bestätigen, damit ich weiss, dass ich das richtig verstehe:

Situation:
3 hosts: host1 ml310e gen8, host2 ml350 gen6, host3 ml110 gen10.
vcenter va war auf host2 (computerresourcen und lokaler datastore). live migration (vmotion) von host 2 auf host 3 (ressorcen und datastore) funktionierte.
Problem:
vcenter va live migration von host3 auf host2 oder host1 geht nicht.
(mögliche) Ursache:
vcenter läuft auf host3, der die neueste cpu hat. Die vorherige Migration von host2 (ältere cpu) auf host 3 (neuere cpu) geht, umgekehrt aber nicht. auch live migration von host3 auf host1 wäre eine migration von neuerer cpu auf ältere cpu und geht demnach nicht. Soweit ich das rausgelesen habe, tritt das Problem nur auf, wenn die vm (in dem fall vcenter) auf dem neuen host einmal neu gestartet wurde. (Das wäre bei mir der fall). Hätte sie keinen Neustart nach der Migration, dann könnte ich sie auch wieder zurück verschieben. Wenn die Theorie so stimmt, frage ich mich aber, warum ich die pcns va von host1 (ältere cpu) nicht auf host 3 (neuere cpu) live migrien kann, das müsste ja gehen. ich bekomme aber folgende Fehlermeldung:
Die virtuelle Maschine benötigt Hardwarefunktionen, die auf dem Zielhost nicht unterstützt werden oder deaktiviert sind:
"""""""""""""* Allgemeine Inkompatibilitäten
"
Verwenden Sie, falls möglich, einen Cluster mit aktivierter Enhanced vMotion Compatibility (EVC); weitere Informationen hierzu finden Sie im KB-Artikel 1003212.

CPUID-Details: Inkompatibilität auf Ebene 0x1 Register 'ecx'.
Host-Bits: 0110:0010:1101:1000:0011:0010:0000:0011
Erforderlich: x1xx:xx1x:10x1:1xx0:xx1x:xx1x:x0xx:xx11



(mögliche) Lösung:
1. Möglichkeit: VM runterfahren und cold migration machen. Geht nur nicht, wenn man vcenter selbst migrieren will, bzw ich weiss nicht, wie es gehen soll, bei allen anderen vm`s geht es natürlich.
2. Möglichkeit: vcenter va auf einen shared storage verschieben, auf den beide hosts zugreifen können. Dann vcenter runterfahren, aus dem inventory des alten hosts entfernen, dem inventory des neuen hosts zuteilen und starten.
3. Möglichkeit: dieses evc einstellen (keine Ahnung, was da zu tun ist), dass alle hosts das gleiche "cpu"-level haben. Wenn ich das richtig verstehe, würde das aber bedeuten, dass alle hosts mit der "cpu-power" des schwächsten hosts des clusters laufen, also quasi der kleinste gemeinsame Nenner. Auch nicht gerade ideal.

Habe ich das soweit richtig verstanden?
Ich würde ja Option 2 (shared storage) wählen), aber leider habe ich meien TVS-1282, auf der der shared storage per iscsi angebunden laufen sollte, wegen einem Defekt innerhalb der Widerrufsfrist zurück gesendet und warte noch darauf, dass ich mein geld wieder bekomme, um eine neue zu kaufen. Das heisst, ich müsste die vcenter runterfahren, auf den lokalen PC runterladen, und von dirt auf den neuen host wieder rauf. Is tmir zu umständlich, da es ja nur um testen/lernen geht. Da warte ich lieber, bis ich den shared storage wieder einrichten kann.
Würde mich sehr freuen,w nn ihr was zu meinen Ausführungen sagen könntet, ob ich das alles richtig verstehe,
 
Zuletzt bearbeitet:
Du könntest mal einen Test machen und vorher-nacher vergleichen um sicher zu gehen, dass du nicht zu viel erwartest.
 
mist, jetzt habe ich echt ein problem.
Ich habe testweise einen cluster erstellt und einen host mit mehreren vm`s in diesen cluster gezogen. Dann habe ich den host wieder aus dem cluster genommen. Nun haben die vms dieses hosts keine Netzwerverbindung mehr, ich kann nur über die console auf die vm`s. An den Netzwerkeinstellungen des hosts hat sich nichts geändert. eine vm ist der DC mit dhcp und dns. Was ist da los?
Hiiiiiiiiilfe.

update:
scheinbar hat sich die Reihung der physischen Adapter druch die aktion geändert. Habe jetzt 2 andere Adapter dem vSwitch zugeordnet und jetzt gehts wieder. sehr seltsamm das ganze, muss ich mir genauer ansehen...
update:
ja, das wars. ich hatte auf dem vswitch die physischen adapter 4 und 5 zugeordnet. nach der Cluster-Aktion waren natürlich immer noch die adapter 4 und 5 zugeordnet, aber diese waren nicht mehr die gleichen ports der netzwerkkarte. nachdem ich die physischen adapter 6 und 7 zueordnet hatte, war die konnektivität wieder da. Extrem seltsam.

update:
host1 cpu: Intel(R) Xeon(R) CPU E3-1220 V2 @ 3.10GHz --> ivy bridge
host2 cpu: Intel(R) Xeon(R) Silver 4110 CPU @ 2.10GHz --> skylake
wenn ichnun einen evc cluster mit diesen beiden hosts machen will, dann muss ich als evc-level ivy bridge nehmen, oder?
 
Zuletzt bearbeitet:
mist, jetzt habe ich echt ein problem.
Ich habe testweise einen cluster erstellt und einen host mit mehreren vm`s in diesen cluster gezogen. Dann habe ich den host wieder aus dem cluster genommen. Nun haben die vms dieses hosts keine Netzwerverbindung mehr, ich kann nur über die console auf die vm`s. An den Netzwerkeinstellungen des hosts hat sich nichts geändert. eine vm ist der DC mit dhcp und dns. Was ist da los?
Hiiiiiiiiilfe.

update:
scheinbar hat sich die Reihung der physischen Adapter druch die aktion geändert. Habe jetzt 2 andere Adapter dem vSwitch zugeordnet und jetzt gehts wieder. sehr seltsamm das ganze, muss ich mir genauer ansehen...
update:
ja, das wars. ich hatte auf dem vswitch die physischen adapter 4 und 5 zugeordnet. nach der Cluster-Aktion waren natürlich immer noch die adapter 4 und 5 zugeordnet, aber diese waren nicht mehr die gleichen ports der netzwerkkarte. nachdem ich die physischen adapter 6 und 7 zueordnet hatte, war die konnektivität wieder da. Extrem seltsam.

update:
host1 cpu: Intel(R) Xeon(R) CPU E3-1220 V2 @ 3.10GHz --> ivy bridge
host2 cpu: Intel(R) Xeon(R) Silver 4110 CPU @ 2.10GHz --> skylake
wenn ichnun einen evc cluster mit diesen beiden hosts machen will, dann muss ich als evc-level ivy bridge nehmen, oder?

Alle Portgruppen auf allen ESXi-Hosts vom Namen her identisch? Normalerweise warnt vSphere bei einem vMotion-Vorgang davor wenn eine VM auf dem Zielhost keine passende Portgruppe hat.

Das sich aber physiche Adapter durch das entfernen eines Hosts aus dem Adapter am vSwitch ändern höre ich zum ersten mal... Waren das Standard-vSwitches oder distributed Switches?


Zum EVC - klicke dich einfach in der EVC-Auswahl durch bis alles tutti ist. Danach die VMs herunterfahren und hochfahren damit die neuen/emulierten CPUIDs auch in der vmx eingetragen werden. Ein Neustart reicht hierfür nicht aus.

Screenshots zu den Portgruppen und vSwitches wären übrigens extrem hilfreich :-)
 
Zuletzt bearbeitet:
Hallo alle zusammen, ich habe ein seltsames Problem mit einem meiner zwei ESXi Server und bin im Augenblick etwas ratlos.

Kurz zur Konfiguration:
ESXi1: Fujitsu PRIMERGY RX200 S7, 2x Xeon E5 2640, 64GB DDR3 ECC RAM, 4x Samsung PM883 960GB SSD im Raid10 an einem Fujitsu D2607 Raid Controller (+1 Hotspare)
ESXi2: Fujitsu PRIMERGY RX200 S7, 2x Xeon E5 2630, 32GB DDR3 ECC RAM, 4x WD Red 1TB HDD im Raid10 an einem Fujitsu D2616 Raid Controller (+1 Hotspare)
Installiert ist auf beiden ein Fujitsu Customized 6.7 Update 1 ESXi v460-1
Neuer DLINK DGS-1210-52 Switch, beide ESXi sind jeweils mit zwei Gigabit Ports mit LACP angebunden.

Die Beiden Maschinen sind zwar etwas betagt aber für unsere Zwecke völlig ausreichend (20 Mitarbeiter, Canon Uniflow, Fileserver, AD, Printserver, CTI-Server, Backupserver, Zeiterfassung).
Kurz vorweg, der "ESXi2" läuft völlig problemlos, "ESXi1" ärgert mich etwas, die Performance bricht beim Lesen übers Netzwerk ein.
Getestet mit iPerf, LAN Speed Test (Server/Client) und einfachen SMB Kopiervorgängen. Ich schreib einfach ein paar Werte tabellarisch auf, dann kann man wohl schon sehen wo es ein Problem gibt:

Vorweg: HD Tune Speedtests in den VMs auf ESXi1: Transferrate Average ~1GB/s

SMB Test 1 - Upload Client auf vFileserver (Windows10 -> Windows Server 2012, ESXi1): ~115 MB/s konstant
SMB Test 2 - Download von vFileserver auf Client (WinServer2012, ESXi1 -> Windows10): ~80 MB/s (Client mit i5, 8GB DDR4 und 256GB SSD)
SMB Test 3 - Upload zwischen zwei VMs auf ESXi1: Server2008r2 zu Windows Server 2012: ~450 MB/s konstant
SMB Test 4 - Download zwischen zwei VMs auf ESXi1: von 2012 auf 2008r2: ~80 MB/s
SMB Test 5 - Upload von 2012 nach 2008r2: ~500MB/s
SMB Test 6 - Download 2012 nach 2008r2: ~70 MB/s
SMB Test 7 - Download identischer Verzeichnisse gleichzeitig auf 3 Windows Clients (2xWindows7, 1xWindows10): pro Client 20-30MB/s

So zieht sich das mit allen Netzwerktests durch, innerhalb des ESXi und auch bei Verbindungen nach außen, per iPerf als auch per LST.

Die gleichen Tests mit dem ESXi2 ergeben durchgehend konstante Werte, obwohl diese insgesamt geringer ausfallen (langsame HDDs) können hier die 3 Windows Clients je mit gut 90 MB/s Daten zeitgleich kopieren.
Problem: wenn alle User, ca. 20, arbeiten kann es durchaus mal ~30s dauern bis sich ein Word Dokument auf dem Netzlaufwerk öffnen lässt, Programme wie SFIRM hängen immer wieder mit "keine Rückmeldung" und sogar die Kopierer bekommen die Druckaufträge nur Häppchenweise und sehr langsam geschickt (Windows Printserver), über den Canon Uniflow Server auf ESXi2 gibt es keine Probleme mit großen Druckaufträgen.
Ursprünglich dachte ich an ein Problem mit dem Switch und habe den sehr alten Enterasys Switch (bj2007) gegen einen neuen Dlink getauscht, LACP habe ich erst kürzlich bei der Fehlersuche aktiviert, hat aber am Problem genau nichts geändert. Elektriker war diese Woche da und hat einige Netzwerkverbindungen geprüft, im Endeffekt sind die Server aber im Verteiler direkt auf den Switch gesteckt, diese Kabel habe ich natürlich auch gegen neue getauscht.
Logs sind sauber, VMNET3 NICs haben soweit alle VMs, hab auch jeder VM eine eigene Portgruppe zugeteilt - kein Veränderung, Auslastung der Server ist nicht hoch, wenn der ESXi in der Spitze 30% CPU Last bekommt ist das schon viel.

Ich vermute irgendwo in den Netzwerkeinstellungen von ESXi1 liegt ein Fehler vor, habe schon akribisch die Settings verglichen, Raid-Controller Firmware geupdatet, UEFI geupdatet, iRMC geupdatet.
Meine Idee wäre jetzt noch den ESXi auf 6.7 Update 2 zu updaten und damit den Fehler eventuell los zu werden, allerdings gibt es derzeit kein Fujitsu Customized Update 2 und ich bin mir nicht sicher welche Probleme ich verursache wenn das "cleane" Upgrade durchführe. Die beiden ESXi sind übrigens lizenziert (vSphere 6 Essentials).

Hat jemand einen Tipp für mich?

Gruß
illuminat
 
Hallo Zusammen,

ich habe mich mal ein wenig ausprobiert, den SSH .pub key meines Solaris in meinem ESXi zu hinterlegen. Es sind meine ersten gehversuche mit entsprechenden Key Paaren (als langjähriger Windows User nicht so einfach :confused: ).
Bei meinem ersten Versuch habe ich mich gleich mal so halb ausgesperrt, und es war kein Login per Putty möglich.
Zum glück kann man ja per Management Remote Controll lokal auf den laufenden ESXi direkt zugreifen. Hier konnte ich mich zum Glück noch anmelden.
Um mich wieder einloggen zu können hab ich die /etc/ssh/keys-root/authorized_keys vom ESXi gelöscht und neu erstellt.

Sind die Properties im Screenshot korrekt? Oder wurden diese durch das neu anlegen falsch gesetzt?

2019-05-26 00_58_23-authorized_keys Properties.png

Und nen /etc/init.d/SSH restart gemacht.
Hat jemand von euch nen Tipp für mich wie ich es am besten hin bekomme, einen Key zu erstellen, den ich auch von meinem Windows PC per WinSCP/Putty zum anmelden auf dem ESXi verwenden kann. Wäre hier PuTTYgen für Windows eine Option?

Bzw. muss in dem text des .pub keys immer benutzer@hostname am ende stehen?
Verstehe ich das richtig das sobald man einen Key hinterlegt, sich nicht mehr per Benutzername / Passwort anmelden kann? Oder ist mir vermutlich hier ein fehler unterlaufen oder der Key war evtl. nicht vollständig kopiert?
Geht beides gleichzeitig Anmeldedaten und Key, oder nur entweder oder?
Kann man nur einen Key hinterlegen, oder auch diverse?


Hatte die Anleitung aus napp-it (Service / SSH) verwendet.
Hoffe meine Umschreibung der Problematik ist einigermaßen verständlich, sonst gerne Fragen.

Grüße
Elektromat
 
Zuletzt bearbeitet:
Die authorized_keys muss mW. immer 600 haben, also Read/Write nur für den Besitzer,nicht die Gruppe.

Bzgl. des SSH-Keys würde ich dir KeePass mit dem Plugin KeeAgent nahelegen, damit das Private-Zertifikat nicht irgendwo halb ungeschützt rumliegt. Einmal entsperrt kann Putty über Pageant auf den Key in der Keepass zugreifen.
 
Zuletzt bearbeitet:
Ja, keys_root hat 755 und authorized_keys hat 600
Bzw. muss in dem text des .pub keys immer benutzer@hostname am ende stehen?
Nach dem Key kommt in authorize_keys <SPACE>username@host
Dabei geht es um den Username und die IP(oder besser hostname) des verbindenden Clients.

Verstehe ich das richtig das sobald man einen Key hinterlegt, sich nicht mehr per Benutzername / Passwort anmelden kann? Oder ist mir vermutlich hier ein fehler unterlaufen oder der Key war evtl. nicht vollständig kopiert?
Nein, das ist nicht so. Wie oben gesagt, gilt der hinterlegte Key für genau einen bestimmten User, der von einer bestimmten IP connected. Für diesen Fall wird dann gar kein Passwort mehr erfragt. Für alle anderen (also z.B. der selbe Username von einem anderen Client, oder auch ein anderer User vom selben Client) wird nacdh wie vor ein Passwort erfragt (bis man für deren username@host Kombination auch einen Key hinterlegt)

Geht beides gleichzeitig Anmeldedaten und Key, oder nur entweder oder?
Normalerweise schon. Es wird aber wegen der höheren Sicherheit häufig von Usern manuell so konfiguriert, dass die Anmeldung per Passwort nicht mehr funktioniert, sobald ein Key hinterlegt wurde. Das ist aber bei der normalen ESXi-Konfiguration des sshd nicht der Fall.

Kann man nur einen Key hinterlegen, oder auch diverse?
Jeder user@host hat durch diese Kennzeichnung ja seinen eigenen Pubkey auf dem Server liegem. Mehrere unterschiedliche Keys für die selbe user@host Kombination machen keinen Sinn. Aber natürlich kann der user auf dem Client beliebig viele unterschiediche Pubkeys für verschiedene Server und Services liegen haben.

Würde es der Einfachheit halber erst einmal versuchen den SSH-Zugang per Key von einem Linux Client einzurichten. Sobald das klappt wäre dann schon Mal Part1 abgeschlossen. Danach dann erst als Part2 die weitere Komplikation das von Windows aus zu nutzen (was ich noch nicht gemacht habe, schaffe lieber Windows ab ;) )
 
Zuletzt bearbeitet:
Bin mir nicht sicher, ob ich das richtig verstanden habe, wierum du das gemacht hast.

Grundsätzlich ist es halt so, dass man auf dem SERVER den auth-key des CLIENTs bekannt geben muss, mit dem man sich einloggen will. Der wird auf dem Server als gültiger Key hinzugefügt. Wenn Du Dich ausgeschlossen hast, klingt das so, als hättest Du das entweder falsch herum gemacht (Server Key beim Client hinzugefügt) und/oder den nicht hinzugefügt sondern ersetzt.
 
Erst mal Danke für eure Infos.

Die authorized_keys muss mW. immer 600 haben, also Read/Write nur für den Besitzer,nicht die Gruppe.
Hab die Berechtigung der authorized_keys auf 0600 angepasst.

Die vier Key Paare zum root im ESXi hab ich nicht angepackt.

Ich hatte es gestern Nacht ... war recht spät getestet. Wollte einfach mal auf die schnelle versuchen ob es klappt. Hauptgrund war um von den VMs hotsnaps im Solaris zu ermöglichen (dafür müssen die beiden Systeme ja bekannt sein).
Das Key-Paar hab ich in meiner Solaris-VM erzeugt.

Im ESXi hab ich nur den pub Part in die /etc/ssh/keys-root/authorized_keys kopiert. Hatte aber den Teil user@host nicht mit eingetragen. Ist es auf diese Weise ein Key der für alle gültig ist, die den Private teil kennen?

Hab ich es Richtig Verstanden das der Private Teil des Keys immer im Besitz des jeweiligen Hosts bleibt? Nur der Pub Teil wird dem Partner bekannt gemacht oder?

Wenn man dort mehrere Keys von verschiedenen Hosts hinterlegt wie werden diese getrennt? Ist das pro Zeile ein pub Key?

Bzgl. des SSH-Keys würde ich dir KeePass mit dem Plugin KeeAgent nahelegen, damit das Private-Zertifikat nicht irgendwo halb ungeschützt rumliegt. Einmal entsperrt kann Putty über Pageant auf den Key in der Keepass zugreifen.
KeePass hatte ich mir mal kurz angeschaut, mich aber da ich zu dieser Zeit noch nicht mit Keys arbeiten wollte, nicht weiter verfolgt. Zumal man es nur von dort im Zugriff hat wo man auch die Tresor Datei im Zugriff hat.
Bezüglich der Passwort Verwaltung bin ich zwischenzeitlich bei Bitwarden gelandet. Damit geht leider noch keine einfache Key Verwaltung.... schade eigentlich.


Nach dem Key kommt in authorize_keys <SPACE>username@host
Dabei geht es um den Username und die IP(oder besser hostname) des verbindenden Clients.
Das bringt mich leider zur nächsten Problematik. Meinen Solaris bekomme ich nicht per Name aufgelöst. Da finde ich einfach den Grund nicht. IP ist kein Problem.
Weitere Geräte z.b. mein Router, Drucker, PiHole VM, ... sind per Namen pingbar.
Der Advanced IP Scanner zeigt mir zum ESXi und zum Solaris keine Hostnamen. Wenn ich mich nicht täusche sollte mein ESXi per ESXI und der Solaris mit solaris erreichbar sein, sind sie aber nicht.

Würde es der Einfachheit halber erst einmal versuchen den SSH-Zugang per Key von einem Linux Client einzurichten. Sobald das klappt wäre dann schon Mal Part1 abgeschlossen. Danach dann erst als Part2 die weitere Komplikation das von Windows aus zu nutzen (was ich noch nicht gemacht habe, schaffe lieber Windows ab ;) )
Jap Irgendwo muss man ja mal anfangen. Nicht ohne Grund hatte ich davon erst mal die Finger gelassen. Grundsätzlich hört es sich gut an. Man muss aber wissen was man macht ;) .
Hab auch ne Linux Mint VM da könnt ich mal ein wenig mit testen. Windows loswerden... da wär ich grundsätzlich dabei, aber wenn es um Spiele geht, fürht kein wahrer Weg daran vorbei. Zumal ich DOS / Windows seit Windows 3.11 zeiten verwende und meine Linux Kenntnisse immer noch Learning by Doing sind. Was den Umstieg etwas umständlicher macht oder zu einer Verwendung von mehreren Systemen fürhren wird. Und das macht es ziemlich umständlich.
Wobei ich dennoch recht gebe. Wenn nicht jetzt wann dann!?!?
 
Zuletzt bearbeitet:
Hab ich es Richtig Verstanden das der Private Teil des Keys immer im Besitz des jeweiligen Hosts bleibt? Nur der Pub Teil wird dem Partner bekannt gemacht oder?
Richtig, der Private Key bleibt immer dort wo er erzeugt wurde. Deshalb heißt er privat :)

Wenn man dort mehrere Keys von verschiedenen Hosts hinterlegt wie werden diese getrennt? Ist das pro Zeile ein pub Key?
Ja, einfach nach dem vorherigen user@host ein <Return> und den nächsten Key.

Das bringt mich leider zur nächsten Problematik. Meinen Solaris bekomme ich nicht per Name aufgelöst. Da finde ich einfach den Grund nicht. IP ist kein Problem.
Weitere Geräte z.b. mein Router, Drucker, PiHole VM, ... sind per Namen pingbar.
Der Advanced IP Scanner zeigt mir zum ESXi und zum Solaris keine Hostnamen. Wenn ich mich nicht täusche sollte mein ESXi per ESXI und der Solaris mit solaris erreichbar sein, sind sie aber nicht.
DNS-Probleme unter Solaris (oder deinem DNS-Server) zu lösen wäre wohl ein Thema für eine gesonderten Thread. Als dreckigen Workaround kannst du aber auf die Schnelle ja das hosts File nutzen.

Hab auch ne Linux Mint VM da könnt ich mal ein wenig mit testen. Windows loswerden... da wär ich grundsätzlich dabei, aber wenn es um Spiele geht, führt kein wahrer Weg daran vorbei...
Ja, leider noch nicht komplett. Aber mit Proton + D9VK hat sich kürzlich schon eine ganze Menge getan; man darf hoffen ;)
 
Zuletzt bearbeitet:
Kann ich eine VM erstellen und nur einen HBA/PCIe-Drive durchreichen, wo sind dann die Konfigurationsdateien der VM und kann ich das ganze noch exportieren ?
 
Die Konfiguration einer VM ist immer außerhalb der VM, sonst könnte der Hypervisor sie ja nicht erreichen so lange die VM nicht läuft und somit auch die VM nicht starten.
Was du durchreichst und wie du exportieren kannst hat weder zueinander noch mit dem Ort der Konfiguration eine Abhängigkeit.
 
Wie bringe ich meinen ESXi dazu, beim Runterfahren via Weboberfläche nicht sofort auszugehen, sondern die Autoshutdownreihenfolge einzuhalten und die VMs nacheinander herunterzufahren?
 
Ja, das Hochfahren funktioniert auch wunderbar, aber die WinServer mögen es leider nicht so ganz, wenn die Hart ausgemacht werden, da muss ich dann fast jedes mal die Datenplatte reparieren.
 
Kann der ESXi denn grundsätzlich Deine VMs runterfahren? Dazu müssen auf den VMs ja die entsprechenden vmware-tools installiert sein.
 
Bitte einmal meinen Bauvorhaben absegnen:
Aktuell läuft ein Synology DSM (XPENology) auf meinem Server als Baremetal. Aufgrund der ganzen Updatepolitik ect ist mir das allerdings etwas heikel. Ein Update und der Server is down.


Nun will ich das ganze standhafter haben auf Basis von ESXI.

Entweder werde ich als NAS Napp-it nutzen oder freenas. Mal sehen.
Ansonsten brauch ich nur einen TS3 Server und eine kleine Ubuntu Testugebung zum spielen bzw schreiben von bash scripten. Also nixs wildes...
Subsonic für Audio Streaming im Netzwerk und ein VPN Server.
Das wars dann auch schon.

Wöäre das so zu empfehlen, oder bin ich da mit ESXI falsch bedient? Wollte quasi 3 VMs laufen lassen, 1 NAS OS, 1 Test VM die nur ab und an läuft, und dann der TS3.
Werde dann noch ein DELL Perk 310 HBA mir zulegen, oder evtl doch einen anderen? Wurde mir nur so empfohlen.
 
Kann der ESXi denn grundsätzlich Deine VMs runterfahren? Dazu müssen auf den VMs ja die entsprechenden vmware-tools installiert sein.
Ja, wenn ich über die VM-Seiten die VMs runterfahren, funktioniert das, und auch nicht als stromweg herunterfahren. Vmware Tools werden auch bei allen korrekt erkannt.
Schon die Timingeinstellungen beim Runterfahren je VM ausprobiert?
Nein, wenn ich auf Herunterfahren gehe, ist der Server binnen sekunden aus, Timings sind jeweils 2 Minuten.
 
Ja, wenn ich über die VM-Seiten die VMs runterfahren, funktioniert das, und auch nicht als stromweg herunterfahren. Vmware Tools werden auch bei allen korrekt erkannt.

Nein, wenn ich auf Herunterfahren gehe, ist der Server binnen sekunden aus, Timings sind jeweils 2 Minuten.
In den Autostart-Einstellungen die Aktion für die Stop-Action von PowerOff auf Shutdown gesetzt?

Hatte bei mir bisher keine Probleme damit. Ich drück den Knopf am ESXi und alles fährt brav herunter und kommt auch sauber wieder rauf - sind aber 2016/2019er Server... Geht zwar schnell, liegt aber auch alles auf nvmes oder SSDs :-)

Mir ist nur aufgefallen das komischerweise die Autostart-Einstellungen via vCenter nicht so wirklich übernommen werden wollen weshalb ich das über das lokale Webinterface vom ESXi einstelle.



@illumina7
Schonmal testweise die Uplinks an den ESXi auf einen Uplink begrenzt (also den anderen rausschmeissen) und LACP am Switch deaktiviert?
 
Zuletzt bearbeitet:
Abend zusammen,

hat einer von euch eventuell in nicht allzu langer Vergangenheit mal eine Migration von XEN in Richtung VMware durchgeführt? Wir haben aktuell das Problem, dass die Migration zwar funktioniert, mit der Deinstallation aller XEN-Tools, das Ganze dann aber gefühlte Ewigkeiten dauert da wir nur eine übertragungsrate von 5-10MB/s haben. Eine Migration mit XEN-Tools ist zwar auch möglich nur dann kommt die VM aus dem Bluescreen nicht mehr raus, zumindest bin ich der Meinung alle Optionen ausgeschöpft zu haben.

Vielen Dank vorab für Feedback, weitere Ideen oder Optionen.
 
Hallo Zusammen,

ich hoffe ihr könnt mir weiterhelfen. :hail:

Ich habe mein ESXi free von Version 6.5U1 direkt per CD auf Version 6.7U2 gehievt. Update lief problemlos durch.

Jetzt hab ich WindowsXP als VM am Laufen und ESXi teilt mir mit, dass "VMware Tools is installed and supported, but a newer version is available on the host." als Version 10252. In XP sagt die VMtool Box Version 10.0.12, built 4448496
Also flux die RemoteConsole gestartet um die Tools zu aktualisieren - aber es geht nicht.
Die Datei /usr/lib/vmware/isoimage/winPreVista.iso gibts nicht, im Hinweis auf den KB-Artikel 2129825 aber auch nicht.

Dann hab ich mir von hier: Download VMware vSphere
die neusten Tools runtergeladen, aber da ist für XP nichts mehr mit bei - obige .iso gibts auch nicht. Der "VMware Tools for Windows, 32-bit in-guest installer" startet in der VM nicht.

Hier https://my.vmware.com/de/group/vmware/details?downloadGroup=VMTOOLS10012&productId=614 gibts diese iso, das ist aber die Version die auch schon installiert ist.

Wo und wie finde ich die gewünschte neuere Version der VmWareTools?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh