ESX / ESXi - Hilfethread

Daher meine Frage was ich tun müsste.
Nichts, da die vSwitches bzw. die Portgruppen nicht über ein Standardgateway verfügen müssen. Die an die vSwitches angeschlossenen VMs erhalten einfach die 192.168.1.1 bzw. 192.168.2.1 als Standard-Gateway und fertig ist die Laube.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke für die ersten Feedbacks, jedoch bringt es mich nur bedingt weiter.
Ich würd gerne "die Laube" so schnell zimmern wie Ihr beschreibt, jedoch klappt das noch nicht so recht.


Zur besseren Übersicht, hier noch mal eine einfache Skizze. Teile davon dürften dem entsprechen, was Seelbreaker bei sich hat.

Lanplanung.PNG


LAN1 Und LAN2 sollen jeweils mit Internetzugang versehen werden. Das 3 LAN soll offline bleiben und die Konfiguration dafür ist auch nicht das Problem.
Mein Problem ist nur noch LAN2. Ich erläutere mal meine Schritte:

1. Ich erstelle einen vSwitch: "vSwitch-DMZ" und weise ihm den übrigen Uplink von der phys. Netzwerkkarte2 (vmnic1) zu
2. Ich erstelle eine Portgruppe: "Portgruppe-DMZ" und weise den "vSwitch-DMZ" zu. (bisher gab es noch keine Möglichkeit IPs zuzuweisen).
3. Ich erstelle via Bash ein "TCPIP-DMZ"
4. Ich erstelle eine VMkernel für das LAN2/DMZ und wähle dort die "Portgruppe-DMZ" und den erzeugten "TCPIP-DMZ" aus.
4a. Im VMkernel lege ich noch eine statische IP fest z.B. 192.168.2.2, fertig
5. Wenn ich jetzt noch im "TCPIP-DMZ" die Einstellungen für das GW vornehmen will, geht das nicht.

Auch kann ich die Portgruppe in den VM Einstellungen nicht sehen um sie da zuzuweisen.


Ist der Weg bisher richtig oder falsch? Wenn falsch, wo ist das Problem in der Konfiguration?
 
Irgendwie m.E. falsch aufgesetzt.

Aber wenn Du das so fahren willst, brauchst Du meiner Meinung nach für deine DMZ wieder 2 vswitches: Vswitch2 und Vswitch3 (dein bisheriger Vswitch3 wird dann zu Vswitch4), und das solltest Du wie folgt konfigurieren:

Vswitch2-->PhysNic2 + PortgruppeDMZextern + Einzige VM: Firewall-VM
Vswitch3-->PortgruppeDMZintern + alle anderen VMs und auch die Firewall-VM (ohne physischen Adapter, also so wie dein bisheriger Vswitch3)

In der Firewall-VM konfigurierst Du dann zwei virtuelle Netzwerkkarten:
1. eine hängt am Vswitch2 und bekommt (z.B.) die IP von deiner Fritzbox
2. die zweite hängt am Vswitch3 mit einer festen IP, daran hängt ein DHCP/DNS-Server und vergibt die IPs für Deine DMZ-VMs.
3. dann konfigurierst Du Routing/Sicherheit/Protection/wasweißich auf der Firewall-VM nach Wunsch zwischen der Außenwelt und der DMZ.

ABER: eigentlich ist das Overkill/Murks. EIGENTLICH reicht - um eine DMZ neben dem internen Netz einzurichten - eine gescheite Firewall, nämlich z.B. die, die bei dir schon vor dem LAN1 hängt. Vor allem, wenn Du mit "exposed host" auf der Fritzbox arbeitest, sollte der auf deine (einzige) Firewall zeigen und dann geht's halt dahinter ggf. getrennt weiter. (Ich hab allerdings noch nicht viel mit dem exposed host auf der Fritzbox gearbeitet.) Vorsichtige schützen halt das interne Netz noch durch eine separate Firewall zwischen DMZ (LAN2) und Intern (LAN1, aber nicht so wie bei Dir zwei FWs nebeneinander (braucht man m.E. aber im Homelab eher nicht). DMZ heisst ja "DeMilitarisierteZone" - also mehr nach außen offen als das interne Netz...

P.S.: Ein VM-Kernel hat m.E. in der DMZ NICHTS - ich wiederhole: ABSOLUT NICHTS - zu suchen.
 
Zuletzt bearbeitet:
Danke für die ersten Feedbacks, jedoch bringt es mich nur bedingt weiter.
Das liegt daran, dass Du entweder a) einen Denkfehler bei deiner Planung hast oder b) noch nicht richtig vermittelt hast, was du eigentlich vor hast.
3. Ich erstelle via Bash ein "TCPIP-DMZ"
4. Ich erstelle eine VMkernel für das LAN2/DMZ und wähle dort die "Portgruppe-DMZ" und den erzeugten "TCPIP-DMZ" aus.
4a. Im VMkernel lege ich noch eine statische IP fest z.B. 192.168.2.2, fertig
5. Wenn ich jetzt noch im "TCPIP-DMZ" die Einstellungen für das GW vornehmen will, geht das nicht.

Das ist auch gut so. Das Standardgateway wird benutzt, wenn nicht ordentlich geroutet werden kann, d.h. es darf normalerweise auch nur ein Standardgateway geben. Mit dem 2. vmk-Interface machst Du deinen ESX-Host zu einem Multihomed-System, was nach dem was ich bisher verstehe völlig nutzlos ist. Du willst ja nicht den Host mehrfach anschließen, sondern das Netzwerkverhalten der VMs auf dem Host ändern.

Weiß denn deine Fritz!Box schon etwas vom 192.168.1.0/24 ? Wo sendet sie denn Pakete hin, die in das Netz sollen?
Was ist denn "GW/Firewall (.1.1)" für ein Gerät? In der ASCII Grafik oben sieht es physikalisch dazwischengeschaltet aus, in der Grafik die du gemalt hast fehlt es.
 
Kann gut sein das ich einen Denkfehler habe, aber dafür hole ich mir ja hier auch die nötige Infos um das zu korrigieren.

Also zu Euren Fragen:

Ich habe im internen LAN1 eine Sophos Homefirewall, allerdings nur FW ohne Modemfunktion und mit nur 2 Ports. Die sichert alles streng ab und routet zwischen dem .1.x und .2.x LAN. Die Fritzbox ist mehr oder weniger nur ein stumpfes Modem für den Internetzugang. Das funzt alles soweit einwandfrei und soll auch nicht weiter angetastet werden.

Das LAN2 oder "DMZ" wie ich es hier genannt habe, ist eigentlich eine Art 2. internes Netzwerk. Da an der Fritzbox ein Exposed Host eingerichtet werden, hätte ich also sowas wie eine DMZ wo alles offen ist. Da ich auch mit einer Sophos testen will, ohne meine eigene "produktive Sophos" im LAN1 zu nehmen, bietet sich später eine Sophos-VM an, die dann vor die Test-VMs im LAN2 geschaltet wird und dort alles absichert.

esxconfig2.PNG
Hier noch Mal eine korrigierte Übersicht.


Ich habe mal den Rat befolgt und den VMkernel rausgenommen und siehe da, meine VM's haben nun Internet und ich kann die Portgruppen in der VM-Konfig wählen.
Scheinbar war das der Knackpunkt gewesen.
 
Schön, dass es soweit funktioniert.

Was mich etwas wundert, da Du meiner Meinung nach eigentlich noch eine statische Route in das 192.168.1.0/24 Netz mit Gateway 192.168.2.1 in der Fritz!Box eintragen müsstest.

Zum Bild: ".2.3" gibt es jetzt nicht mehr. ".1.3" würde ich nicht an den LAN-Port1 schreiben, sondern an ein VMK-Interface, was im Bild noch fehlt und an vSwitch1 hängt.
 
Hey zusammen,

habe esxi 6.7 auf meinem Dell T30 installiert und will gerne meine TV Karte an eine VM durchreichen.

Im Menü dazu wird sie die "Hauppauge 01607" aber leider als nicht "fähig" angezeigt?!?! Meinen Dell h310 konnte ich schon durchreichen..

hat jemand einen Tipp? wie es doch noch funktionieren könnten?
 
Hast du das neueste Update installiert: 6.7.0 Update 1 (Build 10302608)
Danach lies sich zumindest der onboard SATA Controller durchreichen.
 
danke damit konnte ich die Karte durchreichen. Treiber ließen sich installieren aber ich bekomme leider immer folgende Meldung :/

Unbenannt.PNG
 
Ich bekomme den Fehler "[Errno 28] No space left on device" beim Versuch meinen ESXi 6.7 zu aktualisieren. Ich habe eine 256GB SSD verbaut, welche eigentlich nicht voll sein kann. Ich verbinde mich per SSH und führe dann folgendes aus:

"esxcli network firewall ruleset set -e true -r httpClient"
"esxcli software profile update -p ESXi-6.7.0-20181104001-standard \-d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml"
"esxcli network firewall ruleset set -e false -r httpClient"

Die Auslagerungsdatei ist aktviert und egal ob ich die lokale SSD oder mein NAS angebe, es erscheint der gleiche Fehler. Host-Cache und Lokale Auslagerung sind auch aktiviert.

Hat jemand einen Tipp für mich?
 
Zuletzt bearbeitet:
Hast du es auch direkt über ein Bootmedium probiert (Aktualisieren)?
 
Bei mir wars in der Tat, das die Auslagerung auf einen lokalen Datastore aktiviert sein musste. Dann ging des mit dem esxcli.
Ich hab dann aber kurz drauf den Esxi 6.7 U1 frisch installiert, weil nach ein paar Tagen plötzlich PDODs beim Booten kamen, als ich ein Biosupdate des Boards gemacht hab.
Dank Trennung von Bootmedium und Datastores (nochdazu auf ZFS mit genug Snaps) hats aber eh keinerlei Gefahr für die VMs gegeben.
 
Zuletzt bearbeitet:
Kurze Frage in die Runde:

Ich erinnere mich das man etwas beachten musste wenn man VMs migrieren will die von einem geupdateten Host kommen, weiß da noch jemand was?

Situation:
vSphere Essentials 6.0 mit 3 Hosts auf 6.0 - Wurde aber schonmal geupdatet.
Plan ist die VMs vom Cluster auf ein neues 6.7er Cluster zu migieren, inkl. Storage vMotion. EVC ist aus, bringt aber ja nix da die CPU Generationen zu unterschiedlich sind, also Cold vMotion.
Ich meine mich aber erinnern zu können das man etwas speziell beachten muss sonst finden die VMs nachher ihre .vmdk nicht mehr, krieg das aber leider nicht mehr zusammen... :confused:
 
Die Frage wäre ob der 6.7er Host/Cluster - Zugriff auf das Storage der 6.0er Hosts hat.
dann wäre es im ersten Zuge einfacher, die VM aus dem vCenter vom 6.0er zu entfernen (! nicht vom datastore löschen!) - und über Datenspeicher durchsuchen dann dem 6.7er hinzufügen, dann könnte man die VM nämlich gleich wieder hoch fahren und im Hintergrund dann mittels vMotion vom alten Storage auf das neue migrieren.

Alternativ gäbe es natürlich noch den Weg über den VMware Standalone Converter

Ich würde mit einer Test-VM aber die erste Variante einmal gehn und dann so machen, weil vermutlich schneller.
 
Evtl. vorhandene Snapshot löschen und konsolidieren.
Alle anderen Fehler lassen sich eigentlich im Notfall direkt in den vmx und vmdk Files manuell lösen. Aber es ist natürlich einfacher es über die Oberfläche zu machen.

Hab das Spiel letztens von 5.0 auf 6.0 gemacht. Da sind mir noch eingebundene ISO auf die Füße gefallen. Der neue Server findet die nicht mehr da auf lokalem Store des alten Server. Somit verweigert er den Start. Oder halt irgendwelche durchgereichten Gerätschaften.
 
Mal eine frage, den Datastore mit meinen VMs kann ich doch einfach in einen neuen Host stecken? Beides sind ESXi 6.7U1. Die durchgereichten Sachen nehme ich mit in den neuen. ESXi wird neu Installiert. die Karten neu durchgereicht und den VMs neu hinzugefügt. Oder gibt es da Probleme?
 
Hallo zusammen,

ich hab da auch mal ein Problemchen.
Ich hab nen Datastore aus zwei SSDs, auf dem meine VMs installiert sind. Spätestens jeden zweiten Tag hängen sich alle VMs auf und der Datastore wird mit 0B Größe angezeigt.
ESXi läuft in der Version 6.7.0 (Build 8169922) - Free.

Starte ich den Host ist das Problem behoben.
Ich wollte jetzt eigentlich die VMs auf eine andere Platte schieben (er sagt mir, dass er sie nicht kopieren kann) und den Datastore kann ich auch nicht löschen, da der swap vom ESXi drauf liegt.
Jemand ne Idee? Im schlimmsten Fall muss ich die VMs neu aufsetzen, aber optimalerweise gibt es natürlich eine bequeme Lösung.
 
@Sodo prüf doch mal die Sata Kabel (neue dranstecken), ob evtl. da ein Fehler vorliegt und es überhaupt kein ESXI Problem ist.

@MC Drehstuhl Ich vermute das es da keine Probleme gibt, du registrierst sie ja nur im neuen ESXI. Probleme sehe ich wenn überhaupt nur beim durchreichen, schreib dir besser vorher alles auf wo was und wie hin ging.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Kurze Frage in die Runde:

Ich erinnere mich das man etwas beachten musste wenn man VMs migrieren will die von einem geupdateten Host kommen, weiß da noch jemand was?

Situation:
vSphere Essentials 6.0 mit 3 Hosts auf 6.0 - Wurde aber schonmal geupdatet.
Plan ist die VMs vom Cluster auf ein neues 6.7er Cluster zu migieren, inkl. Storage vMotion. EVC ist aus, bringt aber ja nix da die CPU Generationen zu unterschiedlich sind, also Cold vMotion.
Ich meine mich aber erinnern zu können das man etwas speziell beachten muss sonst finden die VMs nachher ihre .vmdk nicht mehr, krieg das aber leider nicht mehr zusammen... :confused:

Die VM-Hardware Version darf nicht höher sein, als der alte Host die kennt (6.7 - VM-Hardware Version 14 - 6.5 und höher hat VM-Hardware Version 13).

Im Notfall die VM-Hardware Version über die VMX anpassen - bzw. mit dem Upgrade der VM-Kompatibilität warten.
 
Kennt sich jemand mit EXXi 6.7 U1 und dessen Handhabung von IOMMU-Gruppen aus?

Bislang hatte ich nur mit C612/X99-Boards experimentiert, wo anscheinend jedes PCIe-Gerät eine eigene IOMMU-Gruppe erhält, es also nicht wirklich etwas zu beachten gibt.

Bei einem C236/Xeon E-1245v6-NAS bin ich bei der Planung nun etwas besorgt, dass es hier Probleme geben wird:

Von der CPU gehen zweimal 8x-PCIe Lanes weg, gedacht für eine GPU und eine 40 GbE-Karte. Die beiden Karten sollen in getrennte VMs durchgerreicht werden, befinden sich allerdings wahrscheinlich in der gleichen IOMMU-Gruppe.

Ist dies technisch machbar?
 
Kennt sich jemand mit EXXi 6.7 U1 und dessen Handhabung von IOMMU-Gruppen aus?

Bislang hatte ich nur mit C612/X99-Boards experimentiert, wo anscheinend jedes PCIe-Gerät eine eigene IOMMU-Gruppe erhält, es also nicht wirklich etwas zu beachten gibt.

Bei einem C236/Xeon E-1245v6-NAS bin ich bei der Planung nun etwas besorgt, dass es hier Probleme geben wird:

Von der CPU gehen zweimal 8x-PCIe Lanes weg, gedacht für eine GPU und eine 40 GbE-Karte. Die beiden Karten sollen in getrennte VMs durchgerreicht werden, befinden sich allerdings wahrscheinlich in der gleichen IOMMU-Gruppe.

Ist dies technisch machbar?

was in welcher Gruppe ist bestimmt der Mainboard Hersteller
 
Die Frage wäre ob der 6.7er Host/Cluster - Zugriff auf das Storage der 6.0er Hosts hat.
dann wäre es im ersten Zuge einfacher, die VM aus dem vCenter vom 6.0er zu entfernen (! nicht vom datastore löschen!) - und über Datenspeicher durchsuchen dann dem 6.7er hinzufügen, dann könnte man die VM nämlich gleich wieder hoch fahren und im Hintergrund dann mittels vMotion vom alten Storage auf das neue migrieren.

Alternativ gäbe es natürlich noch den Weg über den VMware Standalone Converter

Ich würde mit einer Test-VM aber die erste Variante einmal gehn und dann so machen, weil vermutlich schneller.

Das wäre natürlich eine Variante - Muss dann nur wieder eine Testlizenz auf den 6.0er Host bekommen, sonst wirds schwer mit vMotion... Oder vertue ich mich gerade damit? Ich brauche ja auf beiden Hosts eine vMotion Lizenz?
 
Heute morgen hat mich mein Homeserver mit einem ungewöhnlich hohen Stromverbrauch überrascht. Ich verwende ESXi 6.7 U1 und die Weboberfläche zeigt mir hohe CPU-Auslastungen an, obwohl die Maschine eigentlich im Idle laufen sollte. Meine beiden VMs sind nicht Schuld, die Last scheint vielmehr durch ESXi selbst verursacht zu sein.

Hier die Ausgabe von esxtop:

Code:
      ID      GID NAME             NWLD   %USED    %RUN    %SYS   %WAIT %VMWAIT    %RDY   %IDLE  %OVRLP   %CSTP  %MLMTD  %SWPWT
       1        1 system            191   41.76  800.00    0.00 18989.24       -   49.58    0.00   13.98    0.00    0.00    0.00
 1829860  1829860 esxtop.2485782      1    3.56    3.55    0.01  100.00       -    0.00    0.00    0.01    0.00    0.00    0.00
   60609    60609 OmniOS             10    1.19    1.89    0.01 1000.00    0.05    0.04  206.08    0.00    0.00    0.00    0.00
 1587453  1587453 Ubuntu Server      10    0.50    0.77    0.00 1000.00    1.95    0.13  205.40    0.00    0.00    0.00    0.00
    5804     5804 hostd.2098543      27    0.10    0.14    0.00 2700.00       -    0.04    0.00    0.00    0.00    0.00    0.00

Wie kann ich da am besten weiter nachforschen?

Edit: In esxtop kann man die Gruppe 1 mit "e 1" aufklappen. In dieser Ansicht funktioniert dann seltsamerweise das Sortieren nach %USED nicht mehr. Indem ich die Schriftart meines Terminals verringert und die Fenstergröße maximierte habe, wurden dann genügend Zeilen angezeigt, um den Übeltäter sehen zu können:

Code:
      ID      GID NAME             NWLD   %USED    %RUN    %SYS   %WAIT %VMWAIT    %RDY   %IDLE  %OVRLP   %CSTP  %MLMTD  %SWPWT
 ...
 2097306        1 OCFlush             1   41.38   40.06    0.00   63.78       -    0.00    0.00    0.01    0.00    0.00    0.00

Mit dem Stichwort bin ich auf diese reddit-Diskussion gestoßen. In der Tat hat auch mein Host die Uptime von 49 Tagen gestern erreicht. Seltsam, dass man zu dem Thema nicht viel mehr findet. Selbst wenn man den Stromverbrauch nicht misst, sollte man doch bei folgendem Bild stutzig werden:

ESXi_CPU_idle.PNG
 
Zuletzt bearbeitet:
Mh ... Mein 6.7U1 läuft heute seit 51 Tagen. Wie genau geht das mit dem exstop in der Konsole? Ich bekomme nach exstop nur einen Wust an Zeichen, und e und 1 bringen dann nichts mehr?
 
Das Problem hatte ich auch mit mintty. Starte esxtop mal mit "TERM=xterm esxtop" (als ein Befehl eintippen).
 
Merci. So funktioniert es :)

Meine Maschine zeigt weder in den Graphen noch auf der Konsole unverhältnismässige Lasten. Sieht alles eher gemütlich aus.
 
Interessant, d.h. dein "system" Prozess (GID 1) hat keine hohen %USED- und %RUN-Werte?

Würdest du mal nachsehen, ob "OCFlush" bei dir überhaupt läuft?
ps | grep OCFlush
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh