ESX / ESXi - Hilfethread

Was passiert eigentlich, wenn du einfach mal ein neues Netz erstellst, was genau so heißt, wie deine "Leiche" dort, dann löschst du das mal wieder sauber runter?

Naja, dann wird bei den VMs das Netz zwar wieder als aktiv angezeigt (auch wenn die VM nur eine vNIC hat, die bereits mit einem anderen Netz verbunden ist) und auch in der Netzwerkübersicht vom vCenter ist das Netz vorhanden und zeigt an, dass dort virtuelle Maschinen mit verbunden währen. Wenn ich das Netz nun migrieren möchte, merkt der aber, dass keine VM damit verbunden ist. Lösche ich dann das Netz von den Hosts wird es wieder als inaktiv bei den VMs angezeigt :kotz:


Auch kannst du mal versuchen die Hosts beide aus dem Cluster zu schmeißen und dann mal zu gucken, ob du noch was siehst?
DIe VMs auf den Hosts laufen ja alle weiter. Nach dem man die Hosts wieder ins Cluster aufgenommen hat, sind auch alle VMs wieder da.

Werd ich gleich mal machen sobald auch der zweite Host wieder oben ist (der anscheinend nur mit USB 1.1 Tempo bootet :fresse:). Um nen Host aus dem Cluster zu schmeißen möchte der Host gerne in den Wartungsmodus... Na dann warten wir mal :fresse:

Sollte nämlich gar nix helfen, kannst du immernoch das Cluster löschen und neu anlegen. Mit den nötigen Settings und dann die Hosts wieder einklinken und die VMs übernehmen.
Bei zwei Hosts dürfte das noch recht überschaubarer Aufwand sein. Solange man nicht viel mit Unterordnern da in dem Vorlagen und VMs Tab arbeitet...

Joa, es gibt zwar eine Hand voll Einstellungen und auch die ein oder andere Vorlage, aber das ist ja kein großer Aufwand.

Wobei ich mir so 100% noch nicht das ganze Bildlich vorstellen kann.

Na dann sorg ich mal für ein paar Bildchen^^


So schaut das ganze in der Clusterübersicht aus. Alle Netze sind an die beiden Hosts gebunden, bis auf "Steggi Only", welches nun weg soll.


Die jeweilige Hostübersicht liefert mir in beiden Fällen ein solches Bild, was für mich dafür spricht, dass das Netzwerk an den Hosts nicht mehr vorhanden ist (weil es ja bereits gelöscht wurde)


Wie hier aber ersichtlich, zeigt mir die VM innerhalb des vCenters an, dass sie noch mit dem nicht vorhandenen Netz verbunden sei, obwohl die einzige vNIC mit dem Arbeitsnetz verbunden ist. Schaue ich mir die Übersicht der gleichen VM direkt auf einem der Hosts an (also direkte Verbindung mit dem vSphere Client auf einen der Hosts) ist das "Geisternetzwerk" verschwunden.


Lege ich das Netzwerk nun wieder an, werden innerhalb der Netzwerkübersicht des vCenters auch alle VMs erkannt, die angeblich mit dem Netz verbunden währen. Versuche ich nun aber das Netzwerk zu migrieren ergibt sich obriges Bild...

Das klingt in der Tat irgendwie komisch muss ich sagen... Bei mir hat der bis dato immer das gemacht, was er soll.

Ja, bei mir hat bis jetzt auch immer alles geklappt, aber irgendwo scheint hier der Wurm drin zu stecken :kotz:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nachtrag von mir zum Post #1628
Ich denke ich habe das Problem gefunden. Habe aller Energie-Optionen wieder vollständig aktiviert
allerdings habe ich LLC komplett deaktiviert. Bisher läuft alles einwandfrei!

Kann man sich ja mal merken.
 
@Steggi
OK, jetzt hab ich das glaub ich geblickt :fresse:

Kannst du dir mal via Editor (VI zum Beispiel) oder auch WinSCP von deinem Storage die "VMX" Files ansehen ob du dort noch irgendwo Restbestände des alten "Steggi only" Netzes findest?
Gerade bei der VM, von welcher du das Bild oben gemacht hast...
Je nachdem, was die Quelle der VM war, könnte es dort ggf. ein Problem sein.

Die Settings der VM selbst zeigen dort unter Umständen nicht alles an...
Noch dazu solltest du bedenken, das der Übersichtstab selbst nicht immer 100% die Wahrheit spricht. Ich hatte schon einige Fälle, wo dort einfach noch alte Sachen drin standen, scheinbar aktualisiet der nicht sauber und überall.


Was passiert eigentlcih wenn du händisch bei den VMs das Netz änderst?
Du scheinst ja den NIC Migrationsassistenten zu nutzen, ich muss zugeben, das ich diesen bis dato nie verwendet habe :fresse:


Zum Thema, was kannst du noch probieren. Man könnte ggf. mal mit dem VMware Converter was machen. Sprich VM runter fahren, dann aus dem Inventory entfernen, auf dem Storage den Ordner, wo die VMX Datei drin ist, umbenennen, dann die VMX wieder ins Inventory einbinden (dabei den Namen der VM ebenso verändern!)
Dann den Converter auf irgend nem Client starten (oder auch direkt auf dem vCenter) und die VM mal versuchen ohne Clientsettings zu bearbeiten!!! zu convertieren. Für gewöhnlich sollte damit die VMX Datei neu erzeugt werden und die Einträge in der Datei sollten auch sauber sein. Nicht das du dir dort irgendwelche Leichen in die VMX geholt hast. Das vCenter zeigt es nicht mehr sauber an, und dadurch bekommst du es über die GUI auch nicht weg...
 
Kannst du dir mal via Editor (VI zum Beispiel) oder auch WinSCP von deinem Storage die "VMX" Files ansehen ob du dort noch irgendwo Restbestände des alten "Steggi only" Netzes findest?
Gerade bei der VM, von welcher du das Bild oben gemacht hast...
Je nachdem, was die Quelle der VM war, könnte es dort ggf. ein Problem sein.

Ja, dass hatte ich anfangs auch gedacht und mir die VMX Dateien der betroffenen VMs mal angesehen. Aber auch hier wird nur eine vNIC aufgelistet und die ist bei der VM mit dem "Arbeitsnetz" verbunden. Währe hier ein Fehler drin, dann würde ich das auf den Hosts ja auch sehen, wenn ich mich dort direkt aufschalte.

Was passiert eigentlcih wenn du händisch bei den VMs das Netz änderst?
Ändere ich die von "Arbeitsnetz" auf das testweise angelegte "Steggi Only", so verschwindet das Arbeitsnetz aus der Übersicht. Änder ich das nun wieder zurück, so hab wir wieder das selbe Bild wie in meinem letzten Post...

Du scheinst ja den NIC Migrationsassistenten zu nutzen, ich muss zugeben, das ich diesen bis dato nie verwendet habe :fresse:
Auch wenn in diesem Fall nur 4 VMs betroffen sind, spart das bei größeren Mengen einiges an Zeit ;) Aber ich habs natürlich vorher auch von Hand probiert^^


Zum Thema, was kannst du noch probieren. Man könnte ggf. mal mit dem VMware Converter was machen. Sprich VM runter fahren, dann aus dem Inventory entfernen, auf dem Storage den Ordner, wo die VMX Datei drin ist, umbenennen, dann die VMX wieder ins Inventory einbinden (dabei den Namen der VM ebenso verändern!)
Dann den Converter auf irgend nem Client starten (oder auch direkt auf dem vCenter) und die VM mal versuchen ohne Clientsettings zu bearbeiten!!! zu convertieren. Für gewöhnlich sollte damit die VMX Datei neu erzeugt werden und die Einträge in der Datei sollten auch sauber sein. Nicht das du dir dort irgendwelche Leichen in die VMX geholt hast. Das vCenter zeigt es nicht mehr sauber an, und dadurch bekommst du es über die GUI auch nicht weg...

Kann ich ja nachher mal probieren. Ich hab die VMs zwar schonmal aus dem Bestand geworfen, umbenannt und neu hinzugefügt, bis jetzt aber noch nicht durch den Converter geschickt. Das Ergebniss des neu hinzufügens ist dabei übrigens auch nicht anders als vorher -.-
 
Also inzwischen scheine ich eine anscheinend funktionsfähige Lösung gefunden zu haben.

Ich habe mir letztendlich die VM runtergefahren, dann die VMX der VM gesichert, anschließend die VM gecloned und die MAC und UUID aus der gesicherten VMX in die VMX der neuen VM eingesetzt (beide Werte mussten zwingend übernommen werden)

Auf der geclonedten VM war das Netz dann endlich wech :shot:
 
Ja, so das non plus ultra ist das jetzt nicht, aber bei den 4 VMs die bei mir betroffen waren bzw. es teilweise noch sind, geht das vom Aufwand her noch.

Im Produktivbetrieb mit zich VMs würde das aber mehr als nur Zeitaufwändig -.-
 
Ja, tut sie auch. Braucht aber dafür etwas länger und die Anpassung bezüglich MAC und UUID müsste ich trotzdem noch machen :hmm:
 
Im Normalfall würde es zu verschmerzen sein, aber im aktuellen Fall mussten die Werte wegen Softwarelizensierungen übernommen werden.
 
Mal ne kleine Frage zu meinem ESXi und der Verwaltung vom Perc 5/i.
Habe die Treiber in den ESXi eingebunden, und sehe den Status auch.
ESXi Status.jpg

Jetzt würde ich gerne per Megaraid Storage Manager darauf zugreifen um eine zusätzliches RAID 10 einzurichten, allerdings findet das Prog den Host nicht. Welche Einstellungen (bezüglich Sicherheitsprofil) müssen gemacht werden damit ich den ESXi Host im MSM sehe? Hat da jemand von euch Erfahrung mit?
Zu Beginn hats nämlich funktioniert, und ich hab nix an der Konfig geändert ;)
 
Bzgl MSM:
- mit manchen Versionen gings bei mir garnicht
- Bei mir ists so, dass ich einstellen muss, dass alle Server im gleichen Subnetz gesucht werden sollen und ich dann die IP eines Servers mit installiertem MSM (und verbautem Controller) eingeben muss damit der ESXi gefunden wird

In der neusten MSM Version gings bei mir dann auch mit der IP vom ESXi... das Problem scheint aber beim MSM zu liegen, manche funktionierten bei mir garnicht
 
Bzgl MSM:
- mit manchen Versionen gings bei mir garnicht
- Bei mir ists so, dass ich einstellen muss, dass alle Server im gleichen Subnetz gesucht werden sollen und ich dann die IP eines Servers mit installiertem MSM (und verbautem Controller) eingeben muss damit der ESXi gefunden wird

In der neusten MSM Version gings bei mir dann auch mit der IP vom ESXi... das Problem scheint aber beim MSM zu liegen, manche funktionierten bei mir garnicht

Hab jetzt drei Versionen vom MSM durch, keine funktioniert. Egal ob aus ner VM gestartet oder über nen lokalen PC. Auch spielt es keine Rolle ob sie im gleichen Subnetz hängen (ging letzte Woche während der Client in nem anderen hing).

Werd heute Abend den ESXi Host mal neu starten, evtl. hängts ja daran.

EDIT: Neustart und es geht wieder. Versteh das mal einer :mad:
 
Zuletzt bearbeitet:
Servus,

vielleicht hat von Euch jemand eine Idee wie ich mein Problem lösen kann. Habe jetzt einige Stunden in Google verbracht, aber bis dato keine Lösung gefunden.

ESXi Hardware:
- Supermicro X9SCM-F
- Intel Xeon E3-1230
- 16GB ECC RAM (Kingston)
- HBA1: LSI/Intel SASUC8i IT Mode -> Passthrough zur Debian VM, 6x 1.5TB HDs + 2x 2TB HDs
- HBA2: LSI/Intel SASUC8i IR Mode -> Hoststorage / 2x 640GB im HW RAID1
- Intel Dual Port NIC PCIe x4
- SAS: Adaptec 3405 -> Passthrough an eine Windows VM (sollte an Win Server 2008 R2 oder WHS 2011, aktuell erstmal Win Server 2008 R2), 4x 1TB HDs

esxi.PNG

Wie auf dem Screenshot zu sehen ist, wird der Adaptec 3405 zwar erkannt und die Treiber sind auch (von Adaptec/Cert) nachinstalliert worden, aber eben mit dem Fehlercode 10. Das in vielen Foren beschriebene deaktivieren von VT-d kommt nicht in Frage, weil es a) nicht hilft (hatte ich getestet) und b) mein Filer in der Debian VM per Passthrough aus den 6x 1.5TB HDs einen RAID6 (mdadm) macht und im Netzwerk shared.

Über Ideen zur Lösung würde ich mich freuen :)

Ciao
Dennis
 
Ich hatte das mit dem LSI und Passthrough auch bei meinem Intel S3420GPLX...

Funktionierte bei dem 9260 nur mit ner speziellen Firmware (hab die Firmware in einer bestimmten Version von dem baugleichen IBM geflasht) - ansonsten gab es in der 2008R2 VM ganz lustige Sachen:
- Controller funktionierte nur das erste mal nach dem Reboot des ESXi - hat man die VM rebootet lief er nicht mehr
- 2008R2 bootet nicht zuende durch
- Controller ist da aber das Gerät konnte nicht gestartet werden

Letztendlich hab ich dann RDM gemacht was bei mir keinen Unterschied gemacht hat was die Performance angeht...
Creating RDMs on SATA drives

Auf dem gleichen Board wie du hatte ich dann erhebliche Probleme mit nem IBM M1015 - der lief nur in einem einzigen PCIe Slot um vom ESXi erkannt zu werden, meine im zweiten von oben...
 
Danke für deine schnelle Antwort! :)

Ok - das sagt mir dann auf jeden Fall schonmal, dass dies ein größeres Problem ist, was wohl auch nicht so einfach gelöst werden kann. Hmm..

Ursprünglich sollter der RAID Controller mit den 4x 1TB HDs den Speicher für die VMs zur Verfügung stellen. Das klappte aber nicht, weil ich die folgende Meldung beim Formatieren im ESXi bekam:

Call "HostDatastoreSystem.CreateVmfsDatastore" for object "ha-datastoresystem" on ESXi "x.x.x.x" failed.

Ist das nun die Grundvoraussetzung für RDM? Ich fürchte es fast - im Grunde wäre es mir ja auch recht, wenn das eine virtuelle Platte wäre - da sollen ja nur die Backups der Rechner drauf (WHS), der Storage selber liegt bei mir ja auf dem Linux Server, der auch im Notfall in einem anderen PC benutzt werden kann.
 
Du reichst mit RDM eine Partition durch - in meinem Fall wars ne recht große NTFS Partition...

Und bei dem Datastore ist bei 2TB schluß - daher wahrscheinlich auch der Fehler bei 4 x 1 TB...
 
Ich dachte das ist in ESXi 5 gekippt worden? Das Volume habe ich allerdings auch mit 1.9TB mal versucht zu formatieren - gleiches Ergebnis.
 
Auch mal probiert nur ein Volume zu erstellen, dass nur 1,9TB groß ist im Controller Bios?

Ansonsten wie gesagt mach einfach ein RDM, damit sollte es klappen wenn der Controller grundsätzlich erkannt wird
 
Zuletzt bearbeitet:
What? Also mit 5.0 war das Limit für einen VMFS-Datastore immer noch 2TB...

"To create a VMFS datastore larger than 2TB, you need to extend the VMFS datastore over another LUN."

https://www.vmware.com/pdf/vsphere5/r50/vsphere-50-configuration-maximums.pdf

Und ein VMDK kann auch nur maximal 2TB groß sein.

Edit:
Sagen wir es korrekt "2TB für ein LUN im Datastore" (und dann den Datastore "erweitern" in den Eigenschaften, oder?) - darum hatte ich ja auch gesagt er solle mal 1,9 als LUN erstellen...

Edit2:
Zumal VT/d ausmachen in seinem Fall ja nicht die Lösung sein kann weil dann der andere Controller nicht mehr funktioniert...

Kanns sein, dass der Adaptec hinter dem PCIe-Bridge/Switch Chip sitzt?
 
Zuletzt bearbeitet:
Mit nem LSI Controller an dem die Platten hängen kann man die Werte recht gut über den MSM auslesen...

(Ansonsten ist meine Glaskugel leider bei der Wärme letzt geschmolzen... :fresse: ;))
 
Edit:
Sagen wir es korrekt "2TB für ein LUN im Datastore" (und dann den Datastore "erweitern" in den Eigenschaften, oder?) - darum hatte ich ja auch gesagt er solle mal 1,9 als LUN erstellen...

Kann ich nicht bestätigen...
Wir haben schon 2,5TB+ FC LUNs gehabt, welche out of the box vom ESX gefressen werden...

EDIT:
Beispiel: (klick mich groß)
Unbenannt.png
 
Zuletzt bearbeitet:
Edit2:
Zumal VT/d ausmachen in seinem Fall ja nicht die Lösung sein kann weil dann der andere Controller nicht mehr funktioniert...

Kanns sein, dass der Adaptec hinter dem PCIe-Bridge/Switch Chip sitzt?

Öhm - ja.. sitzt auf dem untersten PCIe x8 Slot, wegen der starken Abwärme:
vtd.png
 
Geht's auch mit der DualPort NIC? Die oberen beiden Slots sind x8, die unteren beiden x4 und der LSI ist x8.
 
Das war wohl ein Satz mit X :S Der nimmt die Bridge einfach mit:

vtd2.png

Nee :/ War mir jetzt klar dass ich die gleichen Probleme habe. In dem Port konnte ich die Platte dann übrigens auch nicht direktformatieren. Ich teste mal mit ner 1.5TB Partition direkt am RAID (ein Hoch auf KVM ;))
 
Zuletzt bearbeitet von einem Moderator:
Hallo,

habe ein eigenartiges Phänomen.
Vielleicht kann mir jemand weiter helfen.

Bei meinen ESXi 5 (24/7 betrieb) bleibt das Management Network immer hängen.
Ein Connect via vSphere Client ist dann unmöglich.
Was hilft ist direkt an den Server zu gehen und das Management Network per Hand neu zu starten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh