ESX / ESXi - Hilfethread

Moin,
z.B. um welche Devices geht das bei diesen Einträgen und was kann/soll/muß/darf ich daraus ableiten:
Code:
2017-01-21T19:02:01.887Z cpu0:37881)WARNING: PCI: 157: 0000:00:00.0: Bypassing non-ACS capable device in hierarchy

2017-01-21T18:04:54.943Z cpu8:35713)WARNING: NetDVS: 660: portAlias is NULL

0:00:00:08.880 cpu0:32768)WARNING: PCI: 1275: No resources for device: 0000:ff:1e.3, BAR[0]: 0x10, size: 16, type: 0x3, flags: 0x6

Was soll mir das sagen:
Code:
2017-01-21T19:01:53.393Z cpu0:37881)WARNING: NFS41: NFS41_VSIGetMaxQueueDepth:3509: Invalid arg count! (0): Usage <FS>
2017-01-21T19:01:53.393Z cpu0:37881)WARNING: NFS41: NFS41_VSIGetShares:3385: Invalid arg count! (0): Usage <FS> <worldID>


Welcher USB Storage, es ist keiner angeschlossen:
Code:
2017-01-23T05:47:43.994Z cpu0:33265)WARNING: LinScsiLLD: scsi_add_host:573: vmkAdapter (usb-storage) sgMaxEntries rounded to 255. Reported size was 65535
2017-01-23T05:47:44.226Z cpu12:33265)WARNING: LinScsiLLD: scsi_add_host:573: vmkAdapter (usb-storage) sgMaxEntries rounded to 255. Reported size was 65535
2017-01-23T05:47:44.458Z cpu1:33265)WARNING: LinScsiLLD: scsi_add_host:573: vmkAdapter (usb-storage) sgMaxEntries rounded to 255. Reported size was 65535

Sind hier zu viele Dateien auf dem ESXi göffnet und wenn ja, warum?
Code:
2017-01-21T18:01:23.743Z cpu4:33506)WARNING: MaxFileHandles: 9600, Prealloc 1, Prealloc limit: 32 GB, Host scaling factor: 1



Ich habe am Samstag Nachmittag in einem anderen Server den Speicher getauscht, dafür mußte ich den Switch umpositionieren, da der auf dem Serverdeckel lag.
Dafür habe ich die beiden Netzwerkkabel vom ESXi kurfristig gezogen.
Der ESXi ist mit beiden 10GBE Ports an einem 10GBE-Switch (D-Link DXS-1210-10TS 10GbE Smart Managed Switch) angeschlossen, auf dem Switch selbst ist kein Trunking eingerichtet.
Der Kollge, der das eingerichtet hat meinte DAS würde den internen v-switch beschleunigen - ich frage mich allerdings wie das gehen soll.
Extern ist eigentlich nur ein NAS mit 10 GBE zu "füttern" (Online-Datensicherung), der andere Server hat nur GBit und benötigt kaum Transferleistung und dann ist da noch das Internet mit max 32 MBit.
Ein 10 GBE Link wird zu keiner Zeit mehr als ca. 30% ausgelastet

Ich habe die Netzwerkkabel wieder angeschlossen, am 2. Server den Speicher getauscht (Es stellte sich im Nachhinein heraus, daß die Programmabstürze durch was ganz anderes verursacht wurden.).
Die Netzwerkzugriffe (SMB, Datenbank etc.) liefen alle.

Ich kann nicht mehr genau sagen, wann es losging, da die vmkwarnings.log bereits komplett voll war, es muß etwa 10-30 Minuten Später losgegangen sein, daß der ESXi sämtliche externen Netzverbindungen totgelegt hat.
Erschreckenderweise war auch der BMC/IPMI via dedicated LAN Port nicht mehr erreichbar.
Direkt auf der ESXi Konsole konnte ich die IP Adressen der VMs anpingen, aber keine IP-Adresse ausserhalb (Switch, Router/Gateway, NAS etc.)

Code:
2017-01-21T17:50:46.230Z cpu15:33219)WARNING: LinNet: netdev_watchdog:3680: NETDEV WATCHDOG: vmnic0: transmit timed out
2017-01-21T17:50:47.233Z cpu18:33223)WARNING: LinNet: netdev_watchdog:3680: NETDEV WATCHDOG: vmnic1: transmit timed out
Unterbrochen wurde die Eintrags-Flut ab und an durch Meldungen dieser Art:
Code:
cpu17:33208)<6>ixgbe 0000:03:00.0: vmnic0: Fake Tx hang detected with timeout of 160 seconds
33223)<4>ixgbe 0000:03:00.0: vmnic0: -1 Spoofed packets detected"

Meine Vermutung: Ich habe die Kabel beim wiederanschliessen vertauscht und ESXi hat das erkannt und daraufhin die Netzverbindungen wegen vermutetem Hackerangriff gekappt.
Ich frage mich allerdings, wie ESXi den BMC ebenfalls abschotten kann.

Aktuell steht bei "VM Network"

Sicherheitsrichtlinie Promiscuous-Modus zulassen : Nein
Gefälschte Übertragungen zulassen: Ja
MAC-Änderungen zulassen: Ja

Netzwerkkarten-Gruppierungsrichtlinien

Switches benachrichtigen :Ja
Richtlinie: Lastenausgleich basierend auf der Quell-ID
Umkehrrichtlinie : Ja
Rollender Auftrag : Nein
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Switches benachrichtigen :Ja
Richtlinie: Lastenausgleich basierend auf der Quell-ID
Mit dieser Konfiguration am vSwitch sollte die Netzwerkkonfiguration passen.
Es wird dabei anhand der Quell-ID einmalig festgelegt über welche Netzwerkkarte die Kommunikation laufen soll und nur bei einem Link ausfall wird das geändert. Dazu muss am Switch nichts konfiguriert werden.

Deine Netzwerkmeldungen sehen nach folgendem bug aus: https://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2124669
Das sollte aber in 6.0 U1a gefixt sein und du hast 6.0U2, hmm
 
Den Link hatte ich auch schon gefunden.

Ich schätze eher, daß mein Kollege diese Einstellumgen nach dem Ausfall mal ganz klammheimlich geändert hat.
Gefälschte Übertragungen zulassen: Ja
MAC-Änderungen zulassen: Ja


Gerade eine aktuelle Meldung von Gestern aus vmkernel.log, keine korrespondierenden Einträge im N4F log oder andern ESXi logs für mich erkennbar.
Code:
2017-01-26T11:02:59.682Z cpu12:34921 opID=2725bc94)World: 15527: VC opID 9090e9f3 maps to vmkernel opID 2725bc94
2017-01-26T11:02:59.682Z cpu12:34921 opID=2725bc94)FSS: 5760: Conflict between buffered and unbuffered open (file 'NAS4Free-flat.vmdk'):flags 0x4008, requested flags 0x40001
2017-01-26T11:02:59.682Z cpu12:34921 opID=2725bc94)FSS: 6245: Failed to open file 'NAS4Free-flat.vmdk'; Requested flags 0x40001, world: 34921 [hostd-worker], (Existing flags 0x4008, world: 35541 [vmx]): Busy
N4F liegt auf der System- / ESXi- SSD

syslog.log (ESXi)
Code:
2017-01-26T10:55:01Z syslog[283553]: starting hostd probing.
2017-01-26T11:00:01Z crond[33548]: crond: USER root pid 283707 cmd /usr/lib/vmware/vmksummary/log-heartbeat.py
2017-01-26T11:00:01Z crond[33548]: crond: USER root pid 283708 cmd /sbin/hostd-probe ++group=host/vim/vmvisor/hostd-probe
2017-01-26T11:00:01Z syslog[283709]: starting hostd probing.
2017-01-26T11:01:01Z crond[33548]: crond: USER root pid 283746 cmd /sbin/auto-backup.sh
2017-01-26T11:02:18Z smartd: smartmgt: plugin /usr/lib/vmware/smart_plugins/libsmartnvme.so is already loaded
2017-01-26T11:02:18Z smartd: smartmgt: plugin /usr/lib/vmware/smart_plugins/libsmartmicron.so is already loaded
2017-01-26T11:02:18Z smartd: libsmartsata: is_ata_smart_device:5 buf[82]:1 rc:0
2017-01-26T11:02:18Z smartd: libsmartsata: is_ata_smart_enabled ata fd:5 val:1
2017-01-26T11:02:18Z smartd: libsmartsata: ATA SMART device vid:ATA     Samsung SSD 850  pid:Samsung SSD 850
2017-01-26T11:02:18Z smartd: libsmartsata: closing fd:5
2017-01-26T11:05:01Z crond[33548]: crond: USER root pid 284078 cmd /sbin/hostd-probe ++group=host/vim/vmvisor/hostd-probe
2017-01-26T11:05:01Z syslog[284079]: starting hostd probing.
2

syslog.log (N4F)
Code:
Jan 26 11:45:10 [TABLE="width: 100%"]
[TR]
[TD="class: listlr"][/TD]
[TD="class: listr"]apl-storage[/TD]
 [TD="class: listr"]smbd[8529]: [2017/01/26 11:45:10.778045,  1] ../source3/smbd/process.c:1524(switch_message)[/TD]
 [/TR]
 [TR]
 [TD="class: listlr"]Jan 26 10:58:36[/TD]
 [TD="class: listr"]apl-storage[/TD]
 [TD="class: listr"]smbd[8515]:   accept: Software caused connection abort[/TD]
 [/TR]
 [TR]
 [TD="class: listlr"]Jan 26 10:58:36[/TD]
 [TD="class: listr"]apl-storage[/TD]
 [TD="class: listr"]smbd[8515]: [2017/01/26 10:58:36.623180,  0] ../source3/smbd/server.c:586(smbd_accept_connection)[/TD]
[/TR]
[/TABLE]
 
Zuletzt bearbeitet:
Habt ihr eine Empfehlung bezüglich Hardware Raid Controller für einen neuen ESXi Server?

Plane aktuell in Richtung:

Intel Xeon E5-1620 v4, 4x 3.50GHz, boxed
Supermicro SNK-P0050AP4
Supermicro X10SRi-F retail
2x Samsung DIMM 32GB, DDR4-2400, CL17-17-17, reg ECC
Cooler Master V-Series V550 550W ATX 2.31

Ich will auf jeden Fall bei einem Host inkl. lokalem Storage bleiben. So ein All in One mit NFS Freigabe von NappIT o.ä. schreckt mich auch etwas ab.
Also komm ich um einen Controller samt Cache der auch sehr gut mit SSDs umgehen kann nicht rum.

Hänge momentan bei einem LSI MegaRAID SAS 9271-8i, PCIe 3.0 x8 inkl. BBU fest.
Der kostet halt nicht wenig und ich frage mich ob es nicht andere günstigere Lösungen dafür gibt?

Wäre dann so der ESXi kommt auf einen USB Stick, Datastore für VMs wäre dann ein SSD Raid1 und zwei HDD Raid1 oder ein HDD Raid 10 aus 4 Stück.

Die Rampreise schrecken mich aktuell auch noch ab wenn man bedenkt wie günstig die schon mal waren.. 100€ weniger pro Riegel.
 
Zuletzt bearbeitet:
Thema 10Gb-Point-to-Point Backup mit 2 ESXI Servern

Moin,

ich habe mir nun 2x 10GB Karten gekauft, werden erkannt und funzen mit esxi6u2.
Nun hab ich verständnisfragen wie ich das am besten aufsetze.

Ziel wäre die vms vom linken esxi auf den rechten per veeam-vm(auf esxi2) über eine 10gb-verbindung zu backupen.
Jemand einen plan wie ich das vernetzen muss? (habe keine lwl-switch und will eigentlich auch keinen).

10g-schema12k3m.jpg


Für tipps wie ich das am besten vernetze wäre ich sehr dankbar :)
 
Zuletzt bearbeitet:
Physikalisch ist das ja schon so verbunden wie es sein muss, nun musst Du nur noch die vSwitches etc. konfigurieren.

  • vSwitch auf dem Produktiv-Host mit (zusätzlicher) Management-IP 10.10.10.10 und zugeordneter Netzwerkkarte LWL-1
  • vSwitch auf dem Backup-Host mit (zusätzlicher) Management-IP 10.10.10.20 und zugeordneter Netzwerkkarte LWL-2
  • Die Backup-VM bekommt dann eine vNIC, die dem vSwitch mit LWL-2 zugeordnet ist, z.B. mit IP 10.10.10.30, und der Produktiv-Host wird dann in Veeam selbst über die IP 10.10.10.10 eingebunden, damit gehen die Sicherungsdaten zwangsläufig über die 10G-Verbindung
  • Die Backup-VM bekommt eine weitere vNIC, die dem vSwitch mit nicB zugeordnet ist, und kann dort eine IP 192.168.0.x erhalten, damit Du die aus dem Client-Netzwerk erreichen kannst
 
Physikalisch ist das ja schon so verbunden wie es sein muss, nun musst Du nur noch die vSwitches etc. konfigurieren.

  • vSwitch auf dem Produktiv-Host mit (zusätzlicher) Management-IP 10.10.10.10 und zugeordneter Netzwerkkarte LWL-1
  • vSwitch auf dem Backup-Host mit (zusätzlicher) Management-IP 10.10.10.20 und zugeordneter Netzwerkkarte LWL-2
  • Die Backup-VM bekommt dann eine vNIC, die dem vSwitch mit LWL-2 zugeordnet ist, z.B. mit IP 10.10.10.30, und der Produktiv-Host wird dann in Veeam selbst über die IP 10.10.10.10 eingebunden, damit gehen die Sicherungsdaten zwangsläufig über die 10G-Verbindung
  • Die Backup-VM bekommt eine weitere vNIC, die dem vSwitch mit nicB zugeordnet ist, und kann dort eine IP 192.168.0.x erhalten, damit Du die aus dem Client-Netzwerk erreichen kannst

Eye-Q Vielen lieben dank dir, das setz ich gleich mal nach dem Schema auf und teste es :d
Wird bei den 10er Adressen kein Gateway eingetragen? mir wird schon voreingestellt der aus dem 192er netz gesetzt (kann ich das so lassen?) im esxi-Switch.
 
Nein, da wird kein Standardgateway benötigt. Mal kurz überlegen, wofür das Standardgateway eigentlich da ist: wenn ein Netzwerkgerät nicht weiß, wo Pakete hin sollen, weil die nicht an andere Geräte im selben Subnetz geschickt werden sollen, werden die an das Standardgateway geschickt. Da die Verbindung der beiden Hosts untereinander weder in ein anderes Netzwerk außer dem eigenen Subnetz muss noch es in diesem Subnetz irgendein Gerät gibt, was in andere Subnetze routen könnte, wird der Standardgateway-Eintrag nicht benötigt.
 
ja das hast du recht :)

jetzt stelle ich noch fest das der Backup-Speed vom Storage der blauen-Backupvm abhängt. dieser liegt aber nicht dirket in der backup-vm an.

Der Share ist ein Raid5-XPEnology (ca 400mb read/write) auch auf esxi2 und deren storage ist für die veeam-vm ja nur über Lan erreichbar.

Damit ich also was vom 10gbe habe müsste ich die XPE auch noch mit an den lwl2 hängen right? von der 10gb-gesamtbandbreite müsste es dann ja reichen da der transfer von veaam-vm zu xpe-vm nur maximal 400mb/s sein kann, right ? (worstcase müsste also 800mb/s traffic auf der lwl2 sein) stimmt das so ?

wenn ich wollte das die veeam-vm direkt den storage befüllen kann (ohne umwege über ne lan-vm), müsste ich einen raidcontroller kaufen, daher hatte ich das über ne xpe-vm gelöst.
 
Zuletzt bearbeitet:
jetzt stelle ich noch fest das der Backup-Speed vom Storage der blauen-Backupvm abhängt.
Wie hoch ist denn die Übertragungsrate? Das, was Veeam anzeigt, ist durch Deduplizierung und Komprimierung eventuell nicht das, was über das Netzwerk übertragen wird.

dieser liegt aber nicht dirket in der backup-vm an.

Der Share ist ein Raid5-XPEnology (ca 400mb read/write) auch auf esxi2 und deren storage ist für die veeam-vm ja nur über Lan erreichbar.
Die Veeam-VM und die XPEnology-VM sind über den vSwitch im ESXi2 verbunden, da sind deutlich mehr als 1 Gbit/s drin, je nachdem was für virtuelle Netzwerkkarten eingerichtet sind. Mit VMXNet3 sind das virtuelle 10 Gbit/s-Karten, die Daten gehen nicht aus dem vSwitch über die physikalische 1 Gbit/s-Verbindung.
 
Wie hoch ist denn die Übertragungsrate? Das, was Veeam anzeigt, ist durch Deduplizierung und Komprimierung eventuell nicht das, was über das Netzwerk übertragen wird.

Also im Windows-Taskmanager von der Veeam-VM steht ~1,5GBit durchsatz während eine 18gb-vm komplett neu wiederhergestellt wird.

Die Veeam-VM und die XPEnology-VM sind über den vSwitch im ESXi2 verbunden, da sind deutlich mehr als 1 Gbit/s drin, je nachdem was für virtuelle Netzwerkkarten eingerichtet sind. Mit VMXNet3 sind das virtuelle 10 Gbit/s-Karten, die Daten gehen nicht aus dem vSwitch über die physikalische 1 Gbit/s-Verbindung.

Bei Veeam steht 200mb/s

Ist es ratsam die MTU für all 10G adapter (also in jedem esxi-switch und in der veeam-vm der vmx3 adapter) auf 9000 hochzustellen (jumboframes) ?
Habe das mal testweise gemacht und nun sind es 1,8gbit durchsatz und ~247mb/s in veeam.

mtu-90000qo4k.jpg
 
Also im Windows-Taskmanager von der Veeam-VM steht ~1,5GBit durchsatz während eine 18gb-vm komplett neu wiederhergestellt wird.
Na dann ist das physikalische Netzwerk nicht primär der Flaschenhals, sondern entweder die Quelle oder das Ziel.

Ist es ratsam die MTU für all 10G adapter (also in jedem esxi-switch und in der veeam-vm der vmx3 adapter) auf 9000 hochzustellen (jumboframes) ?
Habe das mal testweise gemacht und nun sind es 1,8gbit durchsatz und ~247mb/s in veeam.
Ja, da das ja nur Backup und nichts anderes macht, sind Jumboframes empfehlenswert. Auch im XPEnology sollten Jumboframes aktiviert werden, weil die Daten ja auch durch diesen Netzwerkstack gehen. Wie ist Veeam eingestellt, also wie viele Streams werden gleichzeitig übertragen, ist der Backup-Job auf Incremental oder Reverse Incremental eingestellt? Es gibt sicherlich noch ein paar Stellschrauben, aber die 400 MB/s, die roh anliegen, wirst Du wahrscheinlich nicht erreichen können, weil eben zwei Netzwerkstacks zwischen Quelle und Ziel liegen und somit dementsprechend immer Overhead vorhanden ist.
 
Pfft günstige Serverchen werden bald nicht mehr unterstützt :motz: In dem IBM X3650 M3 sind 2 x LGA 1366 4 Kerner Cpu verbaut.
 
Sind ja doch schon fast 7 Jahre seit dem Release vergangen. Ist jetzt halt fraglich was mit "future ESXi releases" gemeint ist.
Ich gehe von Major Release und nicht von reinen Updates aus - wäre dann ESXi 7.0, bis zum Release vergehen sicher noch 1-2 Jahre.
Ist also halb so wild.
 
Habt ihr eine Empfehlung bezüglich Hardware Raid Controller für einen neuen ESXi Server?

Plane aktuell in Richtung:

Intel Xeon E5-1620 v4, 4x 3.50GHz, boxed
Supermicro SNK-P0050AP4
Supermicro X10SRi-F retail
2x Samsung DIMM 32GB, DDR4-2400, CL17-17-17, reg ECC
Cooler Master V-Series V550 550W ATX 2.31

Ich will auf jeden Fall bei einem Host inkl. lokalem Storage bleiben. So ein All in One mit NFS Freigabe von NappIT o.ä. schreckt mich auch etwas ab.
Also komm ich um einen Controller samt Cache der auch sehr gut mit SSDs umgehen kann nicht rum.

Hänge momentan bei einem LSI MegaRAID SAS 9271-8i, PCIe 3.0 x8 inkl. BBU fest.
Der kostet halt nicht wenig und ich frage mich ob es nicht andere günstigere Lösungen dafür gibt?

Wäre dann so der ESXi kommt auf einen USB Stick, Datastore für VMs wäre dann ein SSD Raid1 und zwei HDD Raid1 oder ein HDD Raid 10 aus 4 Stück.

Die Rampreise schrecken mich aktuell auch noch ab wenn man bedenkt wie günstig die schon mal waren.. 100€ weniger pro Riegel.


Leider hat dazu noch niemand etwas gesagt.. aber ich habe jetzt nachdem ich immer wieder Ebay beobachtet habe direkt hier zugeschlagen:
LSI SAS 9271-8i // 8-Port PCIe SAS/S-ATA Raid Controller // inkl. BBU + Kabel | eBay

zu dem Preis echt ok oder? Sogar mit CacheVault wie es scheint.
Der Cache von 512MB ist sicher nur falsch angegeben, hab den immer nur mit 1GB DDRIII gefunden.
 
Zuletzt bearbeitet:
Extrem niedrige Übertragungsrate

Hab eine Crucial MX100 512GB in ein T20 mit ESXi 6.5 eingebaut um die VM´s darauf zu betreiben. Das Vorhaben ist irgendwie gründlich in die Hose gegangen. Bei Kopieren von Daten auf die SSD ist es mir bereits aufgefallen das die Übertragungsrate sehr schlecht ist. Laut dem Link komme ich gerade auf 3 MByte/s.

Die Platte war vorher in meinem Hauptrechner drin ohne Probleme und ESXi ist frisch Installiert. Das ESXi Image von Dell habe ich auch bereits Probiert mit gleichem Ergebnis. Eine normale Platte ergibt deutlich besserer Ergebnisse.
Irgendeiner eine Idee was es sein könnte.
 
Zuletzt bearbeitet:
Schau mal in dein Log ob da was drinsteht.
 
Danke für den Tipp. Habe fürs erste einen Hinweis im T20 Sammelthread gefunden. Da wir auf folgenden Link verwiesen. Werde es mal damit Probieren.

Nachtrag:
SSD hat mit dem Tip aus dem Link die Handbremse gelöst :d. Normale Platten unverändert aber da waren die Werte auch im Normalen Bereich.
 
Zuletzt bearbeitet:
Ich hatte heute auch etwas komisches. Auf einem Host (ESXI 6.0U2) laufen 6 Vm 24/7 und eine davon wird Nonstop benutzt (relative wenig Last). Das System läuft seit 6 Monaten (2 Neustarts dazwischen wegen Umbau) so unverändert, und heute auf einmal meinte die VM das sie einfach herunterfährt. Das hat sie circa 5 mal gemacht und im Log von ESXI stand nur Power on und Power off (also keine Fehlermeldungen).

Der Zeitrahmen bis zum (normalen) herunterfahren war zwischen 10 und 20 Minuten. Im Administrativem Log von Windows (Win 10 x64) hatte ich zuhauf Wmi Fehler die ich auf die VM Tools geschoben habe. Vm Tools repariert keine Änderung, erst eine komplette Deinstallation und Neuinstallation der Tools hat das Problem gelöst.

Hatte jemand das Problem in diese Form schon einmal ? Und wie kann ich verhindern das so etwas noch einmal auftritt?
 
Hallo zusammen,

ich habe vor einigen Tagen die ESXi 5.5 Installation auf meinem HP ML 10v2 Server auf die neuere ESXi 6.5 geupdatet. Seither ist es mir nicht mehr möglich meine Festplatten per "Raw Device Mapping" an meine VMs durchzureichen.
Ich habe schon alles mögliche versucht, das installieren von neuen Treibern direkt von der HP Seite, das Upgraden von 5.5 auf 6.5 (anstatt einer kompletten NEU Installation weil ich dachte so bleiben eventuell die Treiber erhalten) aber nichts hilft mir weiter.
Ich bin am verzweifeln!
Könnt ihr mir helfen?
Gibt es eine Möglichkeit die ganzen Treiber einer 5.5 Installations ISO in eine 6.5 Installations ISO zu packen? So das ich zwar die Funktion einer 6.5 Installation habe aber die Treiber und dergleichen einer 5.5?
Das es Customer ISOBuilder gibt weiß ich zwar aber leider hab ich keine Ahnung wie ich die ganzen Treiber .vib Files aus der 5.5 ISO extrahieren soll bzw. wo ich diese im Netz finden kann um sie zu integrieren.
Für eure Hilfe wäre ich sehr dankbar

Grüße
Psygonx
 
soweit ich mich an das letzte Datasheet des ESXI 6.5 erinnere, ist der ML10v2 nicht in der Supported liste. Welche ISO hast du genommen? Die vom MS GEN8?
 
sleep 5;time vmkfstools -c 10G
-d eagerzeroedthick -a lsilogic disk01.vmdk;time vmkfstools -i disk01.vmdk disk
02.vmdk;rm disk0* -f
Option --adaptertype is deprecated and hence will be ignored
Creating disk 'disk01.vmdk' and zeroing it out...
Create: 100% done.
real 0m 12.79s
user 0m 11.54s
sys 0m 0.00s
Destination disk format: Thin
Cloning disk 'disk01.vmdk'...
Clone: 100% done.
real 0m 7.10s
user 0m 9.34s
sys 0m 0.00s

Frage:
real + user + sys = tatsächliche Zeit
oder
user ist Teil von Real(er) Zeit

BTW. ist der Userteil hoch?
 
mittlerweile hab ich das erstellen einer RDM HDD unter ESXi 5.5 hinbekommen allerdings bekomme ich jetzt beim Starten der VM die Meldung das die Festplatte (also in dem Fall mein RDM Pointer) nicht gesperrt werden kann.
Was bedeutet das für mich? Wie bekomme ich das in Griff? Google hilft mir irgendwie nicht viel weiter.
 
Guten Abend :)

ich habe eine kleine Frage bezüglich ESXi vom USB-Stick starten & anschließend durchreichen des USB-Controllers an eine VM (USB-Passthrough). Ich hatte vor einiger Zeit schon einmal damit rumgespielt - hatte auch geklappt. Allerdings hatte ich seit dem Probleme mit ESXi. Nach einem Neustart war z.B. immer meine Bestandsliste leer sowie Einstellungen (wie z.B. ein nachträglicher PCI-Passthrough) wieder verworfen. Deshalb habe ich vor letzte Woche ESXi neu installiert & siehe da, alles läuft wieder. Auch die Bestandslisten sind nun nach dem Neustart wieder da.

Ich nehme an, dass ESXi seine Konfiguration nicht mehr zurückschreiben kann, da der USB-Controller an die VM weitergegeben wurde. Ist das richtig?

Möchte mir zeitnah eine USV zulegen & diese dann via USB-Passthrough an eine VM weitergeben, welche für das runterfahren sorgt.

Bin nun ein wenig ratlos, wie ich das ganze bewerkstellige. Letztendlich bleibt mir ja nur der Kauf einer PCI - USB2.0 Karte, welche ich durchreiche?
 
So heute ist schon mal der erste Teil für meinen ESXi gekommen.
Firmware des Controllers sowie des CacheVault Moduls wurden auch gleich geupdated.
Da er ohne Luftstrom schnell mal >90° bekommt wurde gleich mal ein Lüfter draufgesetzt. Bei einem Testraid mit 3 alten 1,5TB Platten waren es dann 60°

Ansonsten läuft der erstmal problemlos, alle Features sind freigeschaltet, so gefällt das. Guter Kauf für den Preis.



 
Jemand schonmal erfolgreich ne vSphere 6.0U2 Umgebung auf 6.5 upgedatet?
Ich krieg hier nen Koller mit dem Mist...

Ist Stand:

Multi Site Environment, zwei Sites, jeweils ein PSC als Appliance + ein VC als Appliance, diverse Hosts an den VCs dran...
Das Update der PSC schlägt mit:
"Error setting DNS configuration. Details : Operation Failed.. Code: com.vmware.applmgmt.err_operation_failed
Failed to set DNS
"
...fehl. Ist ein known Issue bei VMware, Problem dabei, der Workarround, entweder IPv4 oder IPv6 zu deaktivieren hilft nicht... Was tun?
Es gibt diverse Meldungen darüber im Netz nur geht bei denen das mit dem deaktivieren -> das tut es hier aber nicht. Scheint mir irgendwo ein Problem zu sein, dass es möglicherweise IPv6 nicht vollständig rausnimmt. Warum auch immer...

Das Update auf die letzte 6.0er Version hingegen läuft sauber. Aber da wird ja "nur" die Appliance geupdatet, nicht eine Migration durchgeführt. Ich hab aktuell keinen Plan, wie ich das fixen soll...
 
Jo, ich bin nun bestimmt beim 30. Versuch den ersten! PSC zu aktualisieren. Ob mit IPv6 only oder IPv4 only, ob mit FQDN oder IP, alles wurscht, die Meldung bleibt identisch...
Was halt auch komisch ist, ich bekommen auf beiden Quell PSCs beim umändern der IP Settings ne Fehlermeldung über die Konsole, dass da irgendwas mit DNS nicht konfigurierbar ist. Soweit ich das in Erinnerung hab, ist das Ändern des Names so ohne weiteres nicht. Aber den dreh ich ja gar nicht... Scheint aber auch irgendwie ein known Issue zu sein und gab seinerzeit schon Trödel mit dem Ausrollen der Appliances (doppelter DNS Server beim Deployment -> fail, NTP beim Deployment -> fail usw.)

Zugute halten muss man VMware aber in dem Fall, der Source PSC bleibt am Leben und wird nur runtergefahren :fresse:

Bin mittlerweile fast drauf und dran, den Spaß einfach platt zu machen und komplett von der grünen Wiese neu aufzuziehen :(
Weist du, ob man die Performancecounter/daten mitnehmen kann? Irgendwie aus der DB raus und beim neuen wieder rein dürfte nicht gehen wegen möglicherweise anderen IDs... Und der Host selbst hält ja nur Echzeitdaten mit maximal einer Stunde.
Der Rest wäre mir ja noch fast egal, die ganzen Konfigsachen kann man via Powershell exportieren und dann wieder rein bringen. Aber die Counter wären für uns recht wichtig.

EDIT: die genaue Meldung beim Change der IP Settings auf dem Source PSC ist "Setting DNS failed: ('DNS configuration failed',)

EDIT2: auch das mit dem DNS schon probiert. Der gibt nur v4 zurück im Moment. Auch nur sowie DNS und statische Hosteinträge probiert -> gleicher Effekt.

EDIT3: Sowas steht auch im Log: "[7605]ERROR:root:Failed to load status file /var/log/vmware/upgrade/export.json: 'NoneType' object has no attribute '__getitem__'"
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh