ESX / ESXi - Hilfethread

Ja, das Ding das VMWare Embedded Host Client nennt. Das war von Anfang an unerträglich langsam, und häufig ist das Laden der Seite sogar mit Timeout abgebrochen. Nach einigen Patches wurde es nach und nach etwas flotter, so dass es wenigstens nicht mehr zu Timeouts kommt, aber vom Klicken des Links bis zur Eingabe der Logindaten dauert es immer noch ca. zwei Minuten. Und ich bin da wohl auch keine Ausnahme

Auch das Laden der einzelnen Seiten im Client dauert extrem lange, ist aber nicht ganz so übel wie der Login..

Die Hardware sollte mit 16GB Ram, von denen nur 8GB genutzt werden und Xeon QuadCore wohl ausreichend sein um eine HTML5-Site zu servieren. Auch die VMs und der Zugang per SSH laufen problemlos und schnell. Nur dieses grausame Webinterface bekommt's nicht auf die Reihe.. :(
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja, das Ding das VMWare Embedded Host Client nennt. Das war von Anfang an unerträglich langsam, und häufig ist das Laden der Seite sogar mit Timeout abgebrochen. Nach einigen Patches wurde es nach und nach etwas flotter, so dass es wenigstens nicht mehr zu Timeouts kommt, aber vom Klicken des Links bis zur Eingabe der Logindaten dauert es immer noch ca. zwei Minuten. Und ich bin da wohl auch keine Ausnahme

Auch das Laden der einzelnen Seiten im Client dauert extrem lange, ist aber nicht ganz so übel wie der Login..

Die Hardware sollte mit 16GB Ram, von denen nur 8GB genutzt werden und Xeon QuadCore wohl ausreichend sein um eine HTML5-Site zu servieren. Auch die VMs und der Zugang per SSH laufen problemlos und schnell. Nur dieses grausame Webinterface bekommt's nicht auf die Reihe.. :(

Moin welche Esxi Version läuft bei dir? Mit Esxi 6.5.0 Update 1 und 2 keinerlei Probleme. Unter 6.7 ebenfalls nicht. Kleine Anmerkung das ist ein Flash/HTML Mix. Der neue vCenter WebClient ist HTML5 und echt super fix unterwegs dem fehlen aber noch ein paar Einstellungsmöglichkeiten.

Gruß Niklas
 
Auch hier: Login vom Hostclient ist nach 1s da. Host ist ein E5v4 XEON, RAM ist fast vollständig ausgebucht.
 
Hostclient heist kein VCSA? - der 6.5er is als direkte Appliance von VMware etwas schneller als der auf Windows-Server basis.
Aber gut, der Weg dahin ist ja schon vorgegeben. - haben die den Domain-Name Fehler schon behoben in 6.7? - kann es aktuell nicht testen, aber eine Domain muss mit buchstaben beginnen... weil quasi lan.1-to-1.local geht nicht. - weil es ja mit einer ZAHL beginnt *grml* - blöd wenn man halt das AD und alles schon auf eine solche Domain eingestellt hat - klappt dann kein SSO :(
 
Also was ich meine ist dieses UI hier:

esxi.png

Flash ist da anscheinend nicht im Spiel, die UI lädt auch bei deaktiviertem Flash-Plugin.
Dieses Web-UI war von Anfang an unbenutzbar langsam, seitdem ich damals bei 5.5 oder 6.0 den Windows-Client aufgegeben habe. Über die Updates zu 6.5 und auf 6.7 hat es sich deutlich gebessert, ist aber immer noch eine Qual.

Es dauert ca. 10 Sekunden, bis alleine der blaue Hintergrund geladen wurde.
Dann dauert es weitere 40 Sekunden, bis die Login Zeilen erscheinen und man die Zugangsdaten eingeben kann.
Nach Eingabe der Zugangsdaten dauert es ca. 70 Sekunden, bis das UI vollständig geladen wurde.

Gibt's denn nun eine bessere Alternative für Free-User, oder nicht?
 
Zuletzt bearbeitet:
Hmmm... ich hatte damit bisher keine Probleme.... 6.0, 6.5 oder 6.7.

EDIT: nutze den Chrome-Browser.
 
Zuletzt bearbeitet:
Welchen Browser nutzt du? Empfehlen kann ich für Esxi Host Client entweder Chrome oder Internet Explorer. Wobei ich den IE preferiere damit läuft Esxi Host Client sowohl vSphere Web Client geschmeidig.
 
Ich benutze den Firefox, bzw. inzwischen den Waterfox. Durch den Waterfox hat sich die Seite etwas beschleunigt. Unter Chrome ging das UI ganz zu Anfang, als es neu war und unter Firefox immer Timeouts gab, etwas besser, so dass man es nach einigen Versuchen dann irgendwie benutzen konnte.

Inzwischen (6.7) geht das UI unter Chrome gar nicht mehr und unter Waterfox schneller als damals unter Chrome... :rolleyes:
Gibt's denn eine Möglichkeit das Problem näher zu untersuchen?
 
Was hängt denn zwischen Host und Client (Kiste mit Browser) also irgendwas mit mehr Logik als ein Kupfer- oder Glasfaserkabel und nem doofen Switch?

Was ist der Host für eine Box und wie ist die CPU/RAM-Auslastung da drup?

Wirft ein längerer DauerPing zum Host packet loss oder sporadisch lange Laufzeiten?
 
Nö, nur ein doofer Switch, nicht managed.
Und jede Art von Zugriff auf die VMs, sowie sämtliche Fileübetragungen (bis zu ca. 100MByte/s, mehr lassen die Segate Archive HDDs im RAID-Z2 wohl auch kaum zu) usw. laufen auch problemlos.
Es ist nur das ESXI-UI was lahmt.
Der Host ist ein Dell Poweredge T20 mit Xeon E3-1225v3 und 16GByte RAM.

Der Ping über ca. 20 Sekunden sieht so aus:
ping esxi
PING esxi (192.168.1.55) 56(84) bytes of data.
64 bytes from esxi (192.168.1.55): icmp_seq=1 ttl=64 time=0.339 ms
64 bytes from esxi (192.168.1.55): icmp_seq=2 ttl=64 time=0.356 ms
64 bytes from esxi (192.168.1.55): icmp_seq=3 ttl=64 time=0.407 ms
64 bytes from esxi (192.168.1.55): icmp_seq=4 ttl=64 time=0.364 ms
64 bytes from esxi (192.168.1.55): icmp_seq=5 ttl=64 time=0.354 ms
64 bytes from esxi (192.168.1.55): icmp_seq=6 ttl=64 time=0.339 ms
64 bytes from esxi (192.168.1.55): icmp_seq=7 ttl=64 time=0.354 ms
64 bytes from esxi (192.168.1.55): icmp_seq=8 ttl=64 time=0.340 ms
64 bytes from esxi (192.168.1.55): icmp_seq=9 ttl=64 time=0.328 ms
64 bytes from esxi (192.168.1.55): icmp_seq=10 ttl=64 time=0.394 ms
64 bytes from esxi (192.168.1.55): icmp_seq=11 ttl=64 time=0.347 ms
64 bytes from esxi (192.168.1.55): icmp_seq=12 ttl=64 time=0.332 ms
64 bytes from esxi (192.168.1.55): icmp_seq=13 ttl=64 time=0.370 ms
64 bytes from esxi (192.168.1.55): icmp_seq=14 ttl=64 time=0.365 ms
64 bytes from esxi (192.168.1.55): icmp_seq=15 ttl=64 time=0.380 ms
64 bytes from esxi (192.168.1.55): icmp_seq=16 ttl=64 time=0.385 ms
64 bytes from esxi (192.168.1.55): icmp_seq=17 ttl=64 time=0.349 ms
64 bytes from esxi (192.168.1.55): icmp_seq=18 ttl=64 time=0.326 ms
64 bytes from esxi (192.168.1.55): icmp_seq=19 ttl=64 time=0.390 ms
64 bytes from esxi (192.168.1.55): icmp_seq=20 ttl=64 time=0.346 ms
64 bytes from esxi (192.168.1.55): icmp_seq=21 ttl=64 time=0.370 ms
64 bytes from esxi (192.168.1.55): icmp_seq=22 ttl=64 time=0.423 ms

Und die letzten Zeilen von dmegs sehen so aus:
2018-09-08T00:34:38.354Z cpu0:2099298)Config: 703: "SIOControlFlag2" = 0, Old Value: 1, (Status: 0x0)
2018-09-08T00:34:38.708Z cpu2:2099434)---------------- ---------------- ---------------- ---------------- ----------------
2018-09-08T00:34:38.708Z cpu2:2099434) name reserved,KB peakReserved,KB alloc,KB peakAlloc,KB
2018-09-08T00:34:38.708Z cpu2:2099434)---------------- ---------------- ---------------- ---------------- ----------------
2018-09-08T00:34:38.708Z cpu2:2099434) VMM 36860 40476 13144 13144
2018-09-08T00:34:38.708Z cpu2:2099434) PFRAME 16420 16420 16420 16420
2018-09-08T00:34:38.708Z cpu2:2099434) SWAP_CACHE 512 512 512 512
2018-09-08T00:34:38.708Z cpu2:2099434) CANDIDATE 4 4 4 4
2018-09-08T00:34:38.708Z cpu2:2099434) CHECKPOINT_BUF 256 256 0 0
2018-09-08T00:34:38.708Z cpu2:2099434) PSHARE_P2M 20 20 20 20
2018-09-08T00:34:38.708Z cpu2:2099434) CBRC 0 0 0 0
2018-09-08T00:34:38.708Z cpu2:2099434) FTCPT 0 0 0 0
2018-09-08T00:34:38.708Z cpu2:2099434) ASYNCREMAP 4 4 4 4
2018-09-08T00:34:38.708Z cpu2:2099434) VMMEMSERVICES 64 64 64 64
2018-09-08T00:34:38.708Z cpu2:2099434)FSR_UNSHARED_GBL 0 0 0 0
2018-09-08T00:34:38.708Z cpu2:2099434)---------------- ---------------- ---------------- ---------------- ----------------
2018-09-08T00:34:38.708Z cpu2:2099434)------------------------------ ------------ ------------ ------------ ------------ ------------
2018-09-08T00:34:38.708Z cpu2:2099434) name min,KB max,KB minLimit,KB eMin,KB rMinPeak,KB
2018-09-08T00:34:38.708Z cpu2:2099434)------------------------------ ------------ ------------ ------------ ------------ ------------
2018-09-08T00:34:38.708Z cpu2:2099434) vm.2099433 0 -1 -1 8458016 8463180
2018-09-08T00:34:38.708Z cpu2:2099434) worldGroup.2099433 0 -1 -1 804 804
2018-09-08T00:34:38.708Z cpu2:2099434) uw.2099433 8424 -1 -1 8424 10216
2018-09-08T00:34:38.708Z cpu2:2099434) vsiHeap.2099433 0 -1 -1 136 136
2018-09-08T00:34:38.708Z cpu2:2099434) pt.2099433 336 -1 -1 704 704
2018-09-08T00:34:38.708Z cpu2:2099434) cartelheap.2099433 0 -1 -1 296 296
2018-09-08T00:34:38.708Z cpu2:2099434) uwshmempt.2099433 0 -1 -1 0 0
2018-09-08T00:34:38.708Z cpu2:2099434) uwAsyncRemapHeap.2099433 0 -1 -1 136 136
2018-09-08T00:34:38.708Z cpu2:2099434) uwCrypt.2099433 4096 4096 4096 4096 4096
2018-09-08T00:34:38.708Z cpu2:2099434) uwregbmp.2099433 8 -1 -1 8 8
2018-09-08T00:34:38.708Z cpu2:2099434) vmm.2099433 8388608 -1 -1 8388608 8388608
2018-09-08T00:34:38.708Z cpu2:2099434) vmmanon.2099433 54140 -1 -1 54140 57756
2018-09-08T00:34:38.708Z cpu2:2099434) vmcpt.2099434 528 -1 -1 528 528
2018-09-08T00:34:38.708Z cpu2:2099434) vmmregbmp.2099433 0 -1 -1 0 0
2018-09-08T00:34:38.708Z cpu2:2099434) vmmAsyncRemapHeap.2099433 0 -1 -1 136 136
2018-09-08T00:34:38.708Z cpu2:2099434)------------------------------ ------------ ------------ ------------ ------------ ------------
2018-09-08T00:34:40.775Z cpu1:2099459)IOMMU: 2451: Device 0000:01:00.0 placed in new domain 0x43046ad7ff00.
2018-09-08T00:34:41.115Z cpu0:2099434)VSCSI: 2623: handle 8192(vscsi0:0):Reset request on FSS handle 853616 (0 outstanding commands) from (vmm0:FreeNAS2)
2018-09-08T00:34:41.115Z cpu0:2099434)VSCSI: 2623: handle 8193(vscsi0:1):Reset request on FSS handle 657006 (0 outstanding commands) from (vmm0:FreeNAS2)
2018-09-08T00:34:41.115Z cpu1:2097331)VSCSI: 2903: handle 8192(vscsi0:0):Reset [Retries: 0/0] from (vmm0:FreeNAS2)
2018-09-08T00:34:41.115Z cpu1:2097331)vmw_ahci[0000001f]: scsiTaskMgmtCommand:VMK Task: VIRT_RESET initiator=0x4306a84e4b80
2018-09-08T00:34:41.115Z cpu1:2097331)vmw_ahci[0000001f]: ahciAbortIO:(curr) HWQD: 0 BusyL: 0
2018-09-08T00:34:41.117Z cpu1:2097331)vmw_ahci[0000001f]: scsiTaskMgmtCommand:VMK Task: VIRT_RESET initiator=0x4306a84e4b80
2018-09-08T00:34:41.117Z cpu1:2097331)vmw_ahci[0000001f]: ahciAbortIO:(curr) HWQD: 0 BusyL: 0
2018-09-08T00:34:41.119Z cpu1:2097331)vmw_ahci[0000001f]: scsiTaskMgmtCommand:VMK Task: VIRT_RESET initiator=0x4306a84e4b80
2018-09-08T00:34:41.119Z cpu1:2097331)vmw_ahci[0000001f]: ahciAbortIO:(curr) HWQD: 0 BusyL: 0
2018-09-08T00:34:41.121Z cpu1:2097331)VSCSI: 2691: handle 8192(vscsi0:0):Completing reset (0 outstanding commands)
2018-09-08T00:34:41.121Z cpu1:2097331)VSCSI: 2903: handle 8193(vscsi0:1):Reset [Retries: 0/0] from (vmm0:FreeNAS2)
2018-09-08T00:34:41.121Z cpu1:2097331)vmw_ahci[0000001f]: scsiTaskMgmtCommand:VMK Task: VIRT_RESET initiator=0x4306a84e4f80
2018-09-08T00:34:41.121Z cpu1:2097331)vmw_ahci[0000001f]: ahciAbortIO:(curr) HWQD: 0 BusyL: 0
2018-09-08T00:34:41.123Z cpu1:2097331)vmw_ahci[0000001f]: scsiTaskMgmtCommand:VMK Task: VIRT_RESET initiator=0x4306a84e4f80
2018-09-08T00:34:41.123Z cpu1:2097331)vmw_ahci[0000001f]: ahciAbortIO:(curr) HWQD: 0 BusyL: 0
2018-09-08T00:34:41.126Z cpu1:2097331)vmw_ahci[0000001f]: scsiTaskMgmtCommand:VMK Task: VIRT_RESET initiator=0x4306a84e4f80
2018-09-08T00:34:41.126Z cpu1:2097331)vmw_ahci[0000001f]: ahciAbortIO:(curr) HWQD: 0 BusyL: 0
2018-09-08T00:34:41.128Z cpu1:2097331)VSCSI: 2691: handle 8193(vscsi0:1):Completing reset (0 outstanding commands)
2018-09-08T00:34:48.297Z cpu1:2099434)VSCSI: 2623: handle 8192(vscsi0:0):Reset request on FSS handle 853616 (0 outstanding commands) from (vmm0:FreeNAS2)
2018-09-08T00:34:48.297Z cpu1:2099434)VSCSI: 2623: handle 8193(vscsi0:1):Reset request on FSS handle 657006 (0 outstanding commands) from (vmm0:FreeNAS2)
2018-09-08T00:34:48.298Z cpu3:2097331)VSCSI: 2903: handle 8192(vscsi0:0):Reset [Retries: 0/0] from (vmm0:FreeNAS2)
2018-09-08T00:34:48.298Z cpu3:2097331)vmw_ahci[0000001f]: scsiTaskMgmtCommand:VMK Task: VIRT_RESET initiator=0x4306a84e4b80
2018-09-08T00:34:48.298Z cpu3:2097331)vmw_ahci[0000001f]: ahciAbortIO:(curr) HWQD: 0 BusyL: 0
2018-09-08T00:34:48.300Z cpu3:2097331)vmw_ahci[0000001f]: scsiTaskMgmtCommand:VMK Task: VIRT_RESET initiator=0x4306a84e4b80
2018-09-08T00:34:48.300Z cpu3:2097331)vmw_ahci[0000001f]: ahciAbortIO:(curr) HWQD: 0 BusyL: 0
2018-09-08T00:34:48.302Z cpu3:2097331)vmw_ahci[0000001f]: scsiTaskMgmtCommand:VMK Task: VIRT_RESET initiator=0x4306a84e4b80
2018-09-08T00:34:48.302Z cpu3:2097331)vmw_ahci[0000001f]: ahciAbortIO:(curr) HWQD: 0 BusyL: 0
2018-09-08T00:34:48.304Z cpu3:2097331)VSCSI: 2691: handle 8192(vscsi0:0):Completing reset (0 outstanding commands)
2018-09-08T00:34:48.304Z cpu3:2097331)VSCSI: 2903: handle 8193(vscsi0:1):Reset [Retries: 0/0] from (vmm0:FreeNAS2)
2018-09-08T00:34:48.304Z cpu3:2097331)vmw_ahci[0000001f]: scsiTaskMgmtCommand:VMK Task: VIRT_RESET initiator=0x4306a84e4f80
2018-09-08T00:34:48.304Z cpu3:2097331)vmw_ahci[0000001f]: ahciAbortIO:(curr) HWQD: 0 BusyL: 0
2018-09-08T00:34:48.306Z cpu3:2097331)vmw_ahci[0000001f]: scsiTaskMgmtCommand:VMK Task: VIRT_RESET initiator=0x4306a84e4f80
2018-09-08T00:34:48.306Z cpu3:2097331)vmw_ahci[0000001f]: ahciAbortIO:(curr) HWQD: 0 BusyL: 0
2018-09-08T00:34:48.308Z cpu3:2097331)vmw_ahci[0000001f]: scsiTaskMgmtCommand:VMK Task: VIRT_RESET initiator=0x4306a84e4f80
2018-09-08T00:34:48.308Z cpu3:2097331)vmw_ahci[0000001f]: ahciAbortIO:(curr) HWQD: 0 BusyL: 0
2018-09-08T00:34:48.310Z cpu3:2097331)VSCSI: 2691: handle 8193(vscsi0:1):Completing reset (0 outstanding commands)
2018-09-08T00:35:40.382Z cpu3:2099459)Vmxnet3: 18168: Disable Rx queuing; queue size 256 is larger than Vmxnet3RxQueueLimit limit of 64.
2018-09-08T00:35:40.382Z cpu3:2099459)Vmxnet3: 18310: indLROPktToGuest: 0, vcd->umkShared->vrrsSelected: 1 port 0x2000005
2018-09-08T00:35:40.382Z cpu3:2099459)Vmxnet3: 18552: Using default queue delivery for vmxnet3 for port 0x2000005
2018-09-08T00:35:40.382Z cpu3:2099459)CpuSched: 693: user latency of 2099435 NetWorld-VM-2099434 0 changed by 2099459 vmx-vcpu-0:FreeNAS2 -6
2018-09-08T00:35:40.382Z cpu3:2099459)NetPort: 1359: enabled port 0x2000005 with mac 01:2c:39:41:5f:62
2018-09-08T00:36:04.993Z cpu1:2099437)VSCSIFs: 3823: handle 8193(vscsi0:1):Invalid Opcode (0x85) from (vmm0:FreeNAS2)
2018-09-08T00:36:05.005Z cpu1:2099437)VSCSIFs: 3823: handle 8193(vscsi0:1):Invalid Opcode (0x85) from (vmm0:FreeNAS2)
2018-09-08T00:36:05.018Z cpu2:2099434)VSCSIFs: 3823: handle 8192(vscsi0:0):Invalid Opcode (0x85) from (vmm0:FreeNAS2)
2018-09-08T00:36:05.030Z cpu2:2099434)VSCSIFs: 3823: handle 8192(vscsi0:0):Invalid Opcode (0x85) from (vmm0:FreeNAS2)
2018-09-08T00:36:37.848Z cpu0:2099102)nrandom: credit_entropy_bits:856: random: nonblocking pool is initialized

2018-09-08T00:37:05.020Z cpu2:2099434)VSCSIFs: 3823: handle 8193(vscsi0:1):Invalid Opcode (0x85) from (vmm0:FreeNAS2)
2018-09-08T00:37:05.043Z cpu3:2099437)VSCSIFs: 3823: handle 8192(vscsi0:0):Invalid Opcode (0x85) from (vmm0:FreeNAS2)
2018-09-08T00:38:18.382Z cpu1:2097552)INFO (ne1000): false RX hang detected on vmnic0
2018-09-08T00:42:22.189Z cpu1:2097552)INFO (ne1000): false RX hang detected on vmnic0
2018-09-08T00:42:32.589Z cpu1:2097552)INFO (ne1000): false RX hang detected on vmnic0
2018-09-08T00:51:50.406Z cpu0:2097552)INFO (ne1000): false RX hang detected on vmnic0
[root@esxi:~]
 
Zuletzt bearbeitet:
Moin,
ich hab da mal eine Frage: Ich will in meinen Server eine weitere SSD für den ESXi bereitstellen, weil die Windows 10 VM dank der Plex Metadatenbank doch größer wurde als ursprünglich mal angenommen. Aber wie mache ich das konkret? Die SSD ist eingebaut, aber ich kann diese nicht als Datastore hinzufügen. Die kam frisch aus der Verpackung, muss ich da vorher noch irgendwas machen? Wenn ja, was und geht das auch über ESXi? Und was macht dann mehr Sinn: SSD als zweiten Datastore und die VM irgendwie dahin verschieben oder den ersten Datastore mit der SSD erweitern? So hatte ich zumindest eine Option beim Anlegen eines neuen Datastores verstanden: Erweitern eines bestehenden Datastores um eine weitere Disk. Oder ist das Blödsinn bzw. ich habs falsch verstanden?
 
Hi Turboschnecke,

unter dem Reiter "Speicher" auf Geräte und dann Neuer Datenspeicher klicken. Die NEUE SSD aussuchen und formatieren. So sollte es gehen. Wenn die neue SSD dort nicht gezeigt wird, dann stimmt was nicht.

EDIT:

Deiner Frage zum Thema "bestehenden Datastore erweitern" schliesse ich mich an :d

Cheers
 
Zuletzt bearbeitet:
Habs gestern mehrmals probiert, aber nicht geschafft. Die SSD wird mir beim Erweitern einfach nicht angezeigt. Hab jetzt einfach einen zweiten Datastore gemacht und die VM dorthin verschoben.
Beim Anlegen eines weiteren Datastores wurde mir die SSD auch gleich angeboten. Aber ich war so auf der Expand-Geschichte, dass ich da gar nicht geschaut hatte... Hab dann schon über die Console und partedUtil Partition angelegt und mit VMFS 5 formattiert. Aber auch so tauchte die SSD als mögliche Erweiterung einfach nicht auf. Vielleicht funktioniert das nur mit RAIDs? Hab zumindest immer nur Beiträge gefunden, wo es RAIDs waren und keine Einzellaufwerke.

Trotzdem Danke euch beiden!
 
Ich habe folgende Ausgangssituation:

Server mit Xeon L3426 auf einem Supermicro X8-SIL, 32GB RDIMM
1x 8TB ZFS Raid
1x 2TB ZFS Raid

Wenn ich richtig lese unterstützt der Xeon VT-d.
Jetzt könnte ich das 2TB Raid ja erst einmal auflösen, hier liegen nur 2 VMs die momentan über VirtualBoxPHP
betrieben werden.
Auf diese Platten könnte ich ESXi installieren inkl. einer StorageVM,
über ESXi könnte ich ja das 8TB ZFS durchrreichen?
Wäre das ein richtiger weg?

Ich habe noch eine 128GB SSD rumliegen,
könnte man diese auch für die Installation von ESXi nutzen
und die beiden 2TB Platten als VM Storage hernehmen?
 
Zuletzt bearbeitet:
Hast Du einen extra HBA oder Sata-Controller? Weil man reicht Controller per vt-d durch, nicht Platten oder Arrays. (RDM mal aussen vor, das wird offiziell nur für SAS unterstützt).
D.h. ohne Hilfe kann ESXI nicht auf nem redundaten Speicher angelegt werden bzw. davon booten.

Btw, ESXI selber kann mit Software- und Fakeraids (vom Chipsatz) nichts anfangen. ESXI verlangt nach einem Hardwareraid-Controller oder aber die Storage muss per iSCSI oder NFS angebunden sein, was dann auch ein ZFS-Pool aus einer VM innerhalb des eigenen ESXI kommen kann. Dafür brauchst aber eben einen HBA oder Sata-Controller, den Du in eine VM hineinreichen kannst.

Goldstandard sind da die LSI/Avago/Broadcom Controller mit Chipsatz SAS2008, SAS2308 oder SAS3008, die es auch als OEM von diversen Herstellern (Dell, HP, FSC, IBM, ...) gibt.

ESXI selbst kannst Du auf USB-Stick installieren, das Ding lädt sich beim Booten in den Ram und schreibt nur noch Log- und Configdateien. Alternativ, dann bootet es schneller, auf eine kleine SSD. ESXI selber braucht nicht viel Platz, im einstelligen GB-Bereich.

Btw, die Platten sind auch aus der Zeit des Board bzw. der CPU? Die hätten ihre guten Jahre dann schon deutlich hinter sich und es kann gefährlich werden bzgl. Ausfällen. Für solche Zeitspannen sind HDDs typischerweise nicht konzipiert.
 
Zuletzt bearbeitet:
Die 8TB Platten sind ca 1 Jahr alt, bei dennen ist die Frage ob die durch den OnBoard Controller durchgereicht werden können so das ein z.b Nas4Free den Pool wieder findet.
Den 2TB Pool würde ich löschen und für ESXi brauchbar machen.
Da die SSD klein ist würde ich die für ESXi nutzen.
 
Moin, ich brauche Hilfe, ich habe hier einen T20. Jetzt wollte ich mit dem Virtualisieren anfangen, nachdem längere Zeit der Windows Server direkt auf dem T20 lief. Also VM angelegt, einen H310 im IT Mode, eine USB3 PCIe Karte und eine 1GBit PCIe Karte durchgereicht.
Mein Problem ist jetzt, das wenn ich die VM Herunterfahre oder neu starte über das Windows oder den Host, sie nicht mehr startet.
Wenn ich den Host dann neu starte kann ich die VM wieder starten, aber nur für einmal. Danach kommt wieder der Fehler.
 

Anhänge

  • fehler3.PNG
    fehler3.PNG
    40,4 KB · Aufrufe: 94
  • fehler2.PNG
    fehler2.PNG
    30 KB · Aufrufe: 118
  • fehler1.PNG
    fehler1.PNG
    6,2 KB · Aufrufe: 85
  • fehler6.PNG
    fehler6.PNG
    34,5 KB · Aufrufe: 89
  • fehler5.PNG
    fehler5.PNG
    39,2 KB · Aufrufe: 101
  • fehler4.PNG
    fehler4.PNG
    30,6 KB · Aufrufe: 100
Wie viel RAM hat der Host? Wahrscheinlich nicht genug, um die 16 GB, die für die VM reserviert sind, frei zu haben, nachdem Du die VM heruntergefahren hast. Nimm' mal den Haken bei "Gesamten Gastarbeitsspeicher reservieren" raus, das ist nur für ganz bestimmte Situationen erforderlich und in allen anderen Situationen (wie dieser hier) hinderlich.
 
Es sind 32GB drin. Nur die eine VM bis jetzt. Habe auch den Haken entfernt, brachte nichts.
 
So nachdem ich keinen Bock mehr hatte und ESXI sowie die VM neu installiert habe, hat sich herrausgestellt, dass die USB3 Karte der verusacher ist. Vor dem neu installieren konnte ich dir Karte auch entfernen und es gab Probleme, mitlerweile geht es ohne.
Dann bräuchte ich jetzt aber einen ersatz. Weiß da jemand was, was nciht so teuer ist und funktioniert?
 
Auf den Bildern fehler1 und fehler3 sieht man, dass es die USB Karte ist.
Scheint ein Bug von ESXI 6.7 zu sein, also entweder zurück zu 6.5 oder auf 6.7U1 warten.
 
Die Karte, die er hat, funktioniert auch bei mir unter 6.5 problemlos ... ich wäre da vorsichtig mit Experimenten :)
 
Danke schonmal für eure Hilfe:)

Auf den Bildern fehler1 und fehler3 sieht man, dass es die USB Karte ist.
Scheint ein Bug von ESXI 6.7 zu sein, also entweder zurück zu 6.5 oder auf 6.7U1 warten.

Das dachte ich mir schon das sie das währe, aber es hatte nichts gebracht sie aus der VM zu entfernen, bis ich jetzt ESXI neu installiert habe. :wall:
Kann ich den aus 6.7 was direkt installiert wurde zurück auf 6.5u1?

Hi MC Drehstuhl ... ggf. einfach auf 6.7U1 warten? PCIe USB Karten machen (noch) Probleme: siehe hier

Danke für den Hinweis:)

Die Karte, die er hat, funktioniert auch bei mir unter 6.5 problemlos ... ich wäre da vorsichtig mit Experimenten :)

Das ist gut zu hören, das die Karte an sich funktioniert.:)
 
Ich hab die hier: Sedna - PCI Express 4 Port (4E) USB 3.0 Adapter - mit Low Profil bracket - (NEC/Renesas uPD720201 Chipsatz) Sedna Zubehör

Ging unter 6.5 und läuft seit Wochen (Monaten?) unter 6.7 in zwei Servern (siehe Signatur Main und Backup) - im Main hängt ein USB2-Hub dran (hinter 5m Verlängerung) und daran ne SB USB soundkarte sowie Logitech Keyboard/Maus Funk-Kombi; im Backup ab und an eine USB-HDD (WD irgendwas).

Alles Passthrough, alles problemlos. VM OS einmal Win10, einmal Solaris 11.3.
 
Zuletzt bearbeitet:
So ich möchte mal rückmeldung geben. Ich bin auf 6.5u2 gegangen und jetzt funktioniert es einwandfrei. Danke euch nochmal.
 
welche version läuft auf dem microserver gen8 am besten ?
 
Kürzlich ist ja eine neue Version von 6.7.0 erschienen (vgl. VMware ESXi 6.7.0 Patch History )

Wäre wieder jemand so nett, wie damals bei 6.7 (falls es diese schon gibt) eine saubere Setup-ISO der aktuellsten Version verlinken?

Ich werde beim VMware-Download-Versuch zwar nicht mehr zu 6.5, aber zu der 6.7.0-Ur-Version 8169922 (April?) umgeleitet :-/
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh