ESX / ESXi - Hilfethread

Hi,
nicht ganz:
-SSd als Boot mit ESXi und VMs darauf und 2 seperat
angelegte Datastores von 2 phys. SATA HDS die der Vm-Nas zugewiesen sind und in der DSM6.2 den Raid dieser 2VHds angelegt.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke,hatte ich gestern schon in ähnlicher Form gefunden und den Controller durchgereicht.Somit braucht man wenn man mit den 4 Anschlüssen klar kommt keine extra Controller/HBA für den T30.
 
Mein Lynx-Point-Controller (X10SDV-4C-TLN4F, Xeon D-1518) ließ sich bei einer sauberen Installation von 6.7 U1 sogar ohne jegliche Anpassungen der passthru.map durchreichen.

Ob VMware das jetzt offiziell unterstützt? Auf jeden Fall ist es großartig, bis letzte Woche sah es ja eher so aus, als wenn Passthrough für OnBoard-Controller gar nicht mehr gehen würde.
 
Step7: solange Du ein anderes Device für nen Datastore hast oder diesen via NFS/ISCSI anbindest.
Btw, vDisks über ganze Datenträger, um die dann wieder in einer Storage-VM einzuhängen? Das würde ich diplomatisch gesagt als "unglücklich" und "nicht best-practice" bezeichnen. In meinen Augen: absolutes no-go.

Wenn Du ein ein AIO-System mit ZFS als Unterbau willst, brauchst ja einen Datastore, wo die Storage-VM drauf ist, die dann wiederum Shares via NFS zurückgibt. USB-Datastores gehen ja AFAIK nur via Trick, wenn man dann sonst keine USB-Geräte an eine VM binden will.

Elmario: Den dry-run hab ich glatt vergessen. Soweit ich die Ausgabe analysiert habe, kickt es mir auch nicht die VIBs für X550 oder die Optane 900p. Insofern scheint alles gut.
Ich glaub ich riskiers mal.

Edit 19:50Uhr: Zuerst kam "No space left on device", hat aber dann geklappt, nachdem ich als Swap-Platz nen lokalen Datastore angegeben hab. Passthru von SAS3008 und Onboard-Sata vom C236-Chipsatz wurde beibehalten, ZFS sagt auf allen Pools "alles gut".

=> Update auf dem X11SSH-CTF (von 6.5.0 U1 auf 6.7.0 U1) daher auch erfolgreich inkl. Sata-Passthrough.
 
Zuletzt bearbeitet:
@Trambahner: Du hast Recht,war eine erste Konfig,hab im Moment noch NFS mit einer VM drauf,die zieht um sobald meine M2 SSD da ist.Über Passthrough macht auch ein Raid
erst Sinn,das zeigt sich wenn man mal einen Ausfall simuliert...
 
Hallo in die Runde,

ich hab hier ein seltsames Problem in meiner Umgebung und weiss leider nicht genau wer hier schuld ist, ob vmware oder LIO, daher poste ich das ganze erstmal hier.

Ich habe hier ein HA-Setup auf Basis von ZFS+Pacemaker/Corosync+LIO das ganze wird dann via iSCSI an VMware herausgereicht. Das funktioniert auch prinzipjell gut, aber eine kuriosität habe ich dennoch, die erste LUN (lun0) übersteht den HA-Wechsel ohne Probleme, heisst ich sehe sie in VMware nach wie vor und alles schicke, ABER die anderen beiden LUNs haben immer probleme, in der Regel endet das mit einem "inaccessible" seitens VMware, dann muss ich ne weile wurschteln und dann sehe ich diese auch wieder mit etwas Glück mittels "Assign a new Signature", dann das alte inaccessible storage unmounten löschen etc.. was echt ätzend ist.

Kann mir da evtl jmd sagen wo der Fehler ist? Ich denke der wird irgendwo bei VMware liegen, aber wie fix ich das?

die LIO-config sieht so aus:
Code:
targetcli ls
o- / ......................................................................................................................... [...]
  o- backstores .............................................................................................................. [...]
  | o- block .................................................................................................. [Storage Objects: 3]
  | | o- iscsi-lun0 .................................................. [/dev/zvol/vm_storage/zfs-vol1 (9.8TiB) write-thru activated]
  | | o- iscsi-lun1 .................................................. [/dev/zvol/vm_storage/zfs-vol2 (9.8TiB) write-thru activated]
  | | o- iscsi-lun2 .................................................. [/dev/zvol/vm_storage/zfs-vol3 (9.8TiB) write-thru activated]
  | o- fileio ................................................................................................. [Storage Objects: 0]
  | o- pscsi .................................................................................................. [Storage Objects: 0]
  | o- ramdisk ................................................................................................ [Storage Objects: 0]
  o- iscsi ............................................................................................................ [Targets: 1]
  | o- iqn.2003-01.org.linux-iscsi.vm-storage.x8664:sn.1decabc0bb80. ..................................................... [TPGs: 1]
  |   o- tpg1 ............................................................................................... [no-gen-acls, no-auth]
  |     o- acls .......................................................................................................... [ACLs: 4]
  |     | o- iqn.1998-01.com.vmware:brainslug10-5564c329 .......................................................... [Mapped LUNs: 3]
  |     | | o- mapped_lun0 ............................................................................ [lun0 block/iscsi-lun0 (rw)]
  |     | | o- mapped_lun1 ............................................................................ [lun1 block/iscsi-lun1 (rw)]
  |     | | o- mapped_lun2 ............................................................................ [lun2 block/iscsi-lun2 (rw)]
  |     | o- iqn.1998-01.com.vmware:brainslug7-592b0e73 ........................................................... [Mapped LUNs: 3]
  |     | | o- mapped_lun0 ............................................................................ [lun0 block/iscsi-lun0 (rw)]
  |     | | o- mapped_lun1 ............................................................................ [lun1 block/iscsi-lun1 (rw)]
  |     | | o- mapped_lun2 ............................................................................ [lun2 block/iscsi-lun2 (rw)]
  |     | o- iqn.1998-01.com.vmware:brainslug8-05897f0c ........................................................... [Mapped LUNs: 3]
  |     | | o- mapped_lun0 ............................................................................ [lun0 block/iscsi-lun0 (rw)]
  |     | | o- mapped_lun1 ............................................................................ [lun1 block/iscsi-lun1 (rw)]
  |     | | o- mapped_lun2 ............................................................................ [lun2 block/iscsi-lun2 (rw)]
  |     | o- iqn.1998-01.com.vmware:brainslug9-75488e35 ........................................................... [Mapped LUNs: 3]
  |     |   o- mapped_lun0 ............................................................................ [lun0 block/iscsi-lun0 (rw)]
  |     |   o- mapped_lun1 ............................................................................ [lun1 block/iscsi-lun1 (rw)]
  |     |   o- mapped_lun2 ............................................................................ [lun2 block/iscsi-lun2 (rw)]
  |     o- luns .......................................................................................................... [LUNs: 3]
  |     | o- lun0 ............................................................... [block/iscsi-lun0 (/dev/zvol/vm_storage/zfs-vol1)]
  |     | o- lun1 ............................................................... [block/iscsi-lun1 (/dev/zvol/vm_storage/zfs-vol2)]
  |     | o- lun2 ............................................................... [block/iscsi-lun2 (/dev/zvol/vm_storage/zfs-vol3)]
  |     o- portals .................................................................................................... [Portals: 1]
  |       o- 192.168.2.10:3260 ................................................................................................ [OK]
  o- loopback ......................................................................................................... [Targets: 0]
  o- vhost ............................................................................................................ [Targets: 0]
Das ganze läuft auf einem Debian Stretch.
Danke im voraus!
 
Zuletzt bearbeitet:
Meine von 6.5.0 U1 auf 6.7.0 U1 upgedatete Maschine hat heute PSODs geworfen, nachdem ich ihn ein bisschen mit I/O strapaziert hab. Zuerst mit Error bzgl. intel-nvme - Treiber für die Optane, als ich den upgedatet hab mit anderen. Optane raus, dann bootete er wieder. Komisch.

Naja, hab 6.7.0 U1 dann auf nen leeren Stick installiert, passthru.map editiert für den Intel Sata, den aktuellen Intel-NVME-Treiber von der Vmwareseite rein, Konfig wieder eingespielt und fluppt wieder. VMs sind eh auf ZFS-NFS-Share, hat die Kiste sofort wieder alles gehabt.
Dieses AIO-Konzept mit ESXI+ZFS ist schon praktisch. :hail:

Irgendwas lief da mit den Treibern offenbar nicht sauber beim updaten, obwohl es keine Meldungen hab.
 
Zuletzt bearbeitet:
Hallo zusammen,

vielleicht kann mir von euch jemand weiterhelfen.
Ich sitze hier vor einem schier unlösbaren Problem.

Es geht um den Adaptec Storage Manager welche über einen Gast (W2K12R2) ausgelesen werden soll.
Mit dem ESXi 6.5U1 hat alles ohne Probleme geklappt, bei neueren Versionen allerdings nicht mehr.

Ich habe 6.5U2/6.7/6.7U1 mit unterschiedlichen VIBs/Treibern getestet, immer ohne Erfolg.
CIM Dienste natürlich kontrolliert, FW testweise sogar deaktiviert.

Controller ist ein 6805, beim 8805 selbes Problem.

Hat jemand eine Idee/Lösung oder es evtl. selbst laufen?
Danke!
 
Ich habe heute versucht meinen Homeserver 6.7.0 (Build 8169922) auf 6.7 U1 upzudaten. Update durchgelaufen, aber wenn ich im Webclient bin, sehe ich meinen Datastore nicht mehr und natürlich die ganzen VMs auch nicht mehr. Wenn ich den ESXi Host neustarte, ist wieder die alte Version (Build 8169922) drauf und ich sehe meinen Datastore

ESXi ist auf ADATA XPG SX8200 960GB, M.2 installiert und da drauf liegen auch die ganzen VMs.

Weiß jemand woran ist liegen kann? Gibts neue NVME Treiber in 6.7 U1?

M2 SSD steckt in Supermicro X11SSH-F
 
@ dimonw Bei mir keine Probleme. H11DSi von 6.7 auf 6.7U1. NVME = MS1PC5ED3ORA3.2T
 
Was pack ich denn für eine GPU in eine ESXI 6.7U1 -Maschine für Passthrough? Es soll möglichst wenig "Spirenzchen" machen (sprich nicht zuviel rumgefrickel im ESXI-System und v.a. keine PSODs), wenig Energie brauchen und leise sein.

Ich würde gern mal testen, eine VM direkt am Host per Passthrough-GPU direkt zu nutzen. Grafikleistung ist nicht wirklich erforderlich, also kein Gaming, kein CAD, sondern nur Büroarbeit und Video.
Quadro K420? Oder ne alte K2000?

Ich hab noch ne steinalte Geforce 6600 rumliegen, damit wird wohl nix gehen oder?
 
Zuletzt bearbeitet:
Ich würde gern mal testen, eine VM direkt am Host per Passthrough-GPU direkt zu nutzen.
1. Denk dran, dass Du auch noch eine Lösung für Maus und Tastatur brauchst. 2. gibt die passthrough-GPU wirklich ein Bild am externen Ausgang wieder? (ich hatte es nur mit integrierter GPU versucht, passthrough klappt aber da kam glaube ich kein Signal am externen Ausgang ...)
 
Siehe meine Signatur zur Win10 VM. Gehen tut das (auch mit manchen Consumer GPUs). Nur den HDMI Sound hab ich bisher nicht zum Laufen bekommen. Tastatur und Maus könnten sich eigentlich auch als USB-Devices durchreichen lassen (aber nicht ausprobiert, da ich gleich eine USB-PCIe-Karte genommen hab).

EDIT1: Zur GPU: würde die kleinste Quadro empfehlen, die P400 tut.

EDIT2: lustig, wenn man einen Beitrag mobil editiert, verschwindet die Signatur und man kann sie auch nachträglich nicht wieder reinfummeln...?

EDIT3: mit'm Desktop-Browser geht's auch beim Bearbeiten.
 
Zuletzt bearbeitet:
Funktioniert eig. in ESXi 6.7U1 eine beliebige RX580 8GB per Passthrough an ne Win10 VM ?
Den Vendorlock sollte AMD ja nicht haben.
 
Scheinbar kommt nun doch ein ESXi Build für ARM. Auch bezüglich SingleHost vSAN soll sich angeblich etwas tun, aber mal abwarten.
 
Scheinbar kommt nun doch ein ESXi Build für ARM. Auch bezüglich SingleHost vSAN soll sich angeblich etwas tun, aber mal abwarten.

Jup, grad auf der VMworld gesehen. Kannst ESXi auf nem Raspberry-PI installieren.

Ja, es ist cool um es als witnessserver für n vsan aufzusetzen. Aber leider fehlt die notwenidge Power um da was gescheites drauf laufen zu lassen.

Womit wir bei meiner Frage landen.

Jemand hier im Thread unterwegs der mit einem Ryzen 7 1700 und Gigabyte Mainboard ESXi am laufen hat? Welche Settings wurden gesetzt? Gerne auch Kommentare von anderen Mainboardusern :-)

Mit 6.5 U1, 6.7 hatte ich kein Glück und es schmierte immer mit Purple Screen ab, wenn er mal gebootet ist.. :(


Edit - mit nem USB 3.0 USB Stick ging dann alles - und noch besser als ich ESXi nochmal auf die nvme neu draufgezogen habe :)
 
Zuletzt bearbeitet:
Moin zusammen, ich habe vor mir ein kleinen Stromsparenden ESXI Server zu verwirklichen.

Basis ist ein ASROCK J3455-ITX mit 16GB RAM.

Ich möchte gern die onboard SATA´s durchreichen. Der AS_MEDIA chip wird in ESXI angezeigt zum durchschleifen. Aber der zweite ist mit der CPU verknüpft. Wie bekomme ich den durchgeschleift? Meine passthrough.map hab ich schon editiert.


#J3455 AHCI
0106 8086 5ae3 default


passthrough.JPG
 
Zuletzt bearbeitet:
Ich überlege meinen Server mit ESXi neu auzusetzen.
Ich hab an einem 9750-4i ein Raid hängen, das unangetastet bleiben soll und in einer Windows Installation laufen soll.

Werde ich auch Treiber für ESXI brauchen oder ist das egal, wenn ich den ganzen Controller nur durchreiche?
Die aktuellsten Treiber sind für 5.0 U1 und in der Support Liste taucht er auch nicht mehr auf.
Wenn das nicht klappt, wäre es gut, das zu wissen bevor ich alles platt mache.

Danke!
 
Hat schon jemand nähere Infos zu dem ARM-ESXi gesehen?
Vor Allem die Hardware Requirements würden mich interessieren.
Welche CPUs sind möglich?
Ist eine x86/x64-Emulation geplant?
Und wird es genau so pingelig sein wie das klassische ESXi und bei jedem Furz die Installation verweigern?
 
Zuletzt bearbeitet:
Hallo an die ESX-Spezialisten,

ich verzweifel gerade an einer Konfiguration für meinen ESXi 6.5 (letzte Version für Gen8) auf meinem HP Microserver Gen8 und bräuchte mal eine Hilfestellung:

Der HP Gen8 hat zwei NIC's und ich möchte beide in jeweils zwei unterschiedliche Netze routen (kein VLAN).
NIC1 (vmk0) --> hat das Standard "Management Network" Portgruppe mit "vSwitch" und "default TCP/IP-Stack" ---> funktioniert alles einwandfrei mit Internet.
NIC2 (vmk1) --> habe ich "Test Portgruppe" mit "vSwitch-Test" und einem "Test-TCPIP-Stack" via Befehl erzeugt. ---> funktioniert nur teilweise ohne Internet.

Soweit die Konfiguration bzw. Versuch


Wie bekomme ich es hin, dass auch die 2 Nic sauber konfiguriert und ins Internet kommt?
Ich kann den2. TCPIP-Stack zwar mit BEfehl erzeugen, aber leider nicht konfigurieren, da ist alles ausgegraut und beim GW kommt Fehler wegen Parameter.

Welche Reihenfolge kann ich am Besten für die Erstellung machen? Gern auch mit Befehle
Danke Vorab.
 
Hi

Naja, wenn Du zwei getrennte Netze willst, musst Du die NIC's halt auch physisch anbinden. Ich habe da Firewall und Switch davor, und fahre quasi mit drei Ethernet Strippen mit jeweils einem eigenen Subnet auf den ESXi. Allenfalls eine virtuelle Firewall/Router VM kannst Du noch auf dem ESXi einrichten, dann hast Du dann auch für mehrere vSwitches verschiedene DHCP Gateways. Das geht übrigens auch mit nur einer NIC am Host. vSphere vSwitches sind stumpfe Switches, welche keinen eigenen DHCP haben > anders als es es z.B. bei VMware Worksation mit seinen vmnet ist.

So sieht mein Netzwerk aus. Interessant sind Seite 4 und 5.
 
Zuletzt bearbeitet:
@Forenreiter

Wieviel Router hast du und hast du bei beiden TCP-Stacks dasselbe Gateway verwendet?

Viel einfacher wäre es doch (ich gehe mal davon aus, dass du zwei Router hast) zwei vSwitche zu erstellen, bei beiden nur einen Uplink hinzuzufügen und dann die Strippen an die jeweiligen Router-Ports anzuschliessen, die dein gewünschtes Netz haben.

Anders wird es schwierig wenn du kein VLAN verwenden willst, da auch ESXi per Default alles über Route 1 rausjagt und die dann eh die Routingtabelle anpassen musst (zumindest was vmkernel angeht).

Und daran denken, dass du das Standardgateway vom vmkernel überschreiben kannst!
 
Also um es genau zu verdeutlichen hier das Konstrukt:

NIC1: In das interne Netz1 ( 192.168.1.x ) <-----> GW/Firewall (.1.1) <-----> FritzBox (.2.1) ---> Internet
NIC2: In das interne Netz2 ( 192.168.2.x ) <------------- "DMZ" --------------> FritzBox (.2.1) ---> Internet

Nic1 soll ins interne Netzwerk mit angebunden werden und VM's für den längeren Eigenbedarf bereitstellen.
Nic2 soll in die, ich nenne sie mal "DMZ", gehen und für kurzzeitige Tests mit VM's genutzt werden. Der Microserver hat also jeweils 1 Lan-Port in jedes NEtz.
Netz1 hat eine Hardwarefirewall ohne Router und Netz2 soll später eine SoftwareFirewall in Form einer VM bekommen. Auch nur zu Testzwecken.


> Soweit der Aufbau bzw. das Vorhaben


esxcli network ip interface ipv4 get
Name IPv4 Address IPv4 Netmask IPv4 Broadcast Address Type Gateway DHCP DNS
---- ------------ ------------- -------------- ------------ ------------- --------
vmk0 192.168.1.3 255.255.255.0 192.168.1.255 STATIC 192.168.1.1 false
vmk1 192.168.2.3 255.255.255.0 192.168.2.255 STATIC 192.168.2.1 false



Jetzt noch Mal die bisherige Konfiguration:

Portgruppe "Management Network" hat den "vSwitch0" und zeigt mit dem Uplink auf die Nic1 (vmk0)
Der VMkernel1 hat Portgruppe "Management Network", den "Standard-TCP/IP-Stack" mit Statischer Adresse und Verweis auf GW (.1.1)

Das Gleiche Modell will ich nun auch für das zweite Netz machen, jedoch dann auf GW (.2.1).
Ich kann halt das per Befehl erzeugte 2 TCP/IP-Stack nicht voll editieren.

Daher meine Frage was ich tun müsste.
 
Da musst Du gar nichts hacken dazu. vSwitch LAN mit vmkernel an pNIC1, vSwitch DMZ an pNIC2. Zwei Strippen von der Fritzbox (hatte noch nie eine in der Hand, ich geh mal davon aus, dass die nen dedizierten DMZ Port hat) -> 1x DMZ zu vSwitch DMZ, 1x LAN zu vSwitch LAN.

Fertig ist die Laube.
 
Da musst Du gar nichts hacken dazu. vSwitch LAN mit vmkernel an pNIC1, vSwitch DMZ an pNIC2. Zwei Strippen von der Fritzbox (hatte noch nie eine in der Hand, ich geh mal davon aus, dass die nen dedizierten DMZ Port hat) -> 1x DMZ zu vSwitch DMZ, 1x LAN zu vSwitch LAN.

Fertig ist die Laube.

Die Fritzbox hat keinen DMZ-Port - du kannst aber einen DMZ-Host festlegen.

@Forenreiter.
So schauts derzeit bei mir aus:

Unbenannt.PNG

Im ESXi läuft eine Router/Firewall/UTM und hängt an beiden Portgruppen drin. Die zweite Portgruppe ist nur im ESXi-Host drin und somit vom Rest getrennt (Da läuft die Spielwiese bzw. meine VMs).
Die andere Portgruppe ist mein Netz hinter der Fritzbox (WAN-Interface für die VMs, welches als Gateway meine Fritzbox eingetragen hat). Auf der Fritzbox ist die Router-VM als Exposed Host eingetragen und via dyndns von extern erreichbar (die VM macht das Site-to-Site zu meinem dedicated ESXi)

Dadurch habe ich zwei Netze welche ins Internet kommen und die echten Server sind auch besser geschützt, da du ja eh eine Firewall planst, könnte das ja auch eine Möglichkeit für dich sein :-)





PS: der Grund warum nur eine VM (nämlich die Router-VM) nur in dem portlosen Netz hängt ist, weil ich Depp alles auf falschen IPs aufgebaut habe ^^ Und IP-Änderungen sind nicht mehr drin :P

Und da du die Ports an der Fritzbox nicht teilen kannst, ist das meines Erachtens nach die beste Lösung (bei mir kommt das Problem, dass die Killer NIC nicht erkannt wird :( )
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh