ESX / ESXi - Hilfethread

Natürlich müssen die auf demselben Host sein, wie soll es denn auch sonst funktionieren? :fresse:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja du musst den VM's den "VMXNET3" als Netzwerkkarte zuweisen. Standard ist glaub der Intel e1000 gesetzt. Dann hast du zwischen den VM's 10 Gbit.

Soweit ich mich erinnere, ist die Kommunikation zwischen VMs auf dem gleichen Host immer so schnell wie der Hypervisor das zulässt, habe in Verbindung mit LAN mein ich mal 40Gbit gelesen, kann sich aber auch bei jeder Version wieder ändern :P Auf jeden Fall waren die 10Gbit im Betriebsystem nur der Wert womit sich die Karte meldet.
 
Wo wir schon beim Thema sind: Was soll mir mit "Der Zustand des angehängten Netzwerks verhindert DirectPath I/O" gesagt werden?
Zustand wovon? Die CPU unterstützt es natürlich, es ist aktiviert und alle virtuellen Netzwerkkarten sind VMXNET3.
 
Eventuell ist das einfach nur eine unglückliche Übersetzung. Stelle den vSphere Client mal auf englisch um (Verknüpfung bearbeiten und hinter am Ende des Felds "Ziel" folgendes hinzufügen: locale en_us) und schaue, was dann angezeigt wird, danach kann man meistens mit besseren Resultaten suchen.

VMware KB: Configuring VMDirectPath I/O pass-through devices on a VMware ESX or VMware ESXi host
When selecting the devices, keep in mind these restrictions:
  • Devices cannot be plugged in after a PCI Bridge.
  • Device must be behind a PCI Switch that supports ACS.
  • Devices cannot be plugged in after a non-ACS switch.

    For more information, see PCI Passthrough with PCIe devices behind a non-ACS switch in vSphere (1036811)
  • You cannot have two devices in two different contexts -- such as one used by VMkernel and one in pass-through -- using the same PCI slot. For example, the dual head NIC is dedicated to the VMkernel OR is available for pass-through. If you select one, the other is automatically selected as well. A dialog informs you why this occurred.
  • Do not enable pass-through on the USB controller which is booting from USB device or SD card.
 
Also heißt das so viel, wie dass es nicht mit gebrückten NICs funktioniert, wenn das VMware-Zeug über diesselbe NIC läuft? :fresse:
 
Kann ich zwei ESX Hosts direkt über zwei 4Gbit Fibre Channel Karten Point to Point verbinden?

Hintergrund ist, dass ich eine günstige Möglichkeit suche im Homelab auf über 1Gbit/s zu kommen.
4Gbit Fibre Channel Adapter auf PCI-E bekommt man gebraucht ab 30 Euro und 4 Port RJ45-Netzwerk-Karten fangen direkt mal bei 120 Euro an.
Ich möchte aber natürlich nicht extra einen FC-Switch kaufen...
 
Zuletzt bearbeitet:
Fibrechannel-Karten kann man nicht als Ethernet-Karten missbrauchen, die können nur das FC-Protokoll, kein Ethernet-Protokoll.
 
FCoE gibt es ja. Wir nutzen es mit 2 x 10Gbit NICs in jedem Host bei uns.

Zum Beispiel Emulex OneConnect und solche Karten...
 
Zuletzt bearbeitet:
FCoE ist aber etwas anderes als IPFC. ;) Ob die günstigen FC-Karten IPFC in Verbindung mit ESXi können, steht auf einem anderen Blatt, das müsste im Einzelfall geschaut werden.
 
Mhjoa... ich vernetze das ganze bei uns im Betrieb auch sonst nicht - das machen andere.

Was würdest du denn als günstigste Variante an 2/4 oder mehr Gbit/s zu kommen sehen?
 
Aber kommt da nicht wieder das oft besprochene Trunking Problem zu tragen? Wieviel Geschwindigkeit man bei 4Gbit Links zwischen 2 Hosts bekommt?
 
Mhjoa... ich vernetze das ganze bei uns im Betrieb auch sonst nicht - das machen andere.

Was würdest du denn als günstigste Variante an 2/4 oder mehr Gbit/s zu kommen sehen?

Mit 10g Ethernet Karten... Gabs die nichtmal selbst rellativ günstig gebraucht?
Solange du keinen Switch zwischen klemmst, hast du auch effektiv keine wirklichen kosten. Geht halt nur Host to Host dann...

Ansonsten könnte man sich noch an Geschichten wie IP over Infiniband probieren. Aber ich hab absolut keinen Plan, ob das mit ESXi geht. Vorteil wäre, da hast du 4/5tel effektiv nutzbare Ethernet Bandbreite. Je nach Karten. -> 20 oder 40Gbit. Benötigst halt nur das passende Kabel für Infiniband.

Was hast du eigentlich genau vor?
Ggf. ist es günstiger bei Ebay und Co. einfach mal nach gebrauchten Intel Pro 1000 PCIe 1x Adaptern ausschau zu halten. Die kosten neu ja nur ca. 20€... Gebraucht ggf. für nen 10er oder ähnliches zu haben. Das ganze 4x und du hast 2x1Gbit pro Host...
Oder nach alten DualPort GBit Karten ausschau halten. Wobei dann nicht ganz sicher ist, ob es dafür Treiber für die neueren ESXi Versionen gibt.
 
Ich will eigentlich nur meinen Raidspeed durchs LAN bekommen bei vMotion. Momentan spiele ich auch ein wenig im VSAN rum und da ist eben das Netzwerk der begrenzende Faktor.
Aber wahrscheinlich sollte ich wirklich nur zwei weitere Intel NICs kaufen und glücklich sein :)
 
Woran kann es liegen, wenn die Performance bei ge-RDM-ten Platten arg eingeschränkt ist? Ich habe 3 Spinpoint F4 mit 2TB im RAID5.
Auf jede einzelne wird mit maximal 50MB/s geschrieben (das immerhin durchgehend). Aber auch das Lesen ist nicht schneller. Sind 4K-Platten, aber die RAID-Partitionen sind eigentlich korrekt ausgerichtet (beginnen bei 2048). CPU- und RAM-Auslastung sind dabei quasi nicht vorhanden.

Woran kann das liegen?

- Es handelt sich um einen HP ML310e V2 mit Xeon 1220V3 und 20GB RAM, 8GB sind der VM zugeteilt.
- die Platten hängen im AHCI-Modus am onboard-Controller
- ESXi 5.1U1

- - - Updated - - -

Übrigens handelt sich um ein ehemals physisches System, das auf einem Athlon X3 deutlich bessere Werte liefert. Die Systemplatte wurde allerdings nicht durchgereicht sondern ein Image im Datastore eingespielt.

- - - Updated - - -

Aaah. die "stripe_cache_size" war verstellt. Wie passiert denn sowas? :hmm:
 
Jupp. Bzw. jetzt bin ich bei im Schnitt ca. 110MB/Platte, was in etwas mehr als 200MB/s Schreibrate resultiert. Mehr kann man von so alten (und dann auch nur wenigen) Platten wohl nicht erwarten.
Aber wieso die stripe_cache_size verstellt war, ist mir ein Rätsel :hmm:
 
@all
Wie ist das mit Snapshots löschen mit eingeschalteter VM. Ist das problematisch oder unkritisch?

VG
 
Zuletzt bearbeitet:
Ich sag' mal so: es kann immer etwas passieren, auch beim theoretisch sichersten System, mir ist aber bisher noch kein virtueller Server während der Konsolidierung von Snapshots abgestürzt.
Man sollte aber beachten, dass die Konsolidierung die Leistung des Systems massiv beeinträchtigen kann, je nach Größe des Snapshots auch für längere Zeit.
 
Okay, dann lass ich es besser und lösche den SS im ausgeschalteten Zustand Nachts.

Gibt's eigentlich ne Möglichkeit (jetzt nicht unbedingt mit Cron jobs) so etwas automatisch durchzuführen? Also VM zum Zeitpunkt X herunterfahren, SS löschen und danach wieder hochfahren!?

VG
 
Es können genauso Probleme auftreten wenn die VM ausgeschaltet ist. Achte auf jedenfall darauf, das genügend freier Speicherplatz für die Konsolidierung verfügbar ist.
 
Also da ich ghettovcb einsetze werden dabei eh snapshots erzeugt. Das hat in den 2 Jahren die ich das hier einsetze bei ~40VMs (macht also 40 Snapshots pro Woche, 2 Jahre lang -> ~4160 Snapshots) noch nie ein Problem geben, weder beim erstellen noch löschen. Und händische Snapshots auch, also mit Sicherheit 4300 Snapshots. Dabei gabs beim löschen noch nie ein Problem.

Beim alten Arbeitgeber waren es wesentlich mehr Maschinen, da gabs auch noch nie ein Problem.
 
Hi all,

kann mir einer weiterhelfen? Wollte nun die bestehenden vmdk's volumes in esxi von meinen Festplatten löschen.

Klappte auch bis auf eine Problemlos.....nur bei dieser einen sagt er mir kann nicht gelöscht werden weil irgendwas noch auf die Platte zugreift.....
Eigentlich kann das nicht sein da die VM(N4F) gelöscht wurde und ich die Platten sonst niergendswo rein gereicht hatte.

Ich bekomme diese auch nicht unmounted ......please Help.
 
Starte den Host mal neu. Der ESXi legt da gerne mal ne Sperre drauf.
 
Hi,

damit ich meinen ibm m5015 controller später an eine vm durchstecken kann, will ich ESXi 5.5 aufm USB Stick /SD Karte rennen lassen.
Kriege es einfach nicht hin, von dem installierten Stick zu booten :(

Mit Rufus das ESXi Image auf einen Stick gezogen.
Booten funktioniert von dem Stick.
Installation läuft durch, ohne Fehler.
Ausprobiert habe ich:
- auf dem gleichen Stick zu installieren, wo das InstallationsImage drauf ist
- auf einem anderen Stick
- auf SD Karte im Cardreader

Er bootet aber einfach nicht :/

Das Mainboard ist ein Asus Maximus Hero VI. Ich hatte ESXi vorher auf 2 SSDs im Raid 1 auf dem IBM M5015 laufen, kein Problem. Auch auf dem Dell Perc 5i (aber auf einam anderen Board) lief es ohne Probleme.
Ich habe auch ein Bios Update des Maximus Hero gemacht; keine Änderung.

Im Uefi Bios sehe ich die USB Sticks und den SD Card Reader. Ich habe es sowohl mit dem "Generic Storage Device" (Legacy also), sowie mit dem "UEFI Storage Device" bei den Boot Priorities ausprobiert. Beides funktioniert nicht. Auch über F8 das BootMenü aufrufen und dann den Stick /SD Karte auswählen bringt nichts.
Secure Boot natürlich aus. EHCI enabled.
"Boot Device Control" sowohl auf "Legacy First" als auch auf "UEFI first" getestet.

Langsam bin ich mit meinem Latein am Ende :/


Kann einer helfen?

edit: ok, selbst gelöst nachdem ich das hier gelesen habe:
http://sparrowangelstechnology.blogspot.de/2012/11/no-bootable-device-after-successful.html

Also Shift+o bei der Installation drücken, dann "runweasel formatwithmbr"
 
Zuletzt bearbeitet:
Hi ne Frage - ich habe unter 5.1u1 (image von HP für HP Proliant Microserver Gen8) kein Binary /usr/bin/perl ... weiß jemand wie man das nachinstallieren kann? Was ich letztlich tun möchte: Ich möchte mir per crontab bestimmte Dinge regelmäßig per Email schicken lassen.
Vielen Dank im Voraus!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh