ESX / ESXi - Hilfethread

Eine VM ist nur eine .vmx-Datei mit ein bisschen Gedöns und ner virtuellen Disk. Die kann man sonstwohin schieben. Das ist keine Magie.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist mir klar. Es ging mir auch um den einfachen austausch eines Datenträgers von einem esxi zum anderen

Gesendet von meinem SM-N9005 mit der Hardwareluxx App
 
das war aber nicht was ich meinte ;)
Ich wollte die HDD direkt umbauen. Letztendlich läuft meine Frage also darauf hinaus ob ich einen bereits genutzten Datenträger in einem anderen esxi nutzen kann.

Ich wollte mir halt das umkopieren sparen ;)
Ja das geht. Auf dem neuen ESXi anschliessend mittels Rechtsklick auf die VMX-Datei die VM hinzufüge, fertig.
 
So umgebaut ist er.
Dann hab ich PCIe Passthrough aktiviert und seit dem bekomm ich keine Verbindung mehr.
Jeder Port ist disconnected
Ich hab schon andere Kabel, andere Ports, anderen Switch probiert. Szenario immer gleich. Link und Act wird angezeigt. Das war es dann aber auch.
Jemand eine Idee was das sein kann?
 
Schau mal wie deine vSwitches konfiguriert sind. Und auf welchem das Management interface aktiv ist
 
vmnic 2 und 3 sind für das Management Network aktiviert und gleichzeitig vswitch0
IP ist statisch.
 
Nabend,

folgendes Problem:

Hier steht ein ESXi 5.5 mit aktuellem Patchlevel und einem Supermicro X9DR3-F als Unterbau.
Dieses Board bietet neben den normalen onboard SATA Schnittstellen auch einen dual Port SAS Controller (Intel SCU), dieser ist via VT-D an eine W2K12 R2 VM durchgereicht und aktuell nur mit einigen einzelnen Platten ohne Raid bestückt.

Soweit so gut. Lese- und Schreibgeschwindigkeit (gemessen mit HDtune, ATTO und kopieren von Daten) mit über 100MB/s so wie sie sein sollten.

Jetzt wird auf einer dieser Platten (welche ist egal, da auf allen die gleichen Symptome sichtbar werden) ein Truecrypt Container angelegt und dieser erneut einem Lese- und Schreibtest unterzogen (ATTO & kopieren von Daten)
Gelesen werden kann aus dem Container mit vollem Speed aber beim schreiben ist bei etwa 25 MB/s Sense, ich weiß aber nicht warum :hmm:

Fakt ist, die Hardware hat genug Power, AES-NI ist aktiviert und aus der VM nutzbar, der Container wurde beim erstellen mit der maximalen Geschwindigkeit der HDD erstellt. Eine verschlüsselte VMDK brachte normale Performance.

Hat jemand von euch eine Idee woran das liegen könnte bzw hat jemand die Möglichkeit auf einem durchgereichten Controller einen Container zu erstellen und hier mal die Geschwindigkeit zu prüfen?
 
What? Intel SCU geht mit VT-d unter 5.5?!

Aufgrund der Situation mit dem vSphere Client hänge ich noch ewig auf 5.1 und will auch nicht so recht upgraden. :>
 
Warum sollte das nicht funktionieren? OK, der ESXi als solches würde da wohl nur einzelne Platten erkennen da der ja kein "echter" Raid Controller ist, (falls er die SCU überkaupt direkt unterstützt) aber hier wird die SCU ja nur an eine VM durchgereicht.

Den Client gibts auch noch für ESXi 5.5 und seit dem Update 2 kann der Client auch Virtual Hardware 10 bearbeiten (wenn auch mit den Beschränkungen von VH 8)
 
Weil das bei 5.1 noch nie ging, weil die SCU hinter eine PCIe bridge hängt. Von daher wunderts mich extrem, dass das bei 5.5 auf einmal geht.
 
Sacht mal, kennt wer aus dem Hut eine Möglichkeit, einem ESXi 5.5U2 Host irgendwie beizubringen, dass er bei Volllast auf dem LAN Link sein NFS Share nicht vergessen tut?

Hintergrund ist der, wir nutzen bei uns einige NAS Appliances für Backupzwecke. Nun war es bis dato immer so, dass unter Last (also während des Backups) idR die Platten und nicht die Verbindung der Flaschenhals waren -> was soweit auch kein Problem ergibt. Nun habe ich hier eine QNAP mit 8x HDD Einschüben, dort schlummern 8x 10k Platten im Raid 6 drin -> Source ist in dem Fall ein SAN über 8GBit FC und 8x 15k Platten im Raid 10. Starte ich ein Backup, rumpelt es kurz, der VCOPs meldet Volllast auf den NICs des ESXi, wo die Backup Appliance läuft und die Backup Appliance selbst verliert früher oder später die Verbindung zu seiner VMDK, die auf dem NFS Share der QNAP liegt.

Was hab ich bis dato schon gemacht:
- eigenen vSwitch + physischen Port am Server für die NFS Connection
- QNAP via 2x und auch 4x LAN Anbindung an den Switch -> Teaming der Adapter
- Etherchannel auf der ESXi Seite für die Verbindung VMkernel-Port -> Switch mit 2x 1GBit
- Move der Backup Appliance auf einen dedizierten ESXi ohne sonstige Last
- iSCSI anstatt NFS

Unterm Strich bringt das aber alles nix. Das Backup läuft an, die NIC des Hosts schiebt sich zu und die Appliance verliert die Connection zur VMDK für das Backup auf dem NFS Share und es knallt.

Nur was tun? Jemand eine Idee?
Eigentlich dachte ich, dass mit dem Thema Teaming auf der NAS und auf der ESXi Seite das Problem behoben ist -> aber scheinbar nicht der Fall.
 
Teaming von esx-Nics ist eh eher...naja, wenig beeindruckend. Bist du dir denn sicher, dass dann auch beide NICs für den einzelnen TCP-Stream verwendet werden?
 
Ne, denn das scheint halt das Problem zu sein... Nach Vmware Best Practice geht das am Cisco Switch via Ether Channel zu "Teamen". Das Problem bei NFS ist eher, dass er pro Host eben nur eine der NICs nutzt, wenn es nur eine einzige VM ist, die die Datenlast produziert. Und das fällt mir da irgendwie scheinbar auf die Füße.

Mit dem Teaming wollte ich versuchen, dass der ESXi selbst als Host noch die Verbindung hält und sieht (dann womöglich über den anderen Adapter), wärend die VM Last erzeugt. Das ging aber nicht auf...

Auch die Netzwerkseite ist nicht das Problem. Es handelt sich um Cisco 3850X Switches und ich habe aktuell drei Hosts, die das selbe Verhalten zeigen. Halt immer der, wo die Backup Appliance drauf läuft... Und es hängt sich dann ab, wenn die Last lange oben andeckelt (also 100% Load am LAN Adapter)
Mir fällt auch aus dem Hut nix ein, wo ich da noch ne Drosslung oder ähnliches schalten kann... Da alle Drosslungen, die mir bekannt währen, den kompletten Kommunikationsverkehr betreffen würden.
 
Tatsächlich ist das auch der Grund, wieso wir just gestern von Gigabit auf 10gbe-NICs umgerüstet haben. Das Teaming ist Käse (bei HP-Switchen ist IP-Hash Best Practice, auch Kacke). Heute Nacht dann mit 650MB/s von einer VM auf Host A zu einer VM auf Host B kopiert. Mehr als zufriedenstellend. (Datastores sind lokale Raid 5 mit je 8 2,5" 15k-SAS).

Okay, Vmotion ist immernoch lahm, aber das muss sich der VMware-Support ansehen.
 
Ja bei einem Etherchannel oder auch bei nem LACP Tunnel ist die maximale Bandbreite eines TCP Streams die eines einzelnen Links im Verbund.
Die Entscheidung welcher Link genommen wird normalerweise nur durch source oder destination mac getroffen.
Ich würd hier mal 2 dedizierte vmknic am ESXi und 2 an der QNAP einrichten und iSCSI Multipathing nutzen. Damit solltest du die Geschichten umgehen können.

In diese Thematik sind wir dank 2x10G bzw 2x40G Anbindung an unseren Servern noch nicht gekommen.

@delicous_cake
Was heisst lahm? Ist ja ein dehnbarer Begriff? Hab zum Testen gerade ne VM mit 40Gb Ram verschoben und laut vmkernel Log bin ich auf eine Bandbreite von ~739.788 MB/s gekommen.
Oder meinst du Storage vMotion?
 
Die Sicherung über einen dedizierteren Rechner, direkt per FC vom SAN ist nicht möglich?
 
@olqs: Das (storage) vMotion ist bei uns lahm weil vermutlich in irgendeiner Form kaputt. Und da wir ja jedes Jahr gutes Geld für S&S zahlen, lass wir da einfach mal den Hersteller draufschauen.
Derzeit schieben wir von Host A auf Host B mit 100 und von B auf A mit 70 MB/s. Es sind zwei baugleiche DL380 GEN9 mit je 288GB, dual E5-2630v3 (aus dem Kopf...irgendein Haswell EP mit 10 Kernen), Raid 5 über 8 HDDs und per 10gbe verbunden. Das ist verständlicherweise sehr unzufriedenstellend.
 
Da würd ich auch einen Case aufmachen.
Wie schnell bei uns storage vMotion ist hab ich mir noch nicht so wirklich angesehen, das läuft bei uns automatisch in der Nacht dank Storage DRS Cluster.
 
Tatsächlich ist das auch der Grund, wieso wir just gestern von Gigabit auf 10gbe-NICs umgerüstet haben.

Die Hosts hängen noch mit 10GE am Switch... Das könnte ich auch nutzen... Problem ist halt, die QNAP hat nur 4x1GBit Ports... Der Flaschenhals wäre halt nicht verschwunden.

Ja bei einem Etherchannel oder auch bei nem LACP Tunnel ist die maximale Bandbreite eines TCP Streams die eines einzelnen Links im Verbund.
Die Entscheidung welcher Link genommen wird normalerweise nur durch source oder destination mac getroffen.
Ich würd hier mal 2 dedizierte vmknic am ESXi und 2 an der QNAP einrichten und iSCSI Multipathing nutzen. Damit solltest du die Geschichten umgehen können.

iSCSI hat für mich noch andere Probleme... Wir haben hier und dort mit QNAP Devices den Fehler gehabt, dass sich irgendwann während der Fahrt die iSCSI LUNs einfach abgemeldet haben und nur durch ein händisches ausschalten auf der QNAP zum Neuanmelden zwingen ließen. -> seit dem nutzen wir NFS. Das scheint mir aber ein Deviceproblem als ein ESXi Problem zu sein, da es auch ohne Last zustande kam.
Aber ich muss mir das mit der iSCSI Geschichte nochmal angucken und werd es ggf. nochmal auf nen Test ankommen lassen. Ich bin mittlerweile schon an dem Punkt, das einfach mal über SMB zu probieren :fresse:

Was heisst lahm? Ist ja ein dehnbarer Begriff? Hab zum Testen gerade ne VM mit 40Gb Ram verschoben und laut vmkernel Log bin ich auf eine Bandbreite von ~739.788 MB/s gekommen.
Oder meinst du Storage vMotion?

Mit genügend gleichzeitigen Movevorgängen sollte da sogar noch deutlich mehr gehen. Die besagten Hosts hier schieben die 10GE Ports zu 99% Dicht, wenn ich einen Host leer räume fürs Patches einspielen...

Die Sicherung über einen dedizierteren Rechner, direkt per FC vom SAN ist nicht möglich?

Nein, da nur 3x ESXi Hosts nebst Storage und Backup Storage vorhanden sind. Das ganze steht in einem RZ mehrere tausend km entfernt von mir ;)
Bei allen anderen Installationen hatten wir das Problem ja auch nicht bis dato, weil einfach die Backupseite von den Platten so lahm war, dass es nie zum 1GBit/sec Limit kam :fresse:
Konnte mich aber am Ende dann durchsetzen und habe für die größere Clusterumgebung die fettere QNAP mit 10k Platten bekommen, was mir nun auf die Füße fällt...
 
Moin!
Ich habe am Wochenende esxi 5.1 u3 auf meinen HP microserver gen8 installiert. Performance technisch ja ein Wahnsinns Unterschied zu proxmox.
Da ich aber ein macbook nutze ist es ein wenig leidig den Server nun zu administrieren. Hat jemand einen tip / Leitfaden wie ich den Web Client nutzen kann? Habe mich nun den ganzen Sonntag durch das Handbuch gewühlt aber irgendwie funktioniert das alles nicht, bzw ich habe noch nicht einmal die richtigen Dateien gefunden.
5.1 habe ich gewählt, da ich die usb3 Ports an xpenology durchreichen möchte.
Danke schon mal,
kpax
 
Den Web Client kannst du nur benutzen, wenn du einen vCenter hast. Der ist ab vSphere Essentials dabei.

Wenn du das hast, dann findest den Link auf Port 443 des vCenters.
 
Also mit dem aktuellen ESXi 5.5u2 + aktuelle Patches funktioniert PCI-Passtrough wieder einwandfrei mit den HP Gen8.

Mein ML310e läuft im Moment mit einer OmniOS VM mit durchgereichtem IBM M1015 einwandfrei :)

USB 3 noch nicht getestet da mein ML310e kein USB 3 hat.
 
Wow!

Ich wollts am WE noch ausprobieren, und dachte nur, jo, wird eh nix.
Jetz brauchts noch ne VT-d Prozi für meinen zweiten... Kost doch alles wieder Geld :d
 
hab nen alten Rechner hier wo ich mal esxi testen wollte, ist ein e8400 mit gigabyte g35-ds4 und 8gb Ram. 320er Festplatte ist auch verbaut. Wollte damit nur mal ein wenig rumspielen. Esxi 5.5 hab ich mir mal runtergeladen. Glaubt ihr das funktioniert ohne extra Treiber?

Workstation 11 läuft auf meinem Homeserver, die VM's könnt ich ja testweise auch auf den Esxi packen oder?
 
Also normalerweise läuft ESXi meist ziemlich gut ohne Treibern. Würde es einfach mal installieren und Testen.
Normalerweise kann man auch die Workstation 11 auf dem ESXi laufen lassen. Hab das mal mit einer Maschine gemacht, die auf VMware Player aufgesetzt wurde. Da brauchst aber normal nen Converter, gibts auch von VMware...
 
alles klar, teste ich. Esxi auf USB Stick oder auf die Festplatte? 4gb USB Stick hätte ich und müsst reichen? Irgendwelche vor oder Nachteile?
 
Vorteile des Sticks: Du kannst im Fall eines Hardwareausfalls Stick und HDDs in ein anderes System mitnehmen und hast nur wenige Stunden Ausfall.
 
Sollte gehen vermutlich funktioniert der Netzwerktreiber nicht unter ESXi 5.5 ohne vorher Treiber für die Realtek 8111B Netzwerkkarte einzubinden.
 
Also mit dem aktuellen ESXi 5.5u2 + aktuelle Patches funktioniert PCI-Passtrough wieder einwandfrei mit den HP Gen8.

Mein ML310e läuft im Moment mit einer OmniOS VM mit durchgereichtem IBM M1015 einwandfrei :)

USB 3 noch nicht getestet da mein ML310e kein USB 3 hat.

Oh mein Gott danke für die Info!! Vor ÜBER EINEM Jahr hat mir HP/Vmware meine Backuplösung (D2D2Tapelibrary)via Passthrough unter dem Arsch weggezogen und ich wollte diese Woche den Server nun physisch aufsetzen...dann habe ich aufgrund deines Hinweises nochmal im HP Dokument nachgeschaut:

HP Support document - HP Support Center

Frage ist nur, ob ich den "gleichen" Fehler nochmal machen sollte und mich auf ein Feature stützen was offiziell IMMER NOCH nicht bzw. TROTZ des Patches offiziell nicht unterstützt ist (siehe HCL) :kotz::-[
 
Also ich habe mich von allen Tape-Durchreichlösungen getrennt. Grund? Genau der, der da steht. Ohne offiziellen Support kann und wird das immer so enden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh