ESX / ESXi - Hilfethread

Liest Du Deine Posts eigentlich nochmal, ehe Du auf Antworten drückst?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Merkt man gar nicht.
Wenn das Handy zu klein zum Lesen ist, dann sollte es auch zum Schreiben zu klein sein. Solche Beiträge drücken Deine Wertschätzung anderen gegenüber aus.
Ich schreibe auch gefühlt 80% meiner Beiträge am Handy. Aber auch da kann man sich einen kleinen Funken Mühe beim Schreiben geben und am Ende nochmals drüber lesen.

Viel kann ich in Deiner Frage nicht entziffern, aber ich habe noch nie in einem System bemerkt, dass ein System zwischendrin die Verbindung zur Platte verliert. Ideal ist das sicher für kein Betriebssystem, wie kommst Du darauf, dass sowas passieren könnte? Oder anders herum: wie kommst Du darauf, dass ESXi hier mehr oder weniger robust sein könnte, als andere Systeme?
 
@ Gea
Ist dann RDM in den Notes zum ESXI als offizielles Feature genannt - wenn ich mich recht erinnere, war das ja bisher eher so "Es geht, aber viel Glück dabei" und halt nur über Shell möglich.
 
Prinzipiell kann man davon ausgehen dass spezielle Shell-Aktionen generell unsupported sind
und alles was man als Basisaktion per GUI anwählen kann supported ist.

Ich bin mir aber nicht mal sicher wie weit RDM bei SAS Controllern bereits mit 6.5 ging. Vor 6.0 ging das auf jeden Fall noch nicht und der Menüpunkt "Add Raw disk" ist auf jeden Fall neu in 6.7. In 6.5 gibt es einen Menüpunkt "Add new RDM disk". Ob der bereits mit SAS Controllern funktioniert hat, kann ich momentan nicht sagen, da ich meine 6.5er Maschinen nicht herunterfahren kann um pass-through zu deaktivieren. Falls jemand eine Testmaschine mit LSI HBA und 6.5 hat, kann er ja mal berichten.
 
Viel kann ich in Deiner Frage nicht entziffern, aber ich habe noch nie in einem System bemerkt, dass ein System zwischendrin die Verbindung zur Platte verliert. Ideal ist das sicher für kein Betriebssystem, wie kommst Du darauf, dass sowas passieren könnte? Oder anders herum: wie kommst Du darauf, dass ESXi hier mehr oder weniger robust sein könnte, als andere Systeme?
Also Ich war bei einen Cloud Security Congress und habe dort mit jemanden von Dell gesprochen haben sie zufällig einen "Rugged" Server haben der halt Stösse, Vibrationen und so aushalten kann alles was man von einer normalen Fernbus oder Bahnfahrt so kennt. Da bremsest das teil halt von 160 auf 0 weil der idiot verpasst hat die Sifa zu drücken.
Der Herr MA meinte das es sowas gibt: https://www.emc.com/collateral/brochure/oem-r2-launch-brochure.pdf
Ich habe gleich mal gefragt was die günstige Variante kostet. Mal sehen was da kommt.

Vorteil das teil ist (so wie es mir erklärt wurde) ein normaler Server und auf der anderen Seite ist das teil so rugged das man es in einen Fahrenden Fahrzeug verwenden kann.
 
Zum USB Stick Image/ Backup/Restore gibt es einfache Windows Tools
Ich nehme immer: http://napp-it.org/doc/downloads/usb_image.zip

Ich spiele gerade mit dem neuen ESXi 6.7 etwas herum.
Macht einen sehr guten und schneller Eindruck. Scheint auch stabiler als 6.5.
Ich musste z.B. vor einem Editieren einer VM nicht mehr dauernd F5 drücken.

Was mir gerade aufgefallen ist:
Wenn man einen LSI SAS Controller hat, so kann man einer VM dessen Platten per

Virtual Hardware > Add hard disk > Add > New Raw Disk

direkt einer VM hinzufügen - ohne Controller pass-through.
Wenn es sich um eine Sata Platte handelt, wird die Größe erst in der VM angezeigt, ansonsten sieht man nur die WWN und Größe=0.

Eine SAS Platte wird auch beim Hinzufügen korrekt mit der Größe und Hersteller angezeigt.


Geht zwar noch nicht mit Sata, erschliesst aber neue Möglichkeiten da das erheblich einfacher ist als das bisherige RAW Disk Mapping. Smart Werte werden sauber angezeigt und ein Pool Export + Pool Import auf einer anderen OmniOS Installation hat problemlos funktioniert.

Interessant ist das vor allem wenn man mehrere Platten direkt verschiedenen VMs zuweisen möchte, z.B. eine Storage VM mit NFS für ESXi in einem geschützten Netz und eine SMB VM für allgemeine Filerdienste. Bisher brauchte man dazu 2 HBA Controller.

OmniOS + Optane pass-through scheint aber immer noch nicht zu funktionieren.

Oi... vor allem ist das vielleicht interessant, wenn das Gast-OS keinen Treiber für den Controller mitbringt! So wie bei meinem 9305-24i... muss ich direkt mal ausprobieren, 1000 Dank für den Hinweis!
 
Viel kann ich in Deiner Frage nicht entziffern, aber ich habe noch nie in einem System bemerkt, dass ein System zwischendrin die Verbindung zur Platte verliert. Ideal ist das sicher für kein Betriebssystem, wie kommst Du darauf, dass sowas passieren könnte? Oder anders herum: wie kommst Du darauf, dass ESXi hier mehr oder weniger robust sein könnte, als andere Systeme?

Kommt drauf an - ESXi ist da schon recht vielfältig. Im Zweifel muss das System mit genau solchen Situationen klar kommen. Stichwort Pfadausfall beim Storage. Man verwendet zwar Multipathing Mechanismen, aber deswegen fällt im falschen Moment trotzdem ein Pfad aus.
Bei richtiger Konfiguration, vor allem idR auch bei supporteter Hardware, passiert da ganau gar nichts.

PS: mir ist übrigens aufgefallen, dass ein Windows OS deutlich robuster gegen Systemdisk-Fehler agiert als ein Linux. Schon bei den kleinsten Wacklern reißt es die Linux VMs oftmals. Nem Windows kannste auch ner Minute den drunterleigenden Datastore brach legen -> wenn er wieder verfügbar ist, gehts halt weiter :fresse: Selbst nen sauberen Boot bekommt die VM idR noch hin - Linux? Nix mehr mit Boot...
Bei meinen Tests waren das 2008 - 2012 R2 Server und Ubuntu 14.04/16.04 sowie SLES 11er VMs.

Prinzipiell kann man davon ausgehen dass spezielle Shell-Aktionen generell unsupported sind
und alles was man als Basisaktion per GUI anwählen kann supported ist.

Das würde ich so nicht sagen. Es gibt Tonnen von offiziellen Befehlszeilen. Viele KB Artikel setzen genau auf diese, vor allem im Fehler/Troubleshooting Fall. Auch gibt es sicher nicht supportete GUI-Möglichkeiten.
Würde ich so nicht in einem Zusammenhang sehen...
 
Vieleicht können wir uns darauf einigen dass
- Onboard Sata und RDM prinzipiell geht, aber unsupported ist
- Passthrough prinzipiell supported ist, aber nicht mit jeder Hardware funktioniert
- Raw Disk Mapping mit SAS Controllern prinzipiell supported ist und gute Chancen hat dass es recht zuverlässig arbeitet
 
Kurze Zwischenfrage, steh gerade auf dem Schlauch.
Storage vMotion Durchsatz bei nem iSCSI LUN überwachen?? Wo seh ich das?

Der Host meint, es ist quasi kein Durchsatz drauf, ich sehe minimal höhere Latenzen für die beiden betroffenen LUNs. (logisch)
Aber weder Disk Durchsatz noch Datastore Durchsatz ist zu sehen. Selbst Netzwerk Durchsatz ist nicht vorhanden laut vCenter. Die NetApp meint aber, da sind 20k IOs drauf...
 
Hi,

habe heute ESX 6.7 auf meinem ESX1 installiert (siehe Sig)
Supermicro hat kein neues Bios wegen Spectre / Meltdown veröffentlicht, aber in ESX 6.7 soll ja das Microcode Update mit drin sein. KB52085 betrifft zwar laut Dokument nur bis 6.5, aber die Microcode Version aus dem KB ist aktiv:

[root@xxxx:/vsish -e cat /hardware/cpu/cpuList/0 | grep “Current Revision:”
Current Revision:0x0000001f

Wenn ich aber in die vmware.log reinschaue sehe ich nicht die 3 neuen CPUCapabilities.
In einer Windows VM zeigt Get-SpeculationControlSettings die VM auch als verwundbar.

VM hardware version ist 14 und Host und VMs hab ich mehrfach neugestartet.
Hat einer eine Idee, was ich noch tun könnte?
 
Hi

Ich habe bei mir die uCodes per BIOS eingespielt. Bei meinen Windows Gästen sind die einen geschützt, die anderen nicht (Win 7). Das wird wohl an dem fehlenden Patch des Gast OS liegen.
 
Der Gast ist ein 2012 R2 mit allen Patches.
Die VM an sich sieht gar nicht die CPUCapabilities, die nötig wären um die durch die Patches bereitgestellten Workarounds zu nutzen.
Get-SpeculationControlSettings bestätigt auch, dass softwareseitig alles vorbereitet wäre, aber:

Hardware support for branch target injection mitigation is present: False

edit:
Habe parallel im VMware Community Forum gepostet und dort kam rum, dass es an EVC lag.
Mein Host war mal Mitglied eines Clusters mit aktiviertem EVC, daher wurden einige CPU Features für die VM maskiert.
Für Interessierte: ESX 6.7 Spectre and Meltdown |VMware Communities
 
Zuletzt bearbeitet von einem Moderator:
Oben rechts auf "Benutzer@IP" klicken -> Einstellungen -> Timeout der Anwendung -> Aus wählen
 
Hi, hat noch jemand das Problem das nach dem Update auf 6.7 in VM das am Rechner angeschlossene CD-Laufwerk Probleme macht?,ich sehe zum Beispiel in meiner Win7-VM das Laufwerk und auch das eine Disk eingelegt ist, sobald ich aber darauf zugreifen will wird die VM elend langsam und es geht nichts weiter.
 
Eine Frage zu ESXi / Napp-in-one:

Storage für weitere VMs stelle ich ja aus OmniOS/napp-it heraus klassischerweise per NFS über den virtuellen Switch zur Verfügung. Soweit so klar.

Wie sieht es hingegen beim eigentlichen Datenpool aus? Für andere Rechner im Netz möchte ich diesen auf jeden Fall per SMB freigeben. Kann ich mir dann NFS komplett sparen? Und wenn meine VMs per SMB auf diesen Datenpool zugreifen, wird das dann ebenfalls über die schnellen virtuellen Switches von ESXi geroutet oder ist der Durchsatz hier durch die physikalischen Adapter begrenzt?
 
Innerhalb eines ESXI geht das über den vSwitch und es bremst quasi nur die CPU-Leistung den Netzwerkdurchsatz. Oder wenn man es künstlich begrenzt.
Ich schaff etwa 2,4-2,5 GByte/s zwischen einer Windows-VM und der Storage-VM via SMB (mit vNetzwerkadapter VMXNET3). Allerdings nur kurz, solange der ZFS-ARC reicht, dann wirds langsamer auf den Pools weil die ja (noch) nicht entsprechend Durchsatz haben.

NFS brauchst Du auf alle Fälle für den Datastore der VMs; wo die drauf installiert sind. Die VMs selber können dann aber problemlos SMB sprechen. Sprich eine Windows-VM greift dann per SMB auf die von der Storage-VM freigegebene Netzwerkshares zu.
 
Ich würde gerne unter ESXi 6.5u1
- eine USB3 SSD als zusätzlichen Datastore nutzen
- eine andere USB3 Platte als Backupmedium an eine VM durchreichen.

Ist das überhaupt möglich?
Sobald ich den USB Arbitrator stoppe
/etc/init.d/usbarbitrator stop
bzw. für persistenten Zugriuff deaktiviere
chkconfig usbarbitrator off
kann ich auf die SSD unter ESXi zugreifen.

Aber eine weitere Platte kann ich dann nicht durchreichen, oder? Bzw. höchstens als RDM. Sehe ich das richtig?

Viele Grüße
Martin
 
Hab das stumpf über einen separaten USB-Controller gelöst, den ich dann an die VM per PCIe-Passthrough durchgereicht habe. Dann bleibt der Onboard für die anderen Zwecke für ESXi nutzbar.
 
Zuletzt bearbeitet:
Vielleicht könnt ihr mir weiterhelfen:

Ich versuche auf einem ESXi 6.5U1 Host eine vCSA 6.7(a) zu installieren. Soweit ich weiß ist es kein Problem wenn die ESXi Version kleiner der vCSA Version ist, erst umgekehrt kann es Probleme geben.
Bei der Installation bekomme ich folgenden Fehler: "Analytics Service registration with Component Manager failed". Nach meiner Recherche ist ein möglicher Grund fehlende Forward/Reverse Einträge für die Appliance im DNS, allerdings sind diese konfiguriert.

Woran kann es noch liegen?

Dies ist zugegeben die erste vCSA Instanz die ich aufsetze. Wir haben zwei Hosts in der Firma, da ist noch kein richtiger Bedarf vorhanden.

Edit: Nach dem bestätigen der Fehlermeldung erscheint: "This appliance cannot be used or repaired because a failure was encountered. You need to deploy a new appliance."
 
Zuletzt bearbeitet:
Wir haben eine Essentials Lizenz, diese ist auf allen Hosts konfiguriert.
 
Genau, ich habe bei VMware die iso für die Essentials vCSA heruntergeladen. Bei dieser Installation tritt der Fehler auf.
 
Dann verwendest du auch das essentials vCenter ?

Das ISO/Image ist doch da gleiche - Essentials ist hier eher die Lizenz. Und die ist erst im Nachgang einzuspielen...
Oder führt mich die Downloadseite gerade in die Irre?

Woran kann es noch liegen?

Dies ist zugegeben die erste vCSA Instanz die ich aufsetze. Wir haben zwei Hosts in der Firma, da ist noch kein richtiger Bedarf vorhanden.

Edit: Nach dem bestätigen der Fehlermeldung erscheint: "This appliance cannot be used or repaired because a failure was encountered. You need to deploy a new appliance."

Schwer zu sagen - es gibt Meldungen im Netz zu diesem Problem beim Update. Es gibt ein KB Artikel bei VMware zum Update Problem (das soll wohl in 6.7a behoben sein).
Ein paar wenige zu dem Thema bei ner fresh Install gibts ebenso - aber ohne Lösung.
Am Ende? Das kann alles und nix sein. Man müsste tiefer troubleshooten respektive die Install Logs genauer auseinander nehmen. Die Frage ist aber, lohnt das hier?

Weil für ne Liveumgebung würde ich nicht die aller neueste vSphere Version empfehlen. Mach da ein aktuelles 6.5er Release drauf und gut. Später, beim U1 oder nach dem U1 gehst du dann auf die 6.7 - dann sind auch die Kinderkrankheiten weg (meistens) ;)


PS: was übrigens vllt noch ein Anhaltspunkt sein kann wäre IPv6 - VMware und IPv6 ist nach wie vor recht grausig, vor allem wo das Ding offiziell zwar Dual Stack supportet irgendwie aber in Teilen hart in der vSphere Datenbank die IPs drin stehen, mit dem initial mal gearbeitet/aufgesetzt wurde.
Heist - für initial bleib bei v4 und schalt am Besten v6 komplett! ab, sowohl auf der Host als auch der vCSA Seite. Oder konfiguriere es 100% sauber auf v6 und hoffe drauf, dass da nicht irgendwo der Bock drin sind...
 
Zuletzt bearbeitet:
Ich habe heute auf ESXi 6.7 upgedatet und bekomme jetzt für meine OMV VM eine Fehlermeldung bzgl. dem Gastbetriebsystem. Unter 6.5 hatte ich "Anderes 3.x Linux-System" ausgewählt. Dies führt jetzt zur Warnmeldung, da nun "Anderes 4.x Linux-System" erwartet wird. Diese Einstellung gibt es aber nicht in der Auswahl der Gastbetriebssysteme. Ich habe schon diverse Einstellungen probiert, die Warnmeldung bleibt.
 
Mit ESXi 6.5 hatte ich Probleme mit SSDs am internen SATA Controller /Dell PowerEdge T30). Die Performance war extrem schlecht. Diese Probleme sind nach dem Update auf 6.7 nicht mehr vorhanden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh