ESX / ESXi - Hilfethread

Eigentlich ist es relativ einfach.
Es gibt Netzwerkdienste wie NFS oder SMB. Die werden von einem NAS Betriebssystem bereitgestellt und sind dazu da, dass mehrere Rechner und User gleichzeitig darauf zugreifen können. Das NAS kann dabei sein eigenes Dateisystem nutzen.

Dies ist auch für ESXi sehr interessant um darauf VMs oder vmdks anzulegen, da damit neuere Dateisysteme wie ZFS mit Snaps unter ESXi genutzt werden können.

Daneben gibt es Festplatten auf die ohne Spezialsoftware jeweils nur ein Rechner zugreifen kann/darf, egal ob es sich um eine echte Festplatte oder ein Blockdevice handelt, das virtuell (vmdk) oder übers Netz von einem SAN Betriebssystem über FC/iSCSI bereitgestellt wird und das der jeweilige Rechner dann quasi als "lokale Festplatte mit seinem eigenen Dateisystem" nutzen kann.

Eine NFS oder besser SMB Freigabe wäre also die richtige Option als Datenablage für mehrere VMs.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
datenablage insofern, dass dort die virtuellen festplatten gespeichert werden?

Datenablage insofern, dass dort die virtuellen Festplatten gespeichert werden?

Dh ich kann nicht direkt einen NFS Share Ordner über ESXi an eine andere VM durchreichen (sprich das der Ordner unter der anderen VM als Festplatte auftaucht)?

Wäre an sich bequem, wenn ich nur eine VM (mit OMV) als Samba Server hätte. So müsste ich jetzt 2 virtuelle Festplatten erstellen, wobei ich auf einer meine Dokumente liegen habe und auf der anderen meine Media Dateien (Filme, Bilder etc.)? Und ich müsste dann auch auf jeden Server einen Samba Dienst laufen lassen, wenn ich auf die Dateien zugreifen möchte? Richtig?

Stellt sich natürlich die Frage, warum ich nicht alle Dienste in einer VM laufen lassen. Der Fileserver ist für mich sehr wichtig und ich will ungerne andere Dienste darauf laufen lassen (Owncloud, PlexMedia Server, Bittorrent Server, Calibre Server etc.).
 
Mein ESXI 6.0 erkennt das Host BD Laufwerk nicht mehr.
Keine Ahnung ob dies seit 6.0 oder 5.5 bereits ist. Verwende es extremst selten.
Im BIOS des Hosts wird es angezeigt.
Ideen?
Es taucht weder im Drop Down im vSphere Client auf noch im Passthrough oder unter CD/DVD LW hinzufügen auf.
 
datenablage insofern, dass dort die virtuellen festplatten gespeichert werden?

Datenablage insofern, dass dort die virtuellen Festplatten gespeichert werden?

Dh ich kann nicht direkt einen NFS Share Ordner über ESXi an eine andere VM durchreichen (sprich das der Ordner unter der anderen VM als Festplatte auftaucht)?

Wäre an sich bequem, wenn ich nur eine VM (mit OMV) als Samba Server hätte. So müsste ich jetzt 2 virtuelle Festplatten erstellen, wobei ich auf einer meine Dokumente liegen habe und auf der anderen meine Media Dateien (Filme, Bilder etc.)? Und ich müsste dann auch auf jeden Server einen Samba Dienst laufen lassen, wenn ich auf die Dateien zugreifen möchte? Richtig?

Stellt sich natürlich die Frage, warum ich nicht alle Dienste in einer VM laufen lassen. Der Fileserver ist für mich sehr wichtig und ich will ungerne andere Dienste darauf laufen lassen (Owncloud, PlexMedia Server, Bittorrent Server, Calibre Server etc.).

ESXi kann NFS Speicher für VMs nutzen aber selber nicht iSCSI, NFS oder SMB Server spielen.
Man kann aber eine VM als Storage VM benutzen die Storage per iSCSI, NFS oder SMB bereitstellt. Da die Storage VM aber auf relativ unsicherem ESXi Storage liegt, sollte die keine anderen Dienste machen damit die schnell und ohne größere Konfigurationen wiederherstellbar ist. Dienste wie Plex oder andere Serverdienste sollten als eigene VMs auf sicherem ZFS Speicher aufgesetzt werden ansonst muss man sich Gedanken über Backup und Restore machen.

Meine Lösung dazu ist napp-it, ein virtueller ZFS Storage Server als ESXi Webappliance. Der ist in 5 Minuten installiert und wird per Browser bedient. Man sollte aber für Storagevirtualisierung Serverhardware haben (Serverchipsatz, Xeon, extra Controller für die Festplatten). Die VM kann auch als allgemeiner Fileserver genutzt werden, nicht nur für NFS.
 
Zuletzt bearbeitet:
Vielen Dank! Es hat mir wieder mein Filesystem zerschossen, jetzt weiß ich auch warum :-)

Ich hab noch eine Verständnisfrage: Ich habe jetzt dem Host unter Konfiguration/Speicher/Speicher hinzufügen einen NFS Share meines Fileservers zugewiesen. Ich möchte gerne den NFS Share einer VM zuweisen. Muss ich dazu immer eine virtuelle Festplatte (.vmdk) erstellen oder gibt es auch eine Möglichkeit, dass der NFS Share direkt eine Festplatte ist?

Kannst du nicht einfach mal skizzieren, was du genau vor hast?
Ich glaube, wir reden hier aneinander vorbei...

Der Ansatz von gea bspw. ist der, dass du eine Storage VM auf dem ESXi hostest, diese Storage VM stellt die Datastores für die virtuellen Maschinen bereit. Jeder VM hat dann ihre eigene(n) VMDK(s) zugewiesen, welche über NFS (oder iSCSI) auf bzw. eigentlich IN der Storage VM bzw. dessen Speicher liegen.
Stell es dir bildlich einfach so vor, du hast eine gewisse Anzahl von HDDs oder/und SSDs im ESXi Server stecken. Nun reichst du diese Platten direkt an/in eine einzige virtuelle Maschine. Diese virtuelle Maschine baut dir durch ein brauchbares Filesystem dort eine Art Redundanz drüber -> ZFS und stellt dir weitere Funktionen wie Checksummenprüfung usw. bereit, was die Sicherheit der Daten erhöht.
-> da du ja aber mehrere VMs am ESXi nutzen willst, muss nun diese Storage VM ihr Storage dem ESXi Wirt bereit stellen -> das geht über LAN und NFS (oder iSCSI) -> dabei verlassen die Daten den ESXi Host nicht, sondern werden direkt am internen vSwitch gehalten -> was grundsätzlich erstmal guten Durchsatz bedeutet.
-> Durch das Anhängen des Storages der Storage VM am ESXi hast du also ein für den ESXi gesehen lokalen Datestore, worauf du weitere VMs legen kannst und alle Vorteile, die dir ZFS bieten kann.
-> Die Storage VM kann/könnte dabei grundsätzlich auch als Fileserver dienen. Muss aber nicht, das könnte auch eine dritte VM übernehmen, die dann ihrerseits als VMDK Container auf dem ZFS Storage liegt und SMB/FTP oder sonstige Freigaben hostet.


In deinem Fall aber, du willst wohl, wenn ich das richtig verstehe einfach zwei verschiedene Dienste auf ein und den selben Datenbestand zugreifen lassen, müsstest du der Owncloud VM oder Plex VM oder welcher auch immer, direkt ein NFS share mounten (intern im Gast OS der VM -> nicht am ESXi Host!). Ob das nun ein Linux oder ein Windows ist, ist dabei generell erstmal egal... Bin mir gerade nicht ganz sicher, was NFS und Windows angeht, sprich ob man da auch einen Laufwerksbuchstaben mappen kann. Müsste sich aber hinbekommen lassen.
Das heist dann unterm Strich, dein Fileserver hat die Ordner lokal irgendwo auf seinen (virtuellen) Platten liegen. Und deine Owncloud, Plex oder was auch immer, haben die gleichen Ordner, eigentlich sogar die selben Ordner über eine NFS Freigabe ebenso quasi lokal gemountet. -> damit wäre dein Vorhaben machbar, so denke ich.

Das einzige, was dir dabei auf die Füße fallen könnte, wenn da jemand die Finger in den Files drin hat, bspw. wenn eine Datei über eine Programm geöffnet wird und während der Zeit das File gelockt ist, könnten komische Effekte auftreten in den anderen VMs. Das müsstest du austesten...
 
Gibt es eigentlich einen Grund auf das ältere ESXi 5.5 anstatt 6.0 zu setzen? Mein Hyper-V Server (siehe sig) bekommt ein neues OS.
 
Keine Ahnung, wie das bei einem Single ESXi ausschaut. Aber beim 6er hast du bspw. keinen Hardwarestatustab im classic Client mehr. -> du siehst also bspw. nicht mehr, wenn der Raidcontroller über den CIM Provider ein Problem meldet, weil bspw. eine HDD ausgestiegen ist. -> ist mir jüngst erst aufgefallen. Der 5.5er kann das noch und ich nutze bspw. Zuhause genau diese Möglichkeit für eine Alarmierung.
Ansonsten sind ein paar Funktionen aus dem classic Client rausgeflogen, ob man das effektiv braucht/nutzt, ist halt bei ner Single Install fraglich. Warscheinlich macht es in den meisten Fällen keinen Unterschied. Einzig der möglicherweise etwas höhere Ressourcenbedarf der neueren Versionen könnte stören... Bei genügend Power sollte das aber auch vernachlässigbar sein.
 
Ist die Monitoring API denn beschnitten worden? An die Storage kommt man ja leider nicht mehr ran (hätte sonst Backup mit Veeam gemacht). Allerdings monitore ich meine Systeme mit ICINGA und das entsprechende Plugin geht an die Monitoring API (nein nicht SNMP).

Die 6er wird sicherlich aber noch weniger sein als Hyper-V (mit GUI). Ist zwar nicht der Grund warum ich wechsel, aber da möchte ich mich nur ungern verschlechtern.

Genutzt wird eh der Beta Web Client. Hab nur Macs hier rum stehen, da möchte ich nicht wg. jedem sch**** Windows booten müssen.
 
Das kann ich dir ehrlich gesagt gar nicht genau sagen... Ich nutze die Teile bis auf meinen T20 Zuhause Produktiv, sprich da steht immer ein vCenter davor/daneben... Entsprechend läuft das ganze Zeug da über das vCenter.
Mir ist es halt nur jüngst aufgefallen, als ich zur Installation ein paar neue Bleche vorbereitet hatte -> und da war im classic Client der Hardwaretab nicht mehr vorhanden. Kurz google befragt und es ist rausoperiert wurden und nur noch noch im Webclient vorhanden. Sprich der Status ist noch da. Aber die Oberfläche fehlt im Classic Client.

Die Frage dürfte also sein, wie deine Software dort den Status abgreift... In meinem Fall (ich nutze irgend so ne alte Veeam Monitoring kostenfrei was weis ich Lösung), wird der Hardwarestatus bzw. genauer, die Änderungen am Hardwarestatus dazu verwendet, um Alarme zu generieren, welche schlussendlich dann via Mail versendet werden. Nutzt zwar nix mehr, wenn die Kiste kollosal abschmiert, weil dann auch keine Mails mehr raus gehen, aber zumindest einfach HDD Ausfälle oder ähnliches bekommt man dadurch mit.
Andere Lösungen mögen vielleicht direkt den/die CIM Provider abfragen, dann fällt der Umweg über den Hardwarestatustab raus und es dürfte/sollte kein Problem darstellen...


PS: was meinst du mit, an die Storage kommt man nicht mehr ran?
Backup mit Veeam sollte theoretisch noch gehen... Allerdings sollte man wissen, das es offiziell nicht erlaubt ist. Hatte jüngst erst dort Kontakt zu den Jungs von Veeam, da wir auf der Arbeit darauf umstellen wollen. Sauber ist definitiv nur ESXi in Verbindung mit dem vCenter und dann halt je nach Lizenzmodell wohl auf CPUs des Host lizensiert.
Ich hatte aber selbst schon Veeam Installationen mit Single ESXi Servern in Betrieb... Zumindest damals ging das noch. Sollte mit dem 6er nicht anders sein...
 
Das kann ich dir ehrlich gesagt gar nicht genau sagen... Ich nutze die Teile bis auf meinen T20 Zuhause Produktiv, sprich da steht immer ein vCenter davor/daneben... Entsprechend läuft das ganze Zeug da über das vCenter.
Mir ist es halt nur jüngst aufgefallen, als ich zur Installation ein paar neue Bleche vorbereitet hatte -> und da war im classic Client der Hardwaretab nicht mehr vorhanden. Kurz google befragt und es ist rausoperiert wurden und nur noch noch im Webclient vorhanden. Sprich der Status ist noch da. Aber die Oberfläche fehlt im Classic Client.

Die Frage dürfte also sein, wie deine Software dort den Status abgreift... In meinem Fall (ich nutze irgend so ne alte Veeam Monitoring kostenfrei was weis ich Lösung), wird der Hardwarestatus bzw. genauer, die Änderungen am Hardwarestatus dazu verwendet, um Alarme zu generieren, welche schlussendlich dann via Mail versendet werden. Nutzt zwar nix mehr, wenn die Kiste kollosal abschmiert, weil dann auch keine Mails mehr raus gehen, aber zumindest einfach HDD Ausfälle oder ähnliches bekommt man dadurch mit.
Andere Lösungen mögen vielleicht direkt den/die CIM Provider abfragen, dann fällt der Umweg über den Hardwarestatustab raus und es dürfte/sollte kein Problem darstellen...


PS: was meinst du mit, an die Storage kommt man nicht mehr ran?
Backup mit Veeam sollte theoretisch noch gehen... Allerdings sollte man wissen, das es offiziell nicht erlaubt ist. Hatte jüngst erst dort Kontakt zu den Jungs von Veeam, da wir auf der Arbeit darauf umstellen wollen. Sauber ist definitiv nur ESXi in Verbindung mit dem vCenter und dann halt je nach Lizenzmodell wohl auf CPUs des Host lizensiert.
Ich hatte aber selbst schon Veeam Installationen mit Single ESXi Servern in Betrieb... Zumindest damals ging das noch. Sollte mit dem 6er nicht anders sein...

Vielen Dank für deine ausführliche Antwort, ich denke ich hab es jetzt verstanden (und du meinst auch genau das, was ich vor hatte). Kann leider jetzt nicht viel schreiben, da ich in die Arbeit muss, aber nochmal Danke! :-)

Gruß
 
Habe Heute mal die neuste Version von ESXi Embedded Host Client installiert. War das schon immer so, dass man den Rest der Microsd auf der ESXI installiert ist als .vmfs Datastore zugeweisen werden konnte? Bis jetzt war es doch so, dass die Karte nicht zu Verfügung stand, oder habe ich da etwas übersehen?
 
ESXI Version 6. über die Updatefunkion den Web Client aktualisiert, wird dann unter Storage=>erweitern angezeigt. Weis aber auch nicht, ob nur SD oder auch bei einer USB Installation. Zumindest die weiteren USB Sticks werden nicht zur Verfügung gestellt.
 
Also zumindest die aktuellste Version kurz vor Weihnachten (keine Ahnung, ob es da mittlerweile wieder ein Update gab) lässt SD Cards in Cisco UCS Servern (C220 oder C240, jeweils M4) nicht als Datastore zu... Dabei trickst Cisco sogar noch mit ihrem Flex Cache Zeugs... Da es Möglich ist, zwei SD Cards im Raid 1 zu betreiben. Die Install des Hosts liegt dabei auf der Karte/den Karten selbst. Da man dort auch große Cards verkauft (64GB), könnte das schon sinnig sein, als local Datastore zu agieren. Allerdings scheint die Karte nach wie vor als USB Device durch und damit eben ohne diese Funktion... Keine Ahnung, angeblich soll man den freien Bereich noch als ISO Storage oder ähnliches nutzen können. Ob das mit dem ESXi auch geht? Weis ich aber nicht... Mir fehlt auch der Sinn so eines ISO Stores.
 
Naja, wir hatten, da wo ich vorher gearbeitet hab, durchaus öfter VMs neu installiert oder geschrottet, rein fürs Testing und Hardening.
Da war dann das ISO im Datastore schneller als über Console - sogesehen kann man ja häufig benötigte ISOs dort durchaus ablegen, oder einfach auch nur so, um ne LIVE-CD zu booten.
 
Wenn ich VMs ausrolle, nutze ich Vorlagen ;) -> da brauch es keine ISOs.
Und wenn die ISOs benötigt werden, kann ich die auch auf Datastores kippen... Zumal dann, wenn da ein anständiges Storage drunter schlummert, auch noch so Sachen wie Dedublizierung und Co. drin sind.
Wie gesagt, der Sinn dahinter erschließt sich mir nicht direkt, weil andere Lösungsansätze da die idR für mich vorteilhafteren sind...
 
Für mich wäre die Lösung mit dem Storage für iso auf der mSd optimal, da meine erste VM die den Storage zur Verfügung stellt, eine iso zum booten benötigt, so bleibt mir einer der sonst schon eher wenigen Anschlüsse im Microserver für eine weitere HDD frei.
Werde das die Tage einmal ausprobieren.

Anhang anzeigen 346397
Anhang anzeigen 346398
Ich nehme zumindest anhand der Partitionierung an, dass es sich dabei um die mSD handelt.
 
Ich habe mal ne Frage zur Arbeitsspeicherverwaltung:
Bei Hyper-V habe ich für meine VMs immer dynamischen RAM vergeben. So brauchte mein DC im Regelfall nur so 0,5 - 1 GB Ram. Bei entsprechender Nutzung stieg das dann auf 4 GB (mein angegebenes Maximum) an.

Jetzt im ESXi 6.0 wird dem Host direkt 4 GB gegeben obwohl dieser zeitweise unter 1 GB benötigt. Somit kann ich meine 16 GB nicht wirklich überprovisionieren bzw. bin schnell am Limit angekommen, weil unnötig RAM "verschwendet" wird.
Ist es daher möglich die Einstellung anzupassen, dass das ähnlich wie in Hyper-V funktioniert?
 
Das macht VMWare automatisch, wenn der Host-RAM voll ist, das nennt sich Ballooning und das kann VMWare schon weitaus länger als Hyper-V. ;)
 
Hi & Happy New Year !!

ich bräuchte eine kleine Hilfestellung in puncto Direct I/O bzw. Passthrough meiner Intel Dual Server NIC - ich verwende ESXi 5.0.0 Build 1311175

Ich habe das Problem, dass ich die zwei Netzwerkports nicht an zwei verschiedene VM´s durchreichen kann.

VM #1 hat bereits seit mehreren Monaten eth #1 der Karte durchgereicht - alles funktioniert bestens.....
jetzt würde ich gerne eth #2 an eine andere VM #2 durchreuchen da ich dort einen ähnlichen use case wie in der VM #1 habe.

Und das geht leider nicht, ich kann in den VM Einstellungen > PCI Device > eth #2 auswählen und hinzufügen.
Wenn die VM gestartet wird, bricht er mit einem Error ab und sagt "Device already in use"

Das Port wurde aber noch keiner anderen VM zugeordnet, habe ich mehrmals kontrolliert - es geht einfach nicht, leider habe ich auch nicht mehr Feedback vom ESXi warum nicht.

Hat jmd einen Rat oder guten Tipp?
Grüße
Stefan
 
Das geht nicht.
Man kann nur komplette PCI-e devices durchreichen.
 
Das ist auch grds. nicht im Sinne des Erfinders. Für den virtualisierten Einsatz unterstützen spezielle Server NICs so Sachen wie SR-IOV und VMQ, bei denen der Host über den Treiber viel effizienter die Ressourcen managen kann (und das z.B. AFAIR für ca. 64 VMs pro Port hinbekommt). Wenn Du die 2 Ports auf verschiedene VMs aufteilen willst, solltest Du also (auch mit Deiner NIC) das über zwei verschiedene virtuelle Switches machen.
 
hmm... in meiner Vorstellung hats geklappt da ja die Netzwerkports unterschiedliche PCI Adressen haben.
 
Hallo Leute,
Ich bräuchte eine kurze Info von euch.

Ich habe momentan ESXi 5.5 auf einer HDD mit den ganzen VMs.
Jetzt wäre der Plan die HDD durch ein SSD Raid1 zu ersetzten um mehr Geschindigkeit und Sicherheit zu erhalten.

Würde es funktionieren wenn ich via vShpere Client die kompleten Orndner der VMs herunterlade, die SSDs einbaue, ESXi 6 neu installiere und die Ordner wieder drauf kopiere?
Kann ich dann meine vorhandenen VMs weiter verwenden, oder gibt es da Probleme.
Meine Daten HDDs sind alle VMFS5
Meine VMs sind Version 7 manche 8

Ich wäre euch sehr dankbar für eine Antwort
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh