ESX / ESXi - Hilfethread

Hallo alle zusammen. Ich bin am verzweifeln. Ich habe an meinen Microserver eine externe HDD angeschlossen die in esxi auch soweit erkannt wird und auch durch gereicht werden kann.
Windows 10 Pro sagt mir dann das die Festplatte nicht ordentlich läuft und bricht die Erkennung ab.
Teste ich die Platte am Laptop, funktioniert sie 1a.
Nun habe ich mal probiert die Platte in FreeNAS zu mounten, jedoch auch ohne Erfolg.
Hat einer eine Idee woran das liegen kann das die Windows 10 Pro VM die Platte nicht ordentlich erkennen kann?
Die externe Platte ist eine Seagate Expansion 2TB.
Über Hilfe wäre ich sehr dankbar.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
lies mal die esxi hcl

für passthough rdm ist proxmox und WS besser
 
Mit Esxi5 soll ja Passthrough von PCI Geräten nicht funktionieren wenn Esxi selber auf nem USB Stick installiert ist, hab das zumindest gelesen. Ist das immer noch so mit der aktuellen Version von Esxi?
 
Nein. 6.0 und 6.5 funktionieren 1a mit passthrough auch wenn ESXi selbst auf einem Stick ist.
 
@Seelbreaker

Ja - Nvme + SATA SSD + SATA HDD gleichzeitig zu verwenden ist möglich. vSAN benötigt immer zwei Arten von Disks - cache und capacity
Du benötigst pro DiskGroup im Server min 1x CacheDisk - Das ist aber nur reiner Cache und wird nicht als Storage verwendet werden können, also nicht zu der capacity.
und dann eben deine Capacity Disks. schneller Zugriff auf SSD und "langsamer" auf HDD... langsam gibt es bei einem korrekt konfigurierten und gesizetem vSAN nicht

Zu DEINEM Szenario:
Es bringt dir soviel, wie wenn du eine 1000 PS Gasturbine neben deinen VW Polo mit 75 PS stellst und allen erzählen willst wie schnell und
toll dein Auto ist weil du eine Gasturbeine mit 1000 PS hast.

Ein vSAN Single Node macht nur für eines Sinn: Zum testen. Für mehr nicht. vSAN bringt dir erst den echten und wahren Nutzen ab 5 Hosts (offiziel ab 3, empfohlen ab 4, produktiv und effektiv ab 5) + einem extra Mgmt-Server auf welchem vCenter läuft.
Wenn ich lese dass du dort eine Synology virtualisieren möchtest dann hört sich das nicht mehr nach "Ich teste mal vSAN" an und gibt mir das Gefühl dass du keine Ahnung hast was du da eigentlich tust.
Was auch immer du vorhast: Möchtest du vSAN nur testen: OK Möchtest du auf einem Nested vSAN Single Node Cluster DATEN ablegen. NEIN! No! Never. Lass die Finger von davon.

vSAN ist etwas für den Datacenter Profibereich und möchte man es effektive benutzen muss man verd* viel Geld auf den Tisch legen damit es sich gegenüber anderer Storagetechnologien überhaupt rentiert.
 
Zuletzt bearbeitet:
Moin zusammen,

ich habe mal eine kurze Verständnisfrage.

Habe die ganze zeit einen ubuntu server genutzt für meine Zwecke.
Der Lag beim Stromverbrauch bei 25W (glaube das war aber ein Auslesefehler, nach einem Stromausfall war er auf einmal bei 40W)

Hardware:
I5 4570T
MSI B85m eco
16gb ram
6x 3TB WD Green
1x 128GB Samsung SSD
USB Stick für ESXI

Ich habe jetzt mal testweise ESXI aufgesetzt mit 1x omv / 1x Windows 10 / 1x ubuntu server VM´s.

Die 6 Hdd´s habe ich durchgereicht an die OMV VM.
In OMV ein RAID5 erstellt und fertig initialisieren lassen.

Während der Initialisierung lag der Verbrauch bei rund 75W.

Heute Morgen war er dann fertig und hat "nur" noch 55W verbraucht.

Ich finde das aber trotzdem noch recht hoch.
Auch das Abschalten aller VM´s bringt nix, esxi ohne die HDD´s verbraucht weiterhin 50-55W.

Habt Ihr Tipps wie man den Verbrauch senken kann?

Falls nein würde ich denke ich wieder zurück zu Ubuntu Server wechseln.
Über 30% mehr Verbrauch nur durch ein anderes OS sehe ich irgendwie nicht ein....
 
Hi

ESXi ist kein Stromsparwunder. Die Platten gehen nicht in den Spindown, und auch sonst ist alles auf hohe Leistung getrimmt per default.

Mit Deiner Konfiguration und Deinen RED's wirst Du nicht viel mehr raus holen können.

Meiner nimmt sich wohl so um die 100W im idle, obwohl nur 3 Platten und eine SSD verbaut sind.
 
Naja, man kann im Power Menü vom ESXi schon umstellen, ob er auf Höchstleistung oder Energiesparend laufen soll.

Wie sind die Platten denn durchgereicht? - ggf. macht es hier mehr Sinn den Controller durchzureichen, damit die VM vollen Zugriff hat und ggf. ein Spindown der Platten initiieren kann.
Ansonsten kann man im Bios noch alle nicht benötigten Geräte deaktivieren, sprich Soundkarte, Serielle Schnistelle, etc... - bringt unter Umständen auch noch das ein oder andere (m)W

Da Virtualisierungshosts wie von AliManali nicht darauf ausgelegt sind, in Halt-States zu wechseln, sondern für den Dauerlauf optimiert sind, wird es aber trotzdem kein Stromsparwunder werden.

Dadurch, das Du laufende VMs hast (auch wenn Sie idlen) werden die Platten vom Host nie schlafen können, da immer Zugriff darauf erfolgt...
 
Hmm das habe ich leider bereits befürchtet.
Einen HBA könnte ich mir auch noch holen aber auch der braucht ja Saft.

Werde wohl wieder auf Ubuntu wechseln und mit KVM virtualisieren, was ich virtualisieren muss und eben die SMB Freigabe über den ubuntu Host machen.

Den Eintrag bzgl. dem Energiesparmodus habe ich auch gesehen und auch verwendet.
Nicht benutzte Geräte wuie den Onboard Lan Chip habe ich im Bios bereits deaktiviert.


Ich werde dann mal wieder auf ubuntu umsatteln.....schade.....habe ESXI mal getestet weil mir die Weboberfläche sehr gut gefällt.
Das ist unter Ubuntu immer eine kleine Fummelei....
 
In jüngster Vergangenheit, waren da vermehrt Probleme drüber zu lesen, besonders mit Supermicro Boards. Kommt wohl aber im Einzelfall auf Kombination von Board und Karte an. Das mal unabhängig als Vorab Info, ganz abgesehen von der vt-d vs vt-x Frage, die ich nicht beantworten kann.
 
Dann impf die Treiber in dein Install Medium?

Und ja, du brauchst vt-d, ohne ist nicht. Ohne bekommst du bestenfalls USB Geräte an eine VM geschleift (aber nicht richtig durchgereicht).
Mit nem USB Modell anstatt PCIe könntest du also durchaus gute Chancen haben...
 
Mich würde auch interessieren wie gut sowas funktioniert weil für TV brauche ich zb. eine hohe Schreibgeschwindichkeit aber kaum CPU speed.
 
@Seelbreaker

Ja - Nvme + SATA SSD + SATA HDD gleichzeitig zu verwenden ist möglich. vSAN benötigt immer zwei Arten von Disks - cache und capacity
Du benötigst pro DiskGroup im Server min 1x CacheDisk - Das ist aber nur reiner Cache und wird nicht als Storage verwendet werden können, also nicht zu der capacity.
und dann eben deine Capacity Disks. schneller Zugriff auf SSD und "langsamer" auf HDD... langsam gibt es bei einem korrekt konfigurierten und gesizetem vSAN nicht

Zu DEINEM Szenario:
Es bringt dir soviel, wie wenn du eine 1000 PS Gasturbine neben deinen VW Polo mit 75 PS stellst und allen erzählen willst wie schnell und
toll dein Auto ist weil du eine Gasturbeine mit 1000 PS hast.

Ein vSAN Single Node macht nur für eines Sinn: Zum testen. Für mehr nicht. vSAN bringt dir erst den echten und wahren Nutzen ab 5 Hosts (offiziel ab 3, empfohlen ab 4, produktiv und effektiv ab 5) + einem extra Mgmt-Server auf welchem vCenter läuft.
Wenn ich lese dass du dort eine Synology virtualisieren möchtest dann hört sich das nicht mehr nach "Ich teste mal vSAN" an und gibt mir das Gefühl dass du keine Ahnung hast was du da eigentlich tust.
Was auch immer du vorhast: Möchtest du vSAN nur testen: OK Möchtest du auf einem Nested vSAN Single Node Cluster DATEN ablegen. NEIN! No! Never. Lass die Finger von davon.

vSAN ist etwas für den Datacenter Profibereich und möchte man es effektive benutzen muss man verd* viel Geld auf den Tisch legen damit es sich gegenüber anderer Storagetechnologien überhaupt rentiert.

Danke für den Hinweis bezüglich dem Cache und der Berechnung!

3 vsan Datastores sollen es werden.

Einer davon um mittels Veeam oder vsphere Replication eine lokale Kopie der VMs zu behalten, falls ne Platte in einem Vsan Gespann hopps geht.

Zusätzlich die landen die VMs als Backup auf der Synology.

Auf einen zweiten esx welcher via site-to-site angebunden ist, wird via Veeam Replication über den WAN Accelerator noch n drittes Backup gefahren.

Und zu guter Letzt landet alles verschlüsselt bei hubic.

Ja... im worst case muss ich 2 Tage warten bis alles da ist....

Oder eine Stunde wenn ich Lust habe ins Auto zu steigen.

Oder gar nicht weil ich alles notwendige auf meinem zweiten esx hochfahre.

Ist ja kein 24/7/365 Betrieb bei mir...

Keine Sorge, wenn ich schon massivst Unsupported (Single node vsan) fahre mache ich mir Gedanken über meinen Plan B :)


Und wenn mir vsan doch nicht passt, haue ich einfach den LSI Controller aus meiner Schublade in den Server und mache konventionelle Raid Datastores.

Nur eben ohne write-cache :)

Gruß



PS: die Alternative wäre übrigens ne Ds918+ gewesen um die Ds415play abzulösen.

Und das alles aus dem Grund weil mir der verlötete 1GB RAM ein Dorn Auge ist und alles saulahm ist :-P


Und was die Gasturbine angeht....
Von meinem 75 PS Polo nutze ich dann nur den Kofferraum, während ich mit der 1000PS Turbine unterwegs bin ;)
 
Zuletzt bearbeitet:
Ich weiß nicht, ob es an ESXi oder am HP Server liegt.
Controller: HP B120i Raid
Konfiguration: 2 RAID1 jeweils aus 2 SSDs. Ein RAID1 ist der lokale Datastore. 2. RAID1 soll per RDM an eine VM übergeben werden.
Trotz HPE Image mit richtigen Treibern kann ich das 2. RAID1 nicht per RDM an eine VM weitergeben. (Egal ob das RDM physikalisch oder virtuell (-z bzw. -r Variable) erstellt wurde)

Gleiches vorgehen mit einem RAID von einem P420 Controller ging im Server. Die virtuelle Maschine bleibt immer mit "Das Gerät 'Bootstrap' ist nicht verfügbar." hängen beim Start. Ohne die RDM Zuweisung geht diese aber problemlos an. Jemand evtl. eine Idee? :/
Damals hatte der eine RAID Controller jedoch nur ein RAID was übergeben wurde. Sollte aber dennoch gehen, oder?

Andere Maschinen, wenn die RDM zuweise haben das gleiche Problem. Vieles auf Google schreit nach .vmx Fehler - Die habe ich mir mal angeschaut bzw. die gewollte Maschine neu angelegt. Ich sehe da kein Problem?


Edit: Hier nochmal so ein Fehlerbild - Der sagt ebenfalls, falsche VM Konfiguration. Ich habe aber nichts anderes als sonst gemacht o_O

Aufgabendetails:
Name:PowerOnVM_Task
Status:Ungültige Konfiguration der virtuellen Maschine.
Beschreibung:Virtuelle Maschine einschalten
Startzeit:11.02.2018 00:17:37
Zeit der Fertigstellung:11.02.2018 00:18:07
Zustand:Error
Fehlerstapel:
Das Gerät 'Bootstrap' ist nicht verfügbar.
Zusätzliche Aufgabendetails:
Host-Build: 5050593
Fehlertyp: InvalidVmConfig
Aufgaben-ID: Task
Abbrechbar: True
abgebrochen: False
Beschreibungs-ID: VirtualMachine.powerOn
 
Zuletzt bearbeitet:
Wieso nicht? Was schlägst du vor?
Controller überreichen kann ich nicht, da ja noch für das normale Datastore brauche. .VMDK anlegen und dann mit weniger Performance als RDM arbeiten finde ich auch nicht so erstrebenswert.

Nach ein bisschen rumtesten scheint es aber irgendwie am Controller <-> ESxi zu liegen. Mit einer HDD/SSD in R0 geht überreichen lustigerweiße auch nicht. Das Datastore anlegen dauert immer ewig (Vermutlich, da kein Schreibcache vorhanden, aber Schreibleistung ist nicht so gefordert).
Der läuft glaube ich beim Versuch zu starten in ein Timeout. Ich glaub ich lasse das einfach mal ~.~
Immerhin hat das 1. R1 keine Probleme :fresse:
 
jupp, .vmdk

Vorteil: erweiterbar, leicht umzuziehen - auch wenn der Host mal nen defekt hat, einfacheres Backup.
Nachteil: angeblich minimale Performance-Einbußen

Wir hatten bei meinem vorherigen Arbeitgeber SAN-LUNs per RDM direkt in eine VM durchgereicht, weil vermutet war, das die LUN mit mehreren VMs das Bottleneck war - dem war aber nicht so. hingegen gibt es Probleme beim Umziehen der VMs, vergrößern der Platten, etc...
Die neuen Systeme wurden dann wieder auf *.vmdk Basis erstellt -> selbst der SQL-Server beschwert sich nicht (gut, hier ist > RAM auch eine gute Möglichkeit um Disk-IO zu veringern...)

Es kommt wohl am Ende drauf an, was Du machen willst, aber RDM halte ich nicht für Sinnvoll, da gibt es für die speziellen Anwendungsfälle wohl bessere Lösungen...
 
jupp, .vmdk

Vorteil: erweiterbar, leicht umzuziehen - auch wenn der Host mal nen defekt hat, einfacheres Backup.
Nachteil: angeblich minimale Performance-Einbußen
Die meisten Vorteile sind für Business, nicht für eine private Testumgebung. Im HP habe ich tatsächlich aber schlechtere Performance mit einer VMDK - Nicht viel, aber man merkt es.

Bin am überlegen - So ne kleine Testkiste mit diesen Onboardraids echt nervig. Werde es aber evtl. anders lösen müssen :/
 
Nunja, sicher im Business, aber die Anwendungsfälle kann man auch "@home" haben.

Ich habe mein Storage auch ausgelagert und betreibe Headless ESX-Server in unterschiedlichen größen -> Storage ist per NFS übers LAN angebunden, reicht dicke @home.

Ein neueres Projekt ist zwar ganzen Dinge wieder auf einen zusammenzuziehen, aktuell bin ich aber noch nicht mit der Finalen Planung fertig, hier werde ich aber auch nur auf VMDKs gehen. (gut nen HBA an die VM durchreichen is da kein Problem, weil Platz da is, aber...)

Viel Glück bei Deiner Lösung, die Dir hoffentlich die Performance bringt, die Du benötigst, sonst machts ja auch keinen Sinn.
 
iSCSI/NFS direkt in der Linux VM anbinden war auch eine Idee, aber mein ML310e wird ständig umgebaut und somit will ich nicht Netzwerkports für iSCSI reservieren (in die alte Kiste baue ich keine 10GBit/s Ports mehr rein)
 
iSCSI muss man schauen, idR. ist NFS hier schneller, da iSCSI als synchrones Protokoll arbeitet und Du dann eben langsames lesen und schreiben hast (zumindest war es anno 2007 mit ner NetApp so). Bei NFS hast Du halt Schnelles lesen / langsames schreiben - ich habs aber nicht in die VM, sondern direkt dem ESXi Host als Datastore eingerichtet.

Ich hab auch eine Zeitlang mit FC-Karten rumprobiert - zwar nur 4Gbit, aber irgendwie lief das nicht so rund - Hauptproblem: Finde ein Storage-OS das Dir FC gratis mitliefert ;) - da is man dann doch wieder geizig ^^
 
iSCSI muss man schauen, idR. ist NFS hier schneller, da iSCSI als synchrones Protokoll arbeitet und Du dann eben langsames lesen und schreiben hast (zumindest war es anno 2007 mit ner NetApp so). Bei NFS hast Du halt Schnelles lesen / langsames schreiben - ich habs aber nicht in die VM, sondern direkt dem ESXi Host als Datastore eingerichtet.
Mit MTU9000 und sauber eingerichtet hatte ich mit iSCSI (Direkt am Host usw.) eig. nie Probleme. Lief immer sauber und schnell. Egal ob Privat/Arbeit/Gewerbe. Wichtig in meinen Umfeldern ist eig immer wirklich MTU9000 zu setzen, da die kleinen Packete doch in gewissen Umständen eine geringere Performance verursachen.

Ich hab auch eine Zeitlang mit FC-Karten rumprobiert - zwar nur 4Gbit, aber irgendwie lief das nicht so rund - Hauptproblem: Finde ein Storage-OS das Dir FC gratis mitliefert ;) - da is man dann doch wieder geizig ^^
Ich habe da mit FC nur mit "Fertiglösungen" in Arbeit (Also Enterprisestorage) gute Erfahrungen gemacht. Da aber waren mir Lizenzkosten usw. egal :fresse: Im sonstigen Umfeld habe ich FC eher nur für direkte Serveranbindung an Switch genutzt bzw. auch von Tape Libraries.
Heutzutage ist das ähh kein Problem - Jede Syno/QNAP aus dem höheren Umfeld haben 10 Gbit/s drin oder zum nachrüsten und die Server (Windows Server, ESXi, Linux) interessieren sich für die Anbindung nicht. Läuft alles Problemlos. Da hat sich viel getan.
Bloß wie gesagt - Ich habe ein neues Baby für Privat, was genug Power für mein Zeug und Testlab hat. Habe aber noch 1-2 Geräte einzeln da, um echte Hardware zum testen bzw. für andere Betriebssysteme/Hypervisor zu haben. Und da wäre ein großes Gerät besser, da in meinem Fall z. B. eben ein richtiger Hardwarecontroller besser funktioniert als das Softwaregedöns :/ Der P420 den ich ursprünglich drin hatte ist weg. Auch, weil der ML310e noch 24/7 läuft und das Teil nur sinnlos Strom fressen würde - Die Leistung bräuchte ich nicht
 
Zuletzt bearbeitet:
Hallo alle zusammen.
Kann mir wer sagen ob man direkt an der esxi-Konsole einen Hardware Netzwerkport neu starten, oder Ab- und Anmelden kann?
Bei meiner esxi 6.5 Kiste hängt sich ab und an meine Port1 Schnittstelle auf, warum weiß ich nicht, und dann muss ich den gesamten Host durch starten, damit diese dann wieder verfügbar ist.
Leider hab ich bis dato kein Befehl gefunden um Netzwerkkarte 1 neu durchzustarten ...
 
VMDK anlegen und dann mit weniger Performance als RDM arbeiten finde ich auch nicht so erstrebenswert.
iSCSI/NFS direkt in der Linux VM anbinden war auch eine Idee, ...

Aus meiner Sicht passen die beiden Dinge nicht zusammen...
Entweder du willst den Speed bedingungslos - dann fängst du doch aber nicht mit iSCSI@1GBit/sec? an? Keine Ahnung, aber so recht wird das irgendwie komisch...
Pack da ne VMDK drauf und gut ist. Der einzige echte Vorteil der RDM Lösung ist dass du das Ding bis aufs letzte Byte zuschieben kannst. Die VMDK Lösung benötigt etwas freien Platz und der Host hupt dich an, wenn du über die Limits zuteilst.

Auch bin ich persönlich ja immernoch FC-Freund - mittlerweile aber aufgrund der Preisgeschichten auch auf iSCSI@10-40G unterwegs. Meine 16G FC-Switches werden wohl niemals nie im Leben mit 16G GBics versehen :fresse:
FC hat immernoch einen leichten Latenzvorteil. Und NFS - neja, NFS ist so ne Sache. Thin Prov. kann man machen, muss man aber nicht gut finden. Das multichannel Zeug ist auch so ne Sache - je nach Storage System etwas bescheiden umzusetzen. iSCSI oder FC skaliert Multipath bedingt einfach ootb.
 
Latenz halte ich für extrem wichtig wenn es darum geht, dass etwas schnell reagiert.
Multichannel auf Service Ebene sehe ich eher weniger als wichtig. Wenn man mehr Bandbreite braucht würde ich auch eher auf schnellere Netze gehen (1G/10G/40G/100G) als auf Multichannel zu setzen - außer schnelleres Netzwerk geht warum auch immer nicht.
 
hi, kann man eine integrierte grafik an an eine vm durcheichen und über den vga ausgang die vm sehen?
zweite frage, merkt man bei einem esxi den unterschied zwischen sata ssd und pcie ssd?
 
hi, kann man eine integrierte grafik an an eine vm durcheichen und über den vga ausgang die vm sehen?
Nein Wenn doch höre ich interessiert zu.
merkt man bei einem esxi den unterschied zwischen sata ssd und pcie ssd?
Das kommt auf dein Anwendungsfeld an.
 
hi, danke für deine antwort. bzgl Anwendungsfeld - Virtualisierung von Desktop Windows, xpenology und ubuntu server mit webserver
 
Nein Wenn doch höre ich interessiert zu.
Angeblich soll das mit den integrierten GPUs von z. B. den Xeons mit neueren ESXi Versionen gehen. Schon öfters mal Blogposts und co. gelesen - Die werden nämlich im Passthrough als eigenes Gerät angezeigt mit den richtigen Treibern.
Bin da mal auf das Thema gestoßen, als hier im Unterforum der Thread mit dem nVidia GeForce durchreichen aufgetaucht ist. Ist aber auch eine richtige Bastelarbeit, beides :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh