ESX / ESXi - Hilfethread

Kommt drauf an für was. ;) Etwas spezifischer müsstest du schon sein.

Mit einem ZFS Raid in der VM und ca. 4 - 8 GB RAM darin ja.
Windows Storage Spaces via Parity Raid nein.
IDE Platten über ein Controller durchgereicht auch nein.
SSD Raid auf jeden Fall.

Die Möglichkeiten sind mannigfaltig. :)

RAID in der VM? Ist nicht der ESX für das RAdi verantwortlich und die VMs nutzen diesen Speicher?

Wie sieht das aus, wenn ich eine einzelne HDD in der VM laufen habe?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man kann sich bestimmte Hardware wie Festplatten, Grafikkarten, Lan Karten direkt und exklusive vom Host in die VM durchreichen (wenn die Hard und Software dieses auch unterstützt).
Dann kann man diese Hardware dann natürlich auch nur in der VM benutzen,in so einen Fall würdest du das Raid in der VM anlegen.

Aber für normale User ist es sicherlich für den Anfang sinnvoller die Plattenverwaltung im Host (ESX/HYper-V) zum machen und darauf dann in einer Datei eine Virtuelle Festplatte einzurichen und die benutzt dann die VM.
 
Es kommt drauf an was du vor hast. Hier im Forum wird relativ häufig geas Napp-IT Appliance mit einem durchgereichten HBA betrieben. Hier sind selbst 10 GBit Auslastung möglich (natürlich nicht mit Consumerhardware).

Wenn deine Festplatte im single Betrieb GBit auslasten können, sollte das der ESXi bzw. die VM drauf auch tun. Wenn du nun allerdings auf einer physikalisschen Platte ein Raid aus mehreren virtuellen Festplatten erstellst wird da häufig nicht GBit Performance bei rum kommen.

Grundsätzlich nimmt dir der Hypervisor keine graviernde Leistung weg, wenn du das gleiche Szenario bare metal betreibst.
 
Eben. Und da frage ich mich, ob man da auch Gigabit-LAN ausnutzen kann.
Warum sollte das nicht der Fall sein ?

Ich selber haben einen Win10 Rechner der auf sehr schwacher Hardware läuft (6Watt CPU Celeron J3160 , 4GB Ram , 256GB SSD + 4 TB HDD) auf dem habe ich unter Hyper-V für ein bestimmtes Programm eine Win7 VM mir 1,5GB Ram eingerichtet.
Und selbst auf dieser minimalistischen Hardware kann ich das Gigabit Ethernet mit 110-115MB/s ausreizen , allerdings auch nur wenn die Gegenstelle auch eine SSD hat bei einer einzelnen HDD (WD Green 5400) schaffe ich nur 70-90MB/s zu schreiben.

Du darfst die normalen Systeme nicht mit den billigen teilweise grottenschlechten Fertignas vergleichen.
So habe ich gestern ein Medion Nas mit 2*4TB WD Green bekommen (gibt es gerade nagelneu von Medion für 189€).
Das teil ist so schrecklich langsam (bei Raid1 gerade mal 18MB/s Schreiben und minimal schneller im Lesen) einfach total unbrauchbar und unglaublich das sowas gebaut wird, aber eine günstige Quele für die 4TB WD Green platten.

Aber sobald du Hardware hast wo auch ein Hypervisor sei es ESW,Hyper-V oder wie sie alle heißen daruf läuft , sollte das kein Problem sein das Gigabit auszunutzen.
 
Zuletzt bearbeitet:
Cool, das ist doch mal eine Aussage. Dann müsste der vSphere nur noch Skylake supporten, dann könnte man das mal testen.

Warum sollte das nicht der Fall sein ?

Weil ich aus unserem Unternehmen höre, dass die VMs dort eben nicht diese Performance schaffen, obwohl da echte Unternehmenshardware dahintersteckt.
 
Zuletzt bearbeitet:
Gibt es eine Möglichkeit ein Port-Trunk bei zwei NICs im iSCSI-Port-Bonding Modus einzurichten ?

Die zwei iSCSI-Ports sitzen in einem vSwitch.
- VMkernel-Port: iSCSI-1 -> vmnic 6 aktiv, vmnic 7 inaktiv, statische IP
- VMkernel-Port: iSCSI-2 -> vmnic 7 aktiv, vmnic 6 inaktiv, statische IP

Hardware-Switch ist managed (HP ProCurve 1810G-24)
 
Zuletzt bearbeitet:
Cool, das ist doch mal eine Aussage. Dann müsste der vSphere nur noch Skylake supporten, dann könnte man das mal testen.

Versteh nicht wo da das Problem sein soll. ESXi 6U2 läuft auf meinem Dell T130 (Xeon E3-1220v5, Sockel 1151) anstandslos.
 
Weil ich aus unserem Unternehmen höre, dass die VMs dort eben nicht diese Performance schaffen, obwohl da echte Unternehmenshardware dahintersteckt.
Natürlich kostet die zusätzliche Virtulisierungsschicht immer auch Performance aber da liegt man bei einen einstelligen Prozentbereich also normal nicht spürbar.

Dafür hat mal halt sehr sehr viele Vorteile durch die Virtualisierung.
 
Versteh nicht wo da das Problem sein soll. ESXi 6U2 läuft auf meinem Dell T130 (Xeon E3-1220v5, Sockel 1151) anstandslos.

Ich hab in der Kompatibilitätsliste mal nach dem i3-6100 gesucht und hab weder diesen, noch andere Skylake CPUs gefunden?!

Edit: Nun hab ich die 1200v5 auch gesehen, da könnte ich natürlich mal über ein CPU-Upgrade nachdenken. :)
 
Zuletzt bearbeitet:
Gibt es eine Möglichkeit ein Port-Trunk bei zwei NICs im iSCSI-Port-Bonding Modus einzurichten ?

Die zwei iSCSI-Ports sitzen in einem vSwitch.
- VMkernel-Port: iSCSI-1 -> vmnic 6 aktiv, vmnic 7 inaktiv, statische IP
- VMkernel-Port: iSCSI-2 -> vmnic 7 aktiv, vmnic 6 inaktiv, statische IP

Hardware-Switch ist managed (HP ProCurve 1810G-24)

grundsätzlich kann LACP nur der vDS.
siehe: https://kb.vmware.com/selfservice/s...ype=kc&docTypeID=DT_KB_1_1&externalId=1004048

Wenn du Port Binding einsetzt darfst du LACP nicht verwenden.
siehe: https://kb.vmware.com/selfservice/m...nguage=en_US&cmd=displayKC&externalId=2038869
 
In den Eigenschaften des Datenspeichers kannst du die Path Selection Policy anpassen, Default ist dies auf "Fixed" es wird also immer nur ein Pfad verwendet solange dieser verfügbar ist gewechselt wird nur bei einem Ausfall.
Die Policy kannst du auf Round-Robin ändern dann wird per Default alle 1000 iops der Pfad gewechselt.
 
Wenn deine Festplatte im single Betrieb GBit auslasten können, sollte das der ESXi bzw. die VM drauf auch tun. Wenn du nun allerdings auf einer physikalisschen Platte ein Raid aus mehreren virtuellen Festplatten erstellst wird da häufig nicht GBit Performance bei rum kommen.

Grundsätzlich nimmt dir der Hypervisor keine graviernde Leistung weg, wenn du das gleiche Szenario bare metal betreibst.

Moment!
Beim Storage ist das so eine Sache mit ESXi... Warscheinlich wird JEDES halbwegs aktuelles Windows, Linux oder Unix deutlich! schnellere Transferaten auf der selben Hardware liefern, als es ESXi zu leisten im Stande ist... Warum? Das liegt an den Settings, die der ESXi fährt. Das Stichwort dafür ist "Write-Throught" vs. "Write-Back"...
Der ESXi nutzt dazu auch weder Storage Caching im RAM noch den HDD Cache der Platte (wenn ich das nicht gerade durcheinander würfel). Das System ist dabei eher auf Sicherheit und Stabilität ausgelegt, da Daten in Caches in flüchtigen Speichern bei Stromunterbruch unwiederbringlich verloren sind.

Will man das trotzdem haben, benötigt es einem Storagecontroller mit entsprechenden Mechanismen. Sinnvollerweise mit BBU oder Flashcache um vor Stromproblemen gewappnet zu sein.

Recht sicher wird eine Single HDD aktueller Reihe native unter ESXi bspw am Intel Onboard SATA Controller deutlich unter 100MB/sec liefern... Unter einem Windows/Linux System können da aber auch mal 200MB/sec und mehr stehen.

Aber sobald du Hardware hast wo auch ein Hypervisor sei es ESW,Hyper-V oder wie sie alle heißen daruf läuft , sollte das kein Problem sein das Gigabit auszunutzen.

Wenn Hyper-V die selben Cachingmechanismen nutz wie ein Client/Server Windows, wird der Hyper-V deutlich schneller agieren...

Gibt es eine Möglichkeit ein Port-Trunk bei zwei NICs im iSCSI-Port-Bonding Modus einzurichten ?

Die zwei iSCSI-Ports sitzen in einem vSwitch.
- VMkernel-Port: iSCSI-1 -> vmnic 6 aktiv, vmnic 7 inaktiv, statische IP
- VMkernel-Port: iSCSI-2 -> vmnic 7 aktiv, vmnic 6 inaktiv, statische IP

Hardware-Switch ist managed (HP ProCurve 1810G-24)

Welchen Sinn hat das?
Schalte Multipathing ein und du hast deine Redundanz bei doppeltem Speed... LACP ist dabei NICHT notwendig. Multipathing sollte bei iSCSI Out-of-the-Box am Storage funktionieren. Dem ESXi musst du es bei den Pfaden aktivieren, per default wird nur ein Pfad verwendet.

Auch wenn es aus meiner Sicht keinen Sinn macht bei iSCSI, das anders lösen zu wollen, der Kernelport oder vSwitch kann von Routen anhand Port ID auf Routen anhand IP Hash umgestellt werden, du benötigst dann auf der physischen Switch-Seite einen statischen EtherChannel bzw. LACP. Und auf der ESXi Seite mehrere IPs, damit das funktioniert.
Für iSCSI ist das deswegen wenig sinnig, da eben trotzdem RoundRobin eingedreht werden muss, sonst würde der ESXi IMMER mit der selben IP zum iSCSI Storage sprechen -> und entsprechend nur eine physische NIC benutzt werden. Die Redundanz hast du so oder so auch... Ergo? Wenig sinnig das Ganze ;)
 
Zuletzt bearbeitet:
Hat alles wunderbar geklappt :bigok:
Die Performance hat sich nach meinem Empfinden auch verbessert :)
 
Was hängt denn als Storage dahinter?
So ne mini Synology Kiste könnte möglicherweise durch "zu viel" Multipathing noch mehr in die Knie gehen... Warum? Einfach weil sich dadurch der Random Access von gleichzeitigen Zugriffen noch weiter steigert.

Kannste ja mal austesten, wie sich der Random Access Speed (welchen man mit diversen gängigen Benchmarks ermitteln kann) zwischen aktivem Multipathing (RoundRobin) und einer fixen HA fähigen Lösung macht!? Möglicherweise büßt du natürlich etwas sequenzielle Bandbreite rein, gewinnst dafür aber etwas Random Access Speed?
HDDs haben eben die Eigenart, dass sie bei Random Access sehr schnell sehr weit einbrechen im Speed. Das bekommste nur mit Caching, schnelleren HDDs (mehr rpms) und intelligenteren Storagelösungen weg... Oder halt SSDs ;)
 
Glaube das is mir vorhin passiert.
Die VM war zwischendurch sehr träge.

Is eine Synology DS1815+ (6GB RAM) mit drei WD Red 4TB (Raid 5) und drei ADATA S510 120GB (Raid 5) als SSD-Cache.
 
Zuletzt bearbeitet:
Moin,

Ich habe meinen Fileserver (OpenMediaVault) als VM in ESXi laufen. Aktuell reiche ich die Datenfestplatten direkt durch. Dies will ich mir ein wenig erleichtern und einen Festplattencontroller hinzufügen. Mein Server ist im Grunde das hier.

SATA2-Speed dürfte reichen, da ich nicht vor habe SSDs an das Gerät anzuschließen. RAID-Funktionalität benötige ich nicht, allerdings sollte sich der komplette Controller in ESXi durchreichen lassen, ansonsten wäre er für meine Zwecke ungeeignet.

Ich hatte mir seinerzeit einen IBM M5110 gekauft, aber das ließ sich nicht als HBA (also ohne RAID) betreiben und außerdem hatte ich den Eindruck, dass das Durchreichen Probleme bereitete.

Wünschenswert wäre, wenn ich nach einmaliger Konfiguration neue Festplatten anschließen könnte, die nach einem Reboot von meiner VM als neue Festplatte auch erkannt werden, ohne dass ich die Festplatte im Controller selbst nochmal einrichten müsste. (Ich hoffe, ihr versteht, wie ich das meine.) 4 Festplatten-Anschlüsse dürften zwar fürs erste reichen, aber 8 wären wünschenswert.

Also, jemand nen Vorschlag? :)

Edit: Wie wärs damit im IT-Mode? Lässt der sich auch problemlos durchreichen?

Edit: Oder damit?
 
Zuletzt bearbeitet:
Guten Morgen zusammen.

Ich will meine "10Gbit-Geräuschkulisse" reduzieren, aber dabei sicherstellen, dass zwischen zwei spezifischen Servern immer eine 10gbit Verbindung besteht (für Replikation & Co.).

Beide Server laufen unter ESXi 6U2, haben jeweils 2x1Gbit und 2x10Gbit Ports (alles RJ45). Die wesentlichen VMs, um die es mir hierbei geht, laufen unter Solaris 11.3 mit Napp-IT.

Verbunden sind die Rechner zurzeit über einen 1gbit und einen 10gbit Switch. Zur Veranschaulichung habe ich mal eine vereinfachte Skizze gepinselt:

attachment.php


Nun ist der 10Gbit-Switch ja leider ein echter Krawallbruder. Ich will jetzt eben den 10Gbit-Switch ausschalten können, wenn die 10Gbit-Clients offline sind (vor allem abends/nachts), aber die verschiedenen Repli-Jobs zwischen den beiden Servern sollen trotzdem durchlaufen (da die eben auch nachts angestoßen werden).

Also habe ich gedacht, ich nutz' die zwei ungenutzten 10Gbit-Ports für eine physische, alternative Direkt-/Punkt-zu-Punkt Verbindung "ohne den Switch" und verbinde unter ESXi die beiden Ports jeweils zusätzlich mit den bereits bestehenden virtuellen Switches, an denen bereits die VMs für das 10Gbit-Netz hängen. In der Skizze mit den FETTEN LINIEN und Fragezeichen markiert. Wenn das so ginge, hätte das den Charme, dass ich meine Configs auf den VMs und die Logik in den bestehenden Netzen eigentlich gar nicht ändern müsste.

Das klingt nur irgendwie für mich zu einfach/schön um wahr zu sein: funktioniert das so überhaupt? Und was müsste ich unter ESXi bei den vSwitches einstellen, dass die beiden fraglichen VMs einen "Switchausfall" idealerweise gar nicht mitbekommen?

Nachtrag/Ergänzung: ich brauch kein "klassisches" Teaming, also eine Bündelung mit dann 20Gbit. 1x10 reicht mir von der Speed... ich hätte halt nur gerne "automatisches Failover". Habe übrigens auch nur die kostenlose ESXi-Version.

Hoffe, es wird so grob klar, worauf ich hinaus will.
 

Anhänge

  • ESXI-Failover-Net.jpg
    ESXI-Failover-Net.jpg
    39,6 KB · Aufrufe: 366
Zuletzt bearbeitet:
Dürfte eigentlich problemlos funktionieren: einfach beide 10 Gbit/s-Ports an den selben virtuellen Switch hängen, anschließend den Port, der am Switch hängt, als primären und den Port, über den die Server direkt verbunden sind, als Backup-Port einstellen (sollte in den Eigenschaften des virtuellen Switches gehen). Schon geht der Verkehr normalerweise über den Port, der am Switch hängt, und wenn der Switch ausgeschaltet ist übernimmt der Port, über den die Server direkt verbunden sind.
 
Und wenn der Switch wieder an ist, schwenkt der automatisch wieder zurück? Das wäre halt nötig damit die anderen 10gb-Clients auch wieder ohne manuelles Eingreifen an den Filer kommen.
 
Ja, dafür ist ja die "Backup-Port-Funktion" da: wenn Du in die Eigenschaften des virtuellen Switches gehst und dort den vSwitch editierst, gibt es eine Registerkarte "NIC Teaming". Dort kannst Du den aktiven Adapter (in deinem Fall den Adapter, der am Switch hängt) und den Standby-Adapter (in deinem Fall den Adapter, der direkt mit dem anderen Host verbunden ist) festlegen und es wird wieder automatisch auf den aktiven Adapter umgeschaltet, wenn der wieder einen Link hat.

Da das aber soweit ich das verstehe sowieso kein System ist, womit Geld verdient wird, kannst Du das ja einfach ausprobieren, und wenn das nicht funktioniert, eben wieder zurückstellen. ;)
 
Zuletzt bearbeitet:
Prima, dann werde ich später mal die Strippe ziehen und testen! Danke! :)

Ne, "produktiv" ist hier nur "für den Heimgebrauch". Hatte nur Sorge, wenn ich mir da nen "virtuellen Loop" patche oder anderen Unsinn verbreche, wird es evtl. hässlich/aufwändig und das wollte ich mir gern durch die Konzept-Verprobung hier gerne ersparen. :d

- - - Updated - - -

Update: Verkabelt, NICs auf beiden Servern als aktiv / standby konfiguriert, läuft. Ein durchlaufender ping zeigt dabei gar nix. :d
 
Zuletzt bearbeitet:
Hallo Zusammen,

alle Jahre wieder melde ich mich mal mit einem kleinen Problemchen ;) bei dem ich selber nicht weiterkomme....

für einen Bekannten habe ich vor 2 Jahren einen ESXi Rechner gebaut und der zeigt unter Win10 VMs nur 2 Kerne obwohl 8 zugeordnet wurden. Getestet hat er mit CPU-z Benchmark.
Hardware1:
SM X8DT3, 2xE5620, 48GB reg. DDR3, 15 Vms auf SSds
Software:
ESXI 5.5 3248547

- WIN7 und 2012 Server zeigen das Problem nicht, hier werden alle Vcpus und Threads richtig angezeigt und auch richtig gebencht.
- bei Win10 werden von 2sockets und 4 cores vorgegeben, aber nur 1x2 angezeigt und auch gebencht

mit einem anderen Rechner tritt das Problem nicht auf
Hardware2: Asus p9d-c/4l, Xeon 1230, 16Gb Ram und 6 VMs auf SSDs
Software : Esxi 5.5 2718055

habt ihr da eine Idee woran das liegen kann, die Maschine mit dem Problem hat neuere Updates... kann es daran liegen ? kann man da wieder zurück?

Teil2:
habe gerade erfahren, dass noch ein zweites System aufgebaut werden soll, für ca. 4 VM eine soll aber für Visual Studio 2015 benutzt werden. Hier gibt es positive Erfahrungen auf dem Asus-ESXi, es könnte aber durchaus noch etwas schneller sein. Das X8DT3 ist eher lahm, es handelt sich aber auch um die Maschine die unter WIN10 Probleme macht.
Könnt ihr das was preiswertes empfehlen?
zb. sowas hier?
Code:
1 [url=https://geizhals.de/1343661]Intel Xeon E3-1230 v5, 4x 3.40GHz, boxed (BX80662E31230V5)[/url]
1 [url=https://geizhals.de/1354970]Crucial DIMM Kit  32GB, DDR4-2133, CL15 (CT2K16G4DFD8213)[/url]
1 [url=https://geizhals.de/1376649]Intel S1200SPS (DBS1200SPS)[/url]

vielen lieben Dank,
david
 
Zuletzt bearbeitet:
na los sacht ma was, ich sitze hier wie auf kohlen ;)

wenigstens zu dem hier. geht der dann auch mit normalen skylakes und ohne ecc ram? oder habt ihr andere ideen?

Code:
1 [url=https://geizhals.de/1343661]Intel Xeon E3-1230 v5, 4x 3.40GHz, boxed (BX80662E31230V5)[/url]
1 [url=https://geizhals.de/1354970]Crucial DIMM Kit  32GB, DDR4-2133, CL15 (CT2K16G4DFD8213)[/url]
1 [url=https://geizhals.de/1376649]Intel S1200SPS (DBS1200SPS)[/url]

vielen lieben Dank,
david
 
Never not ECC. Speicherfehler sind häufiger als zumeist angenommen.

Gesendet von meinem unknown mit Tapatalk
 
Hallo Zusammen,

alle Jahre wieder melde ich mich mal mit einem kleinen Problemchen ;) bei dem ich selber nicht weiterkomme....

für einen Bekannten habe ich vor 2 Jahren einen ESXi Rechner gebaut und der zeigt unter Win10 VMs nur 2 Kerne obwohl 8 zugeordnet wurden. Getestet hat er mit CPU-z Benchmark.
Hardware1:
SM X8DT3, 2xE5620, 48GB reg. DDR3, 15 Vms auf SSds
Software:
ESXI 5.5 3248547

- WIN7 und 2012 Server zeigen das Problem nicht, hier werden alle Vcpus und Threads richtig angezeigt und auch richtig gebencht.
- bei Win10 werden von 2sockets und 4 cores vorgegeben, aber nur 1x2 angezeigt und auch gebencht

mit einem anderen Rechner tritt das Problem nicht auf
Hardware2: Asus p9d-c/4l, Xeon 1230, 16Gb Ram und 6 VMs auf SSDs
Software : Esxi 5.5 2718055

habt ihr da eine Idee woran das liegen kann, die Maschine mit dem Problem hat neuere Updates... kann es daran liegen ? kann man da wieder zurück?

Teil2:
habe gerade erfahren, dass noch ein zweites System aufgebaut werden soll, für ca. 4 VM eine soll aber für Visual Studio 2015 benutzt werden. Hier gibt es positive Erfahrungen auf dem Asus-ESXi, es könnte aber durchaus noch etwas schneller sein. Das X8DT3 ist eher lahm, es handelt sich aber auch um die Maschine die unter WIN10 Probleme macht.
Könnt ihr das was preiswertes empfehlen?
zb. sowas hier?
Code:
1 [url=https://geizhals.de/1343661]Intel Xeon E3-1230 v5, 4x 3.40GHz, boxed (BX80662E31230V5)[/url]
1 [url=https://geizhals.de/1354970]Crucial DIMM Kit  32GB, DDR4-2133, CL15 (CT2K16G4DFD8213)[/url]
1 [url=https://geizhals.de/1376649]Intel S1200SPS (DBS1200SPS)[/url]

vielen lieben Dank,
david

Was zeigt der Task Manager bei Sockel, Kerne bzw. Logische Prozessoren an?

Identisches Verhalten wenn du am ESXi der VM 1 CPU mit 8 Kernen zuweist ?

Normalerweise ist es egal wie du CPUs und Kerne aufteilst.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh