IBM X3550M4 VM's sehr "Laggy"

Monotonoda

Experte
Thread Starter
Mitglied seit
25.08.2015
Beiträge
66
Hallo Liebe Community,

ich habe diverse Server, jedoch nur bei diesem einen ein Problem.
Der Server ist ein IBM X3550M4 mit 2x E5 2670, 128GB Ram, 2x 480GB Intel SSD, 2x 10k SAS 2,5" Platten und Nvidia GT710.
Das Betriebssystem ist ein Windows Server 2012 R2 (offiziell incl. aller Updates).
Ich nutze, da ich ein gewisses Maß an GPU benötige VMWare Workstation 12.
Folgende Konstellation
22 VM's, in jeder VM läuft praktisch genau das gleiche: Eine VPN Software, Ein Program was 3-5 Connections zu einem Server aufbaut. Dieses Program mit den Connections belegt 100% CPU innerhalb der VM.
Das Host System an sich ist vom Ram her zu 90% ausgelastet und die CPU zu 80%.
Woran liegt es, das das Host System sich "Laggy" anfühlt? Bei den VM's kann ich es verstehen aufgrund der Auslastung, aber das Host OS hat doch eigentlich noch genug Resourcen frei.
Im Anhang habe ich euch mal ein Bild angehängt.
Edit: Folgende Dinge wurden schon getestet: VMWare umgestellt das er keinen RAM auslagert, Pagefile deaktiviert in den VM's, Ram erhöht, Superfetch usw. deaktiviert.
Danke schonmal

Mono
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Priority Control ist vermutlich auf Hintergrundanwendungen konfiguriert => dein Host gibt diesen den Vorrang.

Des weiteren weiteren würde ich noch einen Blick auf die Kernelzeiten werfen, VMware Workstation ist diesbezüglich nicht gerade optimal.
 
Kann man die noch wo anderst einstellen? Hier habe ich es so:

edit: Kernelzeiten scheinen Normal zu sein.
 
Zuletzt bearbeitet:
es gibt 2 key´s, einfach mal nach "prioritycontrol" im regeditor suchen.

Laufen die VM´s als Service oder im interaktiven Modus? Kernelzeiten hast du dir mal angesehen?
 
Bei der Suche nach Prioritycontrol wurde gefunden:
Win32PrioritySeparation Wert auf 26 <- was sollte ich hier einstellen?
Die VMs laufen im interaktiven Modus.
 
ich vermute, bei 22 VMs - selbst jede mit nur einem Kern, und nur 16 physikalischen Prozessoren, das da der Hund begraben liegt. - HT ist ja schön und gut, nutzt nur bei Virtualisierung unter Umständen nichts. -> Bei uns werkelt z.B. für das ominöse Sanduhr Anzeige Programm ein ESX Server mit 2x 8Kern Xeons mit 512GB RAM, ohne HT läuft die VM mit dem Prog deutlich performanter als mit... - Ist auch Best Practice, das bei dem Prog auszuschalten und die Bioseinstellungen auf Höchstleistung zu packen.

Wie fühlt sich Dein Host an, wenn Du mal nach und nach die VMs runterfährst bis Du bei nur noch 16 oder 15 bist? (Testweise)
 
Danke @ konfetti, genau das habe ich jetzt mal gemacht, und sobald ich etwa 18 VM's erreiche läuft der Host wieder super.
Heißt für mich also nie mehr VMs wie physische Kerne, und einen 2ten Server kaufen.
Schade eigentlich da das Teil ja "nur" zu 80% ausgelastet ist mit 22 VM's.
Mit 18VM's waren es dann nur noch 60% Auslastung. Was ich jetzt noch nicht getestet habe, ist die Last der "verlorenen" VM's auf die verbliebenen VM's aufzuteilen.
Würde es denn da was bringen den VM's je sagen wir mal 2 Cores zu geben?
Was genau könnte denn passieren wenn ich jeder VM z.B. 1 Cpu mit 4 Cores gebe? Gibt es hierzu Erfahrungsberichte?

Das ist kein Testsystem sondern ein Live System, d.H. runterfahren ist nicht so ohne weiteres möglich und jedes "rumbasteln" ist nicht das Gelbe vom Ei.
 
Die VM Images liegen auf der SSD ? :) Hatte selber mal schon zu viel IO Last und das machte den Host lahm.

Wenn du weniger VM´s nutzt und diesen dafür mehr Cores gibst hast du später wieder 80+ Auslastung und das gleiche Problem wie vorher.
Es sei die Idlen eh nur rum. In der Praxis mehr Cores zu vergeben als vorhanden ist normal.Da die VM´s eh nicht fest auf die Cores gepinnt sind.
Sobald Leistung einer VM ansteigt werden andere ungenutzt Cores mehr belastet. Zumindest macht Proxmox/ESXI das sehr gut.

VMWare Workstation als Hypervisor zu nutzen ist aber schon arm. Wofür brauchst du die GPU Leistung nur Interesse halber ?
 
Die Frage ist, wenn Du GPU-Leistung brauchst, kannst Du nicht ggf. auf eine Karte von Nvidia setzen, die dafür gebaut ist und das dann direkt am Hipervisor Managen?
Ich hab mich damit jetzt noch nicht näher befasst, aber genau dafür gibt es doch auch unter Hyper-V eine spezielle Rolle, das GPU-Resourcen den Gästen mitgegeben werden kann, vlt ist das ja einfacher als unter ESX?

Hast Du kein Testsystem wo Du das mal probieren kannst? - Am Livesystem ist immer schwierig.

Da Du ja schreibst, das die VMs intern mit dem 1Core zu 100% ausgelastet sind, würde sich das überbuchen der Cores wohl drastisch schlimmer auswirken, wenn die Anwendung in der VM dann auch wieder 100% CPU-Zeit zieht.
 
Danke für die vielen Tipps von euch, ich hatte nun eine lange Nacht und habe diverse Szenarien getestet.
Szenario 1: Einfach VMs ausschalten und auf einen anderen Server auslagern: Ging zwar, ist ja klar aber war halt in diesem Fall für mich nicht das Optimum.
Szenario 2: Einfach jeder VM mehr Cores zuteilen. Sehr schwierig, weil dann wie von euch bereits angemerkt wurde der Server praktisch überladen ist.
Szenario 3 (so wurde es dann): VM's zusammengelegt, D.h. Ich habe nun 16 VMs laufen mit je 1 CPU und 4 Cores, die CPU last innerhalb der VM beläuft sich auf 60-70%. Die Auslastung des Hosts liegt nun bei 90-100%. Desweiteren habe ich den VM's mehr RAM gegeben einfach nur weil genügend RAM vorhanden war/ist.
Achja: Die VM's liegen auf den SSD's welche ich im RAID 0 am Raid Controler laufen habe. Hierzu eine frage: macht das überhaupt Sinn in der doch sehr speziellen Umgebung? bzgl. Viele IO's etc.. Im Grunde hat jede VM ein Shared folder zu dem auf dem Host gelagerten Programm was ausgeführt wird. Das Programm liegt auf dem Raid0 der SSD's. Zwecks Datensicherung braucht man sich keine Sorgen machen, ich habe hier eine 1GB's Anbindung und jede Stunde werden alle Daten in die Cloud und auf das angeschlossene SAN gespeichert.
 
Ich persönlich finde ein Raid 0 schon mutig - hatte selber lange eins noch mit Platten, aber da ich irgendwann mal das Problem hatte, das mir eine Platte um die Ohren Flog und alles weg war (bis auf das aus dem Backup - is im Live-Betrieb aber trotzdem unschön) hab ich seither wenn dann eben RAID0+1 bzw. 10 (je nach Controller) oder dann eben Raid4/5/6 (Z2/Z3) je nach Hard-und Software Ausbau.

Einzig der Steamcache hat ein JBOD-Array, aber auch nur zwecks Mangel an Platz...

Ist halt die Frage, ich würd kein reines RAID0 mehr fahren.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh