[Kaufberatung] Server für Virtualisierung - Silent und Effizien

Muss der Spieleserver Windows sein? Und viel weniger Festplattenspeicher nur schon für Linux alleine. Dazu niedrigere RAM Auslastung.

Wenn's unbedingt ein Windows Server für Games sein soll, würd ich nach wie vor Server 2003 einsetzen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ach ja bevor ich es vergesse, ich hatte einen COD 4 Server in einem Virtualisierten 2008R2.

Unterm Strich war die Performance zum heulen.
Obwohl es ein normaler Dedicated Server war, lief alles in Zeitlupe!

Was heissen soll, das man kaum drauf spielen konnte.

Das ganze lief unter KVM (Linux) mit 3 Cores und 3 GB RAM.
Sonst lief nichts weiteres auf dem Server.

Vielleicht habe ich was falsch gemacht, vielleicht lags auch an der verschlechterten I/O Leistung (typisch Virtualisierung halt).
 
@Ghost
Da stimmte wohl was nicht?

Hab mit mehreren Gameserver aufm Root null Probleme. Laufen einwandfrei.
Wird noch ein Server mehr sobald die Lead and Gold dedi-server-files kommen.
 
Zuletzt bearbeitet:
nunja, nen Gameserver Dedicated auf Windows geht mit ESX(i) schon Problemlos...
Hab daheim Testweise auch schon ein paar laufen gehabt (TF2, CS1.6, CSS, BF2, TMN) einzig der BF2 hat ein bissl mehr Performance gebraucht, als OS diente WIN XP PRO SP2 / SP3. - 2 CPU's und 1GB RAM (für BF2 dann doch 2GB)
Grundsystem war ein C2Q 8200 (4x 2Ghz) mit 8GB RAM 2x Intel NIC.

Derzeit läufts leider nicht, da das update auf ESX(i) 4 ein paar Probleme auf der Hardware mitbringt, die ACPI-Einstellungen sind hier schonmal als das Problem identifiziert, der Rest läuft, aber 1 CPU-Kern von nem Quad is bissl mau ^^

Ansonsten kann ich mich nicht wirklich beschweren.
 
Hmm dann schmeisse ich halt den ESXi 4.0 mal wieder an.

Gefühlt war die Leistung bei meiner Hardware aber obermies.
Ganz seltsam war, dass jedes Command auf der ESXi "Oberfläche" erst ausgeführt wurde wenn eine weitere Taste gedrückt wurde.

Was dazu führte, dass er remote nicht heruntergefahren werden konnte.
Also wenn ich in vSphere den Server ausschalten wollte, musste ich immer zum Server laufen und irgen eine Taste drücken!

Danach ging der Server aber instant off.
Ich weiss nicht was da buggte.
Sonst lief alles
 
klingt eigentartig.
ich werd meinen cluster vlt. am WE mal wieder anwerfen...
müsst ich mal gucken. CPU, RAM, Mainboard hätt ich ja noch rumliegen...
 
Ausserdem hatte ich beim Booten ein paar Warnings.
Werde die mal hier rein posten.
 
Also ich weiss ja nicht was ihr alle mit dem Platten habt aber aus der Praxis ersehe ich, dass ein Server 2008R2 mit Hyper-V mit Raid 1 ganz gut fährt und bei 2 RAID 1 Sets 14 VMs am laufen hat. darunter ein DC für 4000 User, Webserver, VPN-Server, 3 Router, 3 Server für WLAN Zugang und Authentifizierung. Und da sind noch einige Reserven vorhanden. Die Platten hängen an einem Adaptec 5805 und sind Seagate NS SATA Platten.
Und von diesen Hosts haben wir 15 mit unterschiedlicher Auslastung (von 3 bis 14 Guests pro Host)

wbr

P-Ray

PS: Die oben erwähnte Konfig läuft nun schon drei Jahre weitgehends störungsfrei

Schau dir doch selbst an, was die Maschinen für Anforderungen haben, Router, DC, Webserver usw. sollten was HDD Power angeht, sogut wie gar keine Ansprüche stellen. Vllt der Webserver, wenn es darum geht, viele und große Images zu laden. Ansonsten geschieht da an HDD Aktionen recht wenig...

Kein wunder das die Kiste 14VMs schafft.


Um aus diese Konstellation mal ans Limit zu fahren fahr mal alle VMs gleichzeitig hoch. Dann siehst wo die Platten dicht machen. Ich wette mit dir, die Hochfahrzeit beträgt weit über 10min für alle VMs...
 
sofern die überhaupt richtig laden.
ich hatte das aus spaß mal in meiner Testumgebung gemacht, kleiner DC, 4GB RAM, und ne interne 250GB HDD - da am ESXi alle 8 XP-VMs (a 512MB) fast gleichzeitig zu starten hat für 5 den tot bedeutet, also sie ham teilweise bissl geladen, teilweise einfach im windows boot-screen hängen geblieben nur 3 habens geschaft, die andern ham sich auch nach einer stunde nicht erholt, erst der reset der vm hat geholfen, darum fährt der ESX die kisten ja auch idealerweise mit einer Einschaltverzögerung hoch - idealerweise 60sec. sollte ne VM vorher fertig sein, starte die danach eh automatisch eher.
 
sofern die überhaupt richtig laden.
ich hatte das aus spaß mal in meiner Testumgebung gemacht, kleiner DC, 4GB RAM, und ne interne 250GB HDD - da am ESXi alle 8 XP-VMs (a 512MB) fast gleichzeitig zu starten hat für 5 den tot bedeutet, also sie ham teilweise bissl geladen, teilweise einfach im windows boot-screen hängen geblieben nur 3 habens geschaft, die andern ham sich auch nach einer stunde nicht erholt, erst der reset der vm hat geholfen, darum fährt der ESX die kisten ja auch idealerweise mit einer Einschaltverzögerung hoch - idealerweise 60sec. sollte ne VM vorher fertig sein, starte die danach eh automatisch eher.

Genau so schauts aus...
Es sei denn, man hat ein dickes Storage unten drunter...

Wir können hier auf unserem ESX Cluster gut und gerne 5 2003er Server gleichzeitig hochbringen, in brauchbarer Zeit. Da darf aber sonst nicht viel aktivität auf den Platten sein...
Ansonsten kommen so unschöne Meldungen von wegen, ein paar Dienste konnten nicht gestartet werden usw. ;)
 
Der Reboot des von mir erwähnten Systems dauert etwa 15 Minuten bis alle VMs wieder am Anmeldeschirn stehen und davon braucht der Host alleine etwa 4 Minuten. Die Vms starten in 2 Blöcken mit 240 Sekunden Startverzögerung.

Natürlich sinkt die Ansprechzeit wenn alle VMs gleichzeitig starten aber das System das diesen Effekt nicht hat kostet etwa das 10 fache und die Ansprechzeit ist dafür aber trotzdem nicht 10 mal so schnell.

Auf der anderen Seite stellt sich die Frage wie oft denn der Start aller VMs (also der Start des Hosts) statt findet?

In der Regel nicht sehr oft und dann hilft dir auch kein Superstorage (es sei denn Du hast einen Hostcluster der die VMs automatisch am redundaten System in Betrieb nimmt doch das sind Technologien und Preisregionen die in diesem Thread nicht zur Debatte stehen).

Das der ESX offenbar sehr heikel ist was das Plattensubsystem betrifft habe ich schon aus diversen Threads entnommen. Diese ganze Sache mit zertifizierter Hardware für ESX/GSX war auch der Grund warum wir uns vor etlichen Jahren dagegen ausgesprochen haben. Und gut war es.

Dem Hyper-V System ist das relativ egal (oder wir haben einfach ein irres Glück und haben gleich von Anfang an die richtige Hardware genommen, aber dagegen spricht, dass auch andere Unternehmen die Hyper-V im Einsatz haben diesbezüglich keine Probleme haben) und startet die VMs ordentlich wenn es unter Volllast steht.

Die "mächtigste" Serveranwendung die wir hier virtualisieren ist ein Exchange 2010 mit DAG (das mit Exchange 2010 eingeführte Clustersystem von MS).
2 Hosts betreiben je 3 virtuelle Server (DC, Hub Transport, MBX-Server) für 5000 User und die meiste zeit langweilen die sich ziemlich.
Es sei für diesen Falle schon gesagt, dass die Server an sich auf Raid 1 organisierten Platten befinden, der MBX Store sich aber auf einem 6 TB Raid 5 befindet das RAW an die virtuelle MBX-Maschine gebunden ist.


wbr

P-Ray
 
Zuletzt bearbeitet:
Es ging ja auch nicht darum, das die VMs permanent hoch und runter gefahren werden, sondern das war nur ein einfaches Beispiel, wie du die Platten mal ans Limit bringen kannst, wenn die VMs sonst schon keine Last erzeugen... Und genau das ist in deinem Beispiel von weiter oben der Fall...

14VMs auf zwei Raid 1 Arrays anständig zum laufen zu bekommen klappt eben nur, wenn die VMs keine/wenig Last erzeugen auf den Platten. Sonst ist da schnell Sense...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh