Virtualisierung aber wie?

xmogelx

Enthusiast
Thread Starter
Mitglied seit
14.12.2008
Beiträge
666
Ort
127.0.0.1
Hi,

ich habe mich in letzter Zeit sehr viel mit Servern, sowie deren Software beschäftigt...

Zuhause bin ich seither mit einem Server gefahren.. und hatte darauf Windows Server 2008 R2 Standard... da windows aber des öfteren total kompliziert ist oder es einfach (noch) keine Lösung gibt, bin ich vor einem halben Jahr auf Vmware ESXI umgestiegen und habe dort dann mein 2008r2 und 1xdebian5, sowie ein centos virtualisiert.

Hardware des "Servers" war und ist:

CPU: Intel Q9550 2,83Ghz untervolted
RAM: Corsair 8Gb (4x2GB)
Mobo: Evga 780i SLI
HDD: 2x300Gb Sata2 24/7(da ESXI nur 2 channel erkennt, bzw. beim hinzufügen von zusätzlichen Platten, bekommt er einen Error?)

Das ganze dann in einem 19" 4HE Case mit einem 2x450W NT

So weit so gut...

Damit mir da der Platz nicht ausgeht und ich keine lust habe mehrere hundert € auszugeben(Raid Controller) habe ich denn noch einen Kleinen Atom server aufgesetzt(Atom 330) auf openfiler basis. Das Problem ist jetzt simpel, dass das Laden einer VM sehr verzögert wird. Wenn ich mir dann im Webinterface die Graphen anschaue, dann fällt mir auf, dass die CPU immer auf 100% hängt beim laden.

Da ich noch Hardware hier liegen hatte habe ich dann das System neu aufgebaut:

CPU: AMD Phenom II 955 4x3,2Ghz auch undervolted
Ram: 8GB DDR3 (4x2GB)
Mobo: MSI 880GM
HDD: 2x300GB 24/7, 2x320Gb, 1x200GB, 1x250GB

auch hier im 4he Case mit einem 600W NT
Zusätzlich habe ich dann noch eine Intel Pro 1000 Netzwerkkarte gekauft, da ESXI die onboard Realtek nicht erkennt.

Jetzt hab ich im Internet aber noch Xenserver und Proxmox gefunden...

Insgesamt laufen auf meinem Server1(oben) gerade 13VM's, Windows und Linux.

Dann habe ich Xenserver getestet und festgestellt, dass es total kompliziert ist und leider Probleme mit Windows Server 2003 macht.

Dann habe ich Proxmox getestet... schon der Hammer ;)

Sehr schnelles und übersichtliches Webinterface
KVM und OpenVZ
und die Möglichkeit zu Clustern

Jetzt die eigentliche Frage:

Würdet ihr jetzt weiterhin auf ESXI setzen und euch das transfern der VMs sparen oder eben zu Proxmox wechseln und dann mit 2 Maschienen einen Cluster einzurichten und eventuell das Webinterface noch dezent anpassen?


Ich hoffe ihr könnt mir helfen
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Frage ist doch eher mit welchem der beiden hast du über längere Zeit bessere (oder überhaupt) Erfahrungen gemacht.
Ich würde ggf auf die performantere Lösung umsteigen wenn gesichert wäre, dass ein Wechsel zurück jederzeit möglich wäre.
So gesehen kommst du weder um ein Backup noch um eine Testumgebung drumrum.

Sollte das Ganze eher als Spiel und Erfahrungswiese dienen... well, dann kannst du tun und lassen wie es dir behagt. Aus mehrfachem Neuaufsetzen kannst du nur lernen ;)
 
Mit was hast du Performance gemessen?
Bei 13 VMs geht wohl der erste ESX ziemlich in die Knie... 8GB RAM sind schon recht wenig. Der ESXi scheint sich dazu auch selbst noch eine ganze Menge Holz zu genehmigen... Effektiv dürften da grobe 6GB bei übrig bleiben.
Auch ist das Storage mit zwei HDDs im Gegensatz zu der anderen Kiste weit weit unterdimensioniert. (kommt aber auf die VMs an)


Ich würde klar beim ESX bleiben... Aber das nur meine Meinung, habe bis dato mit den ESXen bis jetzt alles irgendwie immer hinbekommen ohne großen Aufwand was ich vor hatte. Vllt können andere Lösungen das besser, leider ist aber teils dort der Verwaltungsaufwand und die Einstellungsgeschichten ziemlich kompliziert und hoch.
 
Warum ist XenServer kompliziert und weshalb läuft darauf Windows Server 2003 nicht?
Gerade was die Hardware angeht mussten wir feststellen dass der XenServer kompatibler ist als ESX.

Edit: was hast Du überhaupt vor? Geht es Dir um eine große Spielwiese mit vielen virtuellen Maschinen oder Ausfallsicherheit?
Eine VM-Server Farm sollte das kleinste Problem sein.
 
Zuletzt bearbeitet:
ist es schlimm wenn ich deine config nicht verstehe?
erst hast du nen server mit Intel Q9550, dann einen mit Atom und dann noch einen mit AMD.. wer macht denn dort nun was?!
 
@WickedClown
Ich nutze ESXI seit 6 Monaten und Proxmox seit 2 Wochen
@fdsonne
Jop es bleiben 6,2Gb übrig
@Colttt
Nein macht nichts ;)


So da es gestern Abend schon echt spät war, wurde mein Beitrag etwas lang und kompliziert.

Aktuell habe ich jetzt 2 funktionierende Server hier in meinem Rack stehen:

Server1:
Q9550
EVGA 780i SLI
8GB DDR2
2x300Gb 24/7 Sata2
2x450W Redundant

Server2:
AMD 955 BE
MSI 880GM
8Gb DDR3
2x300gb 24/7, 2x320gb, 1x200gb, 1x250gb Alles SATA2

Aktuell läuft alles auf Server1, dh. Server2 ist grad noch eine Test Maschine.

Im Haus befinden sich 13 Computer und Laptops, welche jeden tag gesichert werden.
Dafür ist eine VM mit 4cores und 3Gb Ram da. Die VM ist Domänencontroller und eben Fileserver für alle clients. Dann habe ich eine Debian Squeeze VM wo ein Munin Master Server läuft, der dann meine Serverfarm im Rechenzentrum ausführlich loggt(CPU, RAM, HDDs...). Dann läuft noch ein Webserver auf Centos, wo man dann einsehen kann welche Server online offline sind und welche Services darauf laufen. Zudem läuft darüber noch eine Kleine Testhomepage wo ich gerade mein Interface entwickle.
Dann habe ich wegen meiner Arbeit noch Testserver mit Programmen laufen, dh. 2VMs mit Win2003std. (Master, Node). Dann laufen noch mein IPcop Router und ein Openfiler welcher das Centos und den Router live sichert. Dann läuft noch eine VM welche 2 VPN Verbindungen hält und herstellt und sie dabei auch routed(hab ich selbst nicht eingerichtet kann ich also nicht allzuviel darüber sagen

Das sind jetzt 8 wichtige VMs und noch 5 Testserver für allesmögliche(die laufen aber nur bei bedarf)

Zur Auslastung... CPU hat durchschnittlich 46% ram hängt meistens bei 87% und die Platten sind auch sehr beansprucht. Jedoch wird das System nicht langsam.

Jetzt wollte ich ein teil dieser Sachen auf Server2 schieben und habe dann nach einer Virtalisierung gesucht welche clustern kann und bin eben auf Proxmox gestossen. Das arbeitet mit Master und Node. Somit kann man VMs sehr leicht übertragen und sogar live immigrieren(ich glaube das heißt so).


Mfg

Mogel

PS: 400ster Beitrag yeeeha ;)
 
Zuletzt bearbeitet:
was schneller ist, kannst nur du selber herausfinden, leider darf man benchmarkergebnisse von vmware nur dann posten wenn sie vmware vorher angeguckt hat und das OK gegeben hat und das machen die logischerweise nur dann wenn sie besser abschneiden ;)

ich würde es wie folgt machen: den besten server als VM-Server nehmen und dort wo die ganzen platten drin sind als storage-server alles per iSCSI einbinden..
 
was schneller ist, kannst nur du selber herausfinden, leider darf man benchmarkergebnisse von vmware nur dann posten wenn sie vmware vorher angeguckt hat und das OK gegeben hat und das machen die logischerweise nur dann wenn sie besser abschneiden ;)

ich würde es wie folgt machen: den besten server als VM-Server nehmen und dort wo die ganzen platten drin sind als storage-server alles per iSCSI einbinden..

Das macht aus mehreren Gesichtspunkten wenig Sinn...
Denn iSCSI ist über 1GBit rellativ lahm, die Zugriffszeiten erhöhen sich spürbar und auch so brauch es eben zwei Kisten.

Dann lieber das Storage direkt lokal in die Kiste rein wo die VMs tuckern und gut ist. Spart nen zweiten Server und auch so läuft es vom Speed her wohl am schnellsten.

Ein Knackpunkt sind die nur 8GB RAM. Wenn die erste Maschine schon 3GB bekommen darf, bleibem beim ESXi eben nur noch grobe 3GB für den Rest. Halte ich für 7-12 zusätzliche VMs ziemlich unterdimensioniert.
Ein Aufteilen macht schon Sinn. Ob es möglich ist eine live Migration von Server 1 auf Server 2 zu machen, weis ich allerdings nicht. Bei VMWare Produkten brauch man dazu teure Lizenzen und die Hardware sollte CPU Generationstechnisch identisch sein.
 
nunja, das mit dem iSCSI, 1GB sollte für 2-3VMs locker reichen.. ansonsten noch netzwerkkarten kaufen und dann die beiden zusammeschliessen und so hat man schnell 2GB, etc..
 
ansonsten noch netzwerkkarten kaufen und dann die beiden zusammeschliessen und so hat man schnell 2GB, etc..

Das wird mit dem Zusammenschließen so nicht klappen. Er könnte höchstens mit jeder Karte ein eigenes Target ansprechen.
 
Alternative, wenn du sowieso Windows 2008 R2 nutzt, Hyper-V!
Einfach, absolut simpel, schnell und süper :d

Übrigens am XenServer läuft Windows 2003 problemlos, man muss es nur konfigurieren. ;)
 
Trunking/Teaming von NICs ist auch nicht das Thema, das Thema ist die Latenz, die durch NFS und iSCSI deutlich ansteigt...
 
Trunking/Teaming von NICs ist auch nicht das Thema, das Thema ist die Latenz, die durch NFS und iSCSI deutlich ansteigt...
warum wirds dann im enterprise erfolgreich eingesetzt wenns sooo schlecht ist? (liest sich von dir zumindest grade so)

@towa: guck HIER: http://www.hardwareluxx.de/community/16492380-post5.html
etwas OT: vergiss Hyper-V und MS.. wir hatten auch Hyper-V und es lief auch bis zum letzten SP.. danach startete Windows nicht mehr und brach mit einem schweren fehler ab, wir hätten also das ganze nochmal aufsetzen müssen, wir suchen jetzt nach einer anderen Lösung..
 
Ich sage nicht das es schlecht ist, ich sage nur, es gibt bessere Alternativen...
Auch gibt es extreme Unterschiede zwischen iSCSI/NFS wie es hier im Raum steht und echten Enterprise Lösungen. Da gibt es dedizierte iSCSI NICs usw. usf.
 
ich bin mit meinem ESX 4 und DAS Storage zufrieden, Kollege mit seinem MS HyperV.
Jede VM hat 2-3 GB RAM und teilt sich die Disk mit einer weiteren VM.

Das Einzige Prolbem war die Hardware, nicht jeder ESX wollte mit meiner Auswahl an Boards/Nics teilen laufen.

Und ISCSI ohne die richtigen Karten würd ich lassen
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh