Versuch eines Virtualisierungs-Servers

würde es was bringen, das LVM auf ein Raid5 zu packen? Hab momentan 3x1TB im Server per LVM am laufen, ohne Raid.

Oder macht das am Speed vom Gast zum Host nix?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
glaube nicht, dass das viel bringen wird.

Meine 3 VMs laufen auf der gleichen Platte wie das Host OS. Von der Schreibgeschwindigkeit in der VM sind die Wert wie deine.

Habe gerade noch eine Platte in das System gebaut und dort ein VM drauf gespielt und die Schreibgeschwindigkeit getestet. War die gleiche wie vorher.

Denke das da ehr eine schnelle Platte helfen wird.
 
Zuletzt bearbeitet:
Wenn jetzt schon Host und Gast auf verschiedenen Platten liegen wirst du keine Performancesteigerung erziehlen.
 
Wenn jetzt schon Host und Gast auf verschiedenen Platten liegen wirst du keine Performancesteigerung erziehlen.

das ist doch nur ein test. Die anderen VMs liegen auf der gleichen platte wie das OS. Wie ich schon geschrieben hatte
 
Ok, dann hat sich der Fileserver als Gast erledigt.

Werd ich mich dann mal auf den VDR als Gast konzentrieren, mal sehen, ob der wenigstens funktioniert mit der durchgereichten DVB-Karte.
 
wie sieht es unter Xen aus, was den Speed beim Schreiben auf die Platte betrifft? ist da mehr Performance zu erwarten?

Wo ist überhaupt der Flaschenhals, dass nicht mehr möglich ist bei kvm?
 
wie schon gesagt, habe ich die gleichen Wert wie du und ich nutze XEN.

NFS kann ich leider nicht testen, weil das Netz nur ein 100Mbit Netz ist und man so sowieso nur mit ca. 10MB schreibt.

Das einzige was etwas bringen würde, wäre eine schnelle Platte zu benutzen.
 
Mich wundert es schon, das du nicht einen hoeheren Schreibdurchsatz erreichen kannst.
Ich habe auch schon ueber einen laengeren Zeitraum Xen benutzt und die Performance war ein kleines bisschen besser als gerade mit KVM, aber nur wenn Host und Gast die gleiche Distribution waren.
Die Performance einer HVM war aber deutlisch schlechter als bei KVM zumindest subjektiv, da ich keine Benches unter Xen habe laufen lassen.
 
gute Frage, keine Ahnung.
Es passiert auch häufig, dass die Netzwerkverbindung öfters abreißt, ich merk das beim Benutzen von Putty, wenn ich den Gast einrichte, d.h. eth0 ist auf einmal weg und muss wieder gestartet werden.

Ich back erstmal einen gescheiten Kernel für den Gast, mal kucken, was da an Stabilität zu gewinnen ist.
 
also auf die Platte im Gast kann ich mit 9MB/s schreiben, in die NFS-Freigabe vom Host mit 16MB/s, also schnell ist was anderes.

Edit: Hab die Platte vom Gast jetzt auf virtio umgestellt, bin dann bei 18MB/s schreiben gelandet.
 
Zuletzt bearbeitet:
So, mal wieder was zum Thema:

Hab als System jetzt die aktuelle Ubuntu Server 9.04 (64bit) drauf mit einem gebackenem 2.6.29er Kernel wegen dem Modul pci_stub für das Durchreichen von PCI-Geräten in die Gäste.

Ich nutze die aktuelle Version von qemu und libvirt (per cvs kompiliert) und kann nun meine Skystar2 durchreichen.

Windows 7 hab ich auch mal als Gast laufen lassen, lief ganz passabel.

Als nächstes wird ein VDR-Server in einem Gast installiert, in den ich 2 DVB-Karten durchreiche, mal sehen, wie stabil das wird.
 
ist gleich stabil.

Ich habe bis jetzt keine stabilitäts Probleme mit meiner Testsetup (kvm) gehabt.
Wenn man wieder auf der Arbeit bin, wollte ich das mal genauer vergleichen.
 
Instabilitäten hab ich bisher noch keine festgestellt.

Ich nutze kvm per libvirt, richtig.
 
Falls es wen interessiert, bei Phoronix wurde gerade KVM (auf Ubuntu 9.04 64bit) gegen VirtualBox getestet, folgender Artikel:
http://www.phoronix.com/scan.php?page=article&item=intel_corei7_virt&num=1

Grundsätzlich kann man da wohl ablesen dass CPU intensive Sachen kaum langsamer laufen als nativ und oft wesentlich fixer als VirtualBox. Beim Disk-I/O (ab Seite 5) siehts aber übel für KVM aus, leider...

edit:

Hat mal jemand LVM volumes der virtuellen Maschine als disks übergeben?
Laut einem der KVM Entwickler resultiere dieses wohl in der besten Performance...

http://kerneltrap.org/mailarchive/linux-kvm/2009/1/4/4590044
 
Zuletzt bearbeitet:
Ok, das Durchreichen eines PCI-Devices klappt in den Windows-Gast ebenso wie in den Debian-Gast.

Hab dafür die kvm-85 kompiliert, scheint zu laufen. Nur die RC1 von Win7 scheint nicht zu gehen, mehr als einen Bluescreen bekommt man nicht zu sehen.
Die letzte Beta ging noch einwandfrei. Aber das diente ja eh nur Testzwecken.
 
scheinbar kann man mit libvirt nicht von einem virtio-Blockdevice booten, schade.
 
So, gestern hab ich mal einen Q6600 samt neuen Board in den Server montiert und nun bekomm ich mit libvirt immer einen segfault:

Code:
libvirtd[2759]: segfault at 41e5 ip 00007fea075db225 sp 00007fff10c3e960 error 4 in libc-2.9.so[7fea07561000+168000]

Hab schon libvirt neu kompiliert, die kvm-Module sind aktuell, scheint wohl nicht zu gehen.

Edit: bin ja auch ein Depp. Dass sich bei einem neuen Board logischerweise der PCI-Port ändert, da hätte ich auch gleich drauf kommen können.
Jetzt läuft alles prima.
 
Zuletzt bearbeitet:
so siehts momentan aus:



3 VM´s laufen, XP, Win7 und mein zukünftiger VDR-Server mit durchgereichter PCI-Karte.
 
Zuletzt bearbeitet:
hey da du ja im dem thema mittlerweile gut drin sein dürftest würde ich mich sehr freun wenn du evtl nen gutes tut schreiben würdest von anfang bis zum schluss, mit allen hürden und probs die dir so begegnet sind.. und i geh mal stark von aus i bin nicht der einzige der sich dies wünscht..
 

Vmware hab ich nicht benutzt, sondern libvirt und qemu(kvm). Hab keinen X-Server installiert.

Momentan läuft der Server auf einem MSI G31M2 mit einem Q6600, 4GB RAM per Ubuntu-Server 9.04.
Der Kernel ist der aktuelle 2.6.30-rc5 (abgespeckter Eigenbau).

Libvirt hab ich aus dem cvs kompiliert, qemu läuft in der Version 0.10.0, auch selbst kompiliert.

Werd die gröbsten Schritte mal aufschreiben, ob ein Tut dabei rausspringt, werd ich sehen.
 
Hmm und warum so kompliziert ? sry hab net alles gelesen wenns nen grund gibt gib ma seiten link.

ich nutz vmware server weils geil ist und for free...
 
weil ich mit libvirt/qemu PCI-Geräte in die Gäste durchreichen kann, z.B. Netzwerkkarten, DVB-Karten usw.

Ich will ja in einem Gast einen VDR-Server betreiben, der bekommt mal 2-3 DVB-Karten per pci-passthrough.
 
Aus Spass am Basteln, und weil ich die Aufgaben, die der Server mal übernehmen soll, gern voneinander getrennt laufen lassen möchte.
 
Hmm und warum so kompliziert ? sry hab net alles gelesen wenns nen grund gibt gib ma seiten link.

ich nutz vmware server weils geil ist und for free...

ganz einfach, weil vmware server suckt. Das ist im Vergleich zu XEN / KVM total unperformant. Lass man 10 VM im Vmware Server laufen und dann mal mit XEN oder KVM, ist schon ein gewaltiger Unterschied. Ausserdem ist man mit XEN / KVM viel flexibler.

hey da du ja im dem thema mittlerweile gut drin sein dürftest würde ich mich sehr freun wenn du evtl nen gutes tut schreiben würdest von anfang bis zum schluss, mit allen hürden und probs die dir so begegnet sind.. und i geh mal stark von aus i bin nicht der einzige der sich dies wünscht..

wofür ein tut? Es gibt doch schon haufenweise tuts. Schon alleine die KVM und QEMU Seiten ist sehr gut. Und wenn man das ganze in Verbindung mit libvirt (virt-manager und co) macht, ist das ein kinderspiel.
 
Zuletzt bearbeitet:
ich denke mal, dass auch die Entwicklung bei kvm und libvirt schneller voran geht, als bei VMWare.
 
du könntest dir so eine Grafikkarte zulegen und die dann in deinen Windows-Gast durchreichen.
Ob dann allerdings Spielen möglich ist, kann ich dir nicht sagen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh