Performancevergleich ESXi vs. Proxmox vs. Hyper-V vs. XenServer

amorph

Neuling
Thread Starter
Mitglied seit
12.12.2012
Beiträge
45
Hallo, kennt zufällig jemand von euch eine Seite, auf der mal jemand einen halbwegs aktuell Performancevergleich der aktuell verfügbaren Hypervisor gemacht hat? Insbesondere die Performance von Windows-Guests würde mich interessieren, da ich beruflich recht viel mit Win-VMs arbeiten muss.

Vielen Dank!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich kann nur aus Erfahrung antworten...
und da hatte ich nie Probleme mit ESXi und Hyper-V.
Wenn du rein mit Windows VMs arbeitest ist vielleicht Hyper-V die besser Wahl, da du dort meines Wissens nach eine bessere Integration hast.
Ich nutze Windows als auch Linux VMs und benutzte nur noch ESX(i). Habe mich einfach daran gewöhnt und keinerlei Probleme mit.
 
Ich glaube nicht, das sich die Performance-Technisch viel nehmen. Ich würd die Wahl eher von den angebotenen Features, bzw der benötigten Lizenzen abhängig machen.
 
Ich glaube nicht, das sich die Performance-Technisch viel nehmen. Ich würd die Wahl eher von den angebotenen Features, bzw der benötigten Lizenzen abhängig machen.

Das kann ich so leider nicht bestätigen. Ich gestern einen vollkommen untechnischen, unfundierten Selbsttest gemacht und nacheinander mal ESXi, XenServer und Proxmox installiert, dort jeweils eine neue Win7-VM angelegt und in der VM mal ein paar Benchmarks gemacht. In der Tat trifft die Aussage, dass die sich gegenseitig nicht viel nehmen nur auf den XenServer und ESXi zu. Proxmox war bei den Benchmarks drastisch langsamer. Das finde ich schade, denn irgendwie ist mir Proxmox am sympathischsten - ganz besonders wegen der Web-UI.
 
In der Tat trifft die Aussage, dass die sich gegenseitig nicht viel nehmen nur auf den XenServer und ESXi zu. Proxmox war bei den Benchmarks drastisch langsamer. Das finde ich schade, denn irgendwie ist mir Proxmox am sympathischsten - ganz besonders wegen der Web-UI.

Welche Art von Benchmarks hast du denn durchgefuehrt? CPU lastige oder auch welche die IO Last erzeugen? Wenn sie CPU lastig waren, wurden auch alle notwendigen Features der CPU an den Gast weitergeleitet?
 
Ich habe einen ganz simplen Geekbench durchgeführt. Das mach ich eigentlich schon seit Jahren auf all meinen Rechnern und spiegelt doch recht genau auch meine "gefühlte" Performance wider.
Inzwischen habe ich diesen "Test" auch mit Hyper-V 2012 R2 durch. Langsamer als XenServer und ESXi aber immer noch deutlich schneller als Proxmox.
 
Bei mir hat sich rausgestellt, dass die Storage Performance das grösste Problem darstellt. Auch die Menge vom verbaubarem Speicher war relevant. Die CPU Leistung war eigentlich nie ein Thema (schneller 6 Kern Intel). Es laufen im Schnitt 5-10 kleine VM's.

Was möchtest Du denn machen in den Gästen?
 
Storage Performance ist bei mir kein Thema mehr seitdem ich VMs generell nur noch auf SSDs packe. Mein Server ist recht potent (2 x XEON E5 2680 EP, 64GB Ram) - da bin ich eigentlich recht flexibel was die Zuweisung von Cores und Ram angeht.

Ich bin Softwareentwickler und arbeite auf den VM's via RDP.
 
Ich benutze eigentlich nur ESX(i) Server für virtualisierung ganz einfach weil ich nie einen Grund hatte was anderes zu benutzen.
Bin nie auf benötigte Features gestoßen die andere haben aber ESXi nicht und genausowenig hatte ich den Eindruck das die performance nicht passen würde. Wenn Storage oder RAM am limit waren wars eigentlich immer die verbaute Hardware die halt nicht mehr hergegeben hat und da hat man ja noch die Möglichkeit über Resourcenpools vernünftige prioritäten zu vergeben.

Ich würde aus Gewohnheit den ESXi nehmen.

Für mich hat sich die performance Frage aber auch nie gestellt, denn wo performance gebraucht wird habe ich auch nicht virtualisiert.
 
@Fr@ddy: abolut gesunde Einstellung. Prinzipiell sehe ich das genauso. Nur habe ich ja einen Server und dessen Performance möchte ich so effizient wie möglich nutzen. Bisher hatte ich auch nur ESXi im Einsatz, allerdings stört mich die absolut schlimme Web-UI bzw. die fehlenden nativen Verwaltungswerkzeuge. Außerdem passieren mit meinen VMs immer wieder unerklärliche Dinge, wie das ich beispielsweise plötzlich kein Backup mehr machen kann, weil das letzte Backup mitten im Snapshot hängen geblieben ist und meine VMDKs nun "konsolidiert" werden müssen, was aber weder händisch noch via UI klappt. Das hatte ich nun schon ein paar mal. Auch das Volumes auf einmal nicht mehr gemountet werden kam schon ein paar mal vor.
 
Wenn ich mich korrekt an unsere alten ESXi Installationen erinnere, reicht dieser die CPU Features standardmaessig an die VMs durch. Bei Proxmox wird stattdessen jedoch der CPU Typ "kvm64" verwendet. Hier kann man z.B. durch die Auswahl des CPU Typs "host" die Performance steigern. Dies ist unter anderem auch auf der KVM Tuning Seite beschrieben.
 
Wenn ich mich korrekt an unsere alten ESXi Installationen erinnere, reicht dieser die CPU Features standardmaessig an die VMs durch. Bei Proxmox wird stattdessen jedoch der CPU Typ "kvm64" verwendet. Hier kann man z.B. durch die Auswahl des CPU Typs "host" die Performance steigern. Dies ist unter anderem auch auf der KVM Tuning Seite beschrieben.

Danke für den Hinweis. Das hatte ich bereits berücksichtigt. Auf den Benchmark hatte es eh keinen größeren Einfluss.
 
Ich persönlich würde dirgend von Citrix Xen Server abraten! Der zweig wird bei Citrix nur noch mit sehr geringer Priorität weiter entwickelt und die Lücke zu ESX(i) und hyper-V wird in den nächsten Jahren immer größer. Wenn du zu mehr als 90 % Windows VMs nutzen wirst, solltest du Hyper-V nehmen. Geht die Anzahl der VMs mit anderen Betriebssystemen hoch, solltest du ESX(i) nutzen.

Das sind Erfahrungen die ich im Homelab und bei Kunden mit kleinen Clustern (max 4 Cluster-Nodes) gesammelt habe.

Wie der Rest auch schon sagte, solltest du auf ein performantes Storage mit viel i/o Wert legen. Eine 08 15 SSD ist auch bei mehreren VMs mal schnell überfordert.
 
Citrix ist toll für GPU Virtu
Proxmox ist top für eigentlich alles (nur die GPU Virtu ist in den Kinderschuhen)
ESXi seit 5.5 ist eigentlich nur noch im Com Bereich (zu meiner schande, verwende immernoch 5.0.2)
Hyper-V hat Vorteile bei HDD Pass und Energieeffizienz

zusätzlich gibt es auch sowas wie Virtualbox/KVM/Docker etc


eigentlich ist für jeden nun was dabei, alles hat Vorteile und Nachteile

ich nutze meist proxmox (und hyper-V wenns um zusatznutzen zu Win8/8.1(pro) Systemen geht) , wobei ich grad für den Home Bereich evtl auf VirtualboxPhP umschwenke (da universell nutzbar)

Trend geht zu Webverwaltbaren Systemen
 
Zuletzt bearbeitet:
Wie viele VMs willst du denn überhaupt betreiben?
Beim Hyper-V schleppst du ja noch ein recht großes Gastsystem mit dir rum, das hat doch sicher auch Einfluss oder?
Vor allem muss das ja auch das Hostsystem gepatcht und gewartet werden usw.

Wenn du auf dem VMs per RDP arbeitest, auf wie vielen dann gleichzeitig?

Mit welcher ESX(i) version hattest du denn diese Probleme mit Snapshots?
Sowas ist mir in den letzten Jahren nicht einmal passiert.
Wir haben aber auch immer schon beim Hardwarekauf darauf geachtet nur zertifizierten Kram einzukaufen.
So stressfrei wie die ESXi Server hier in den letzten 5 Jahren gearbeitet haben dürfte gern alles funktionieren.
 
Wie viele VMs willst du denn überhaupt betreiben?

Aktuell sind es ca. 10 VMs

Wenn du auf dem VMs per RDP arbeitest, auf wie vielen dann gleichzeitig?
Ich arbeite auf einer VM gleichzeitig. Allerdings finden auf anderen VMs oft parallel auch Abnahmetests von Kunden statt.

Mit welcher ESX(i) version hattest du denn diese Probleme mit Snapshots?
Sowas ist mir in den letzten Jahren nicht einmal passiert.
Das ist mir mit 5.5U2 passiert. Ich habe den ESXi seit 2 Jahren (vorher 5.0) am laufen und sowas ist mir 2 mal passiert. Ich erstelle jede Nacht ein Backup jeder VM via ghettoVCB. Dabei kam es dann zu den Problemen wohl beim Erstellen des Snapshots für das Backup.
 
...
Vor allem muss das ja auch das Hostsystem gepatcht und gewartet werden usw.
...

Auch ein Xen, ESXi oder Proxmox muss gepatcht werden. Da gibts genau so Updates wie für Windows und teilweise in gleicher Menge. Installation gestaltet sich da teilweise sogar noch schwerer.
 
Nachdem ich keine Benchmarks der aktuellen Hypervisor finden konnte habe ich mir mal die Mühe gemacht und selbst einige Messungen durchgeführt. Ich erhebe hier keinerlei Ansprüche auf Richtigkeit oder gar Sinnhaftigkeit der Messungen. Ich wollte lediglich wissen, wie sich die unterschiedlichen Produkte auf meiner Hardware verhalten und das möglichst unter den Bedingungen die für mich relevant sind.

Hierzu habe ich auf meinem Server ( ASUS Z9PE-D8 WS, 2 x XEON E5 2680, 64GB Ram ) auf einer 512GB Samsung 830 SSD nacheinander Proxmox VE 3.3, Hyper-V 2012R2 (sowohl baremetal als auch als Windows Server 2012R2-Rolle), XenServer 6.2 und ESXi 5.5 installiert. Dort habe ich jedes mal ein nacktes Win7 64bit SP2 mit zugewiesenen 2GB Ram und unterschiedlicher Core-Anzahl installiert und jeweils Geekbench 3 (32bit, da Trial) und PerformanceTest 8 drüber laufen lassen. Anbei die Screenshots der Messungen:

Zunächst PerformanceTest - die Bezeichnungen sind hoffentlich selbsterklärend. Proxmox ist nicht zu finden, denn der Benchmark ließ sich nicht starten bzw. quittierte mit einem Blue-Screen seinen Dienst. "This Computer" ist bei den Messungen Hyper-V mit 4 Cores:

PerformanceTest.png


Nun die Geekbench 3 Ergebnisse:

Hyper-V 2012R2 BareMetal 1-Core:
HyperV_BareMetal_1CPU.png

Hyper-V 2012R2 BareMetal 2-Cores:
HyperV_BareMetal_2CPU.png

Hyper-V 2012R2 BareMetal 4-Cores:
HyperV_BareMetal_4CPU.png

Windows Server 2012 = Rolle Hyper-V 2012R2 1-Core:
HyperV_Serveri2012_1CPU.png

Windows Server 2012 = Rolle Hyper-V 2012R2 2-Cores:
HyperV_Serveri2012_2CPU.png

Windows Server 2012 = Rolle Hyper-V 2012R2 4-Cores:
HyperV_Serveri2012_4CPU.png

Proxmox 3.3 VE 1-Core (VirtIO/kvm64):
Proxmox_1CPU_kvm64.png

Proxmox 3.3 VE 1-Core (VirtIO/host):
Proxmox_1CPU_host.png

Proxmox 3.3 VE 2-Cores (VirtIO/host):
Proxmox_2CPU_host.png

Proxmox 3.3 VE 4-Cores (VirtIO/host):
Proxmox_4CPU_host.png

XenServer 6.2 1-Core:
XEN_1CPU.png

XenServer 6.2 2-Cores:
XEN_2CPU.png

XenServer 6.2 4-Cores:
XEN_4CPU.png

Auffällig bei den Messungen finde ich vor allem wie schlecht Proxmox abschneidet - wobei es keinen Unterschied zu machen scheint ob die virtuelle CPU als kvm64 oder host läuft. Vielleicht habe ich auch was falsch gemacht (was ich hoffe, denn prinzipiell finde ich Proxmox sonst wirklich sehr nett).
 
Prinzipiell sind KVM und ESXi in der Performance führend, XenServer und Hyper-V hinken aber nur marginal hinterher, das sollte nicht spürbar sein, nur messbar. Sorry, aber da muss irgendetwas mit deinem Versuchsaufbau nicht ganz stimmen, die Treiber hast du schon installiert?
https://alt.fedoraproject.org/pub/alt/virtio-win/latest/images/

Natürlich hatte ich die installiert - habe ich auch extra bei den Screenshots dazu geschrieben. Wo kann man denn nachlesen, dass KVM und ESXi bei der Performance führend sind? Und auf welches Guest-OS bezieht sich die Aussage denn? Vielleicht ja auf Linux. Bei meinen Tests habe ich mich ja nur auf Windows als Gast beschränkt. Trotzdem kann ich mir kaum vorstellen, dass KVM dermaßen schlecht abschneidet.
 
Ich habe einen ganz simplen Geekbench durchgeführt. Das mach ich eigentlich schon seit Jahren auf all meinen Rechnern und spiegelt doch recht genau auch meine "gefühlte" Performance wider.
Inzwischen habe ich diesen "Test" auch mit Hyper-V 2012 R2 durch. Langsamer als XenServer und ESXi aber immer noch deutlich schneller als Proxmox.

Prinzipiell sind KVM und ESXi in der Performance führend, XenServer und Hyper-V hinken aber nur marginal hinterher, das sollte nicht spürbar sein, nur messbar.

Sorry, aber da muss irgendetwas mit deinem Versuchsaufbau nicht ganz stimmen, die Treiber hast du schon installiert? Und du verwendest hoffentlich auch einen aktuellen Kernel (3er aus RHEL7 nicht den 2.6.32)mit Proxmox? Ansonsten funktioniert bei deiner CPU sicherlich nicht mal der Turbomodus richtig und auch grundsätzlich ist vieles anderes langsamer als es sein könnte.
https://alt.fedoraproject.org/pub/alt/virtio-win/latest/images/

Der CPU-Typ stimmt auch nicht, es wird bei dir ein Pentium aus dem Jahre 1997 emuliert, der reicht dann natürlich auch nicht alle neuen CPU-Features der letzten 17-Jahre durch.
Es sollte etwas so wie bei mir hier angezeigt werden:

geekbench.png
Achtung, Turbo-Mode ist hier nicht aktiv, daher niedriges Rating. Außerdem auch nicht die neust-mögliche Kernel/KVM-Kombination bzw. Konfiguration.

No offense, aber wenn dir solche Dinge nicht sofort auffallen, besonders nicht wenn du dich fragst warum die Ergebnisse so verschieden sein könnten, kann man deinem gesamten Versuchsaufbau nicht trauen da du vermutliche wo anders auch noch Fehler gemacht hast und die Ergebnisse damit recht wertlos sind. ;)

Dann sollte man aber noch dazu sagen dass Kombinationsbenchmarks wie Geekbench eher weniger für solche Tests geeignet sind weil hier einfach viel zu viele verschiedene Dinge getestet werden die in den unterschiedlichen Virtualisierungslösungen durch viele Einstellungen und Aufbauten beeinflusst werden können und so das Ergebniss total verfälschen.
Beispiel Encryption-Tests: Wenn dann irgendwo AES-NI nicht durchgereicht wird hat man plötzlich gleich mal 100 Punkte weniger. Ähnliches gilt für viele andere Tests.

Wenn teste bitte etwas wie x264 (hier ist Xen z.B. meist etwas schneller als KVM oder Hyper-V) oder MySQL (mit I/O rein im Memory, ansonsten nicht ganz vergleichbar), alles andere ist zu komplex und bedarf einer intensiveren Betrachtung. Bei einem richtigem Aufbau werden sich dort alle von dir getesteten Lösungen nicht großartig unterscheiden, ESXi und Proxmox/KVM werden wahrscheinlich die schnellsten sein da sie am "nativsten" arbeiten, siehe beispielsweise den Unterschied in der Funktionsweise KVM zu Xen.
Es wird aber auch einige Überraschungen geben als dass beispielweise Software virtualisiert "schneller" läuft, oder zumindestens der Benchmark einem dies glauben lassen will, oder das ESXi/KVM plötzlich extrem langsam sind und Hyper-V etwas viel besser macht. Dies gilt aber nur für einzelne spezifische Disziplin, nicht für die Wald-und-Wiesen Tasks eines Servers.
Siehe z.B. [Phoronix] Intel Haswell Linux Virtualization: KVM vs. Xen vs. VirtualBox

Bei Recherchen im Internet bei Benchmarks und Aussagen bitte auch immer auf das Datum gucken. KVM heute ist nicht dass was es vor 5 Jahren mal war und hat sich rasant entwickelt und zu anderen Lösungen aufgeschlossen oder sie überholt.

Dennoch danke für deine Mühen und Screenshots, auch wenn sie nicht ganz korrekt sind. :)
 
Zuletzt bearbeitet:
Naja, dein Link bestätigt doch das von mir vermutete: es geht leider nur um Linux. Mich würde KVM mit Windows-Guest interessieren. Und dein Einwand ist absolut gerechtfertigt - ich denke auch, dass bei Proxmox irgendwas schief gelaufen ist. Nur was? Ich habe Windows mit VirtIO installiert und den CPU-Typ geändert. Wenn mir jemand noch einen Tipp gibt welche Schraube ich vergessen habe dann wäre ich sehr dankbar, denn Proxmox ist mir ansonsten sehr sympathisch.
 
Ich habe das vor kurzem auch mit Windows 2008 R2 auf Blech, Proxmox 3.3 und ESXi 5.5 ausprobiert.
Getestet habe ich mit: Cinebench, Lynx, CrystalDiskMark und Folding@Home
Die Ergebnisse habe ich grade nicht zur Hand, kann ich morgen aber mal posten.

Auffällig war dabei, dass ESXi jeweils recht nah an der Hardware Lösung dran war und Proxmox vor allem im Bereich der Festplatte langsamer war.

Auf der Arbeit habe ich die Erfahrung gemacht, dass es bei Proxmox wichtig ist virtio Festplatten zu nehmen und von IDE die Finger zu lassen.
Konkreter Fall waren zwei Windows Server 2003 R2 Server die auf dem Proxmox virtualisiert werden sollten. Ich habe auch nach längerem Ausprobieren keinen zuverlässigen Weg gefunden die virtio Treiber nachträglich einzubinden, sodass ich IDE verwenden musste.
Die Performance war damit leider ganz und gar nicht zufriedenstellend, sodass die VMs im Nachhinein noch in eine ESXi Cloud bei einem Dienstleister umgezogen wurden.
Hier habe ich keine größeren Tests außer einem kurzen Crystal Disk Mark gefahren. Die Festplattenperformance hat sich nach dem Umzug in fast allen Test um den Faktor 10 verbessert (sequentiell Read/Write z.b. 55MB/s vs. 5,5MB/s vorher).
Ich will nicht ausschließen, dass da nicht irgendwo noch eine Bremse drinsaß, von der Hardware des Proxmox Hosts hätte ich gesagt, das müsste besser gehen (Intel Modular Server Modul 8*2,5Ghz, 16GB RAM, 13*147GB 2,5" HDDs)

In meinem Vergleich danach war der Unterschied auch bei weitem nicht so groß, ich habe allerdings leider nicht mehr daran gedacht auch die IDE Festplatten zu testen.
 
Der CPU-Typ stimmt auch nicht, es wird bei dir ein Pentium aus dem Jahre 1997 emuliert, der reicht dann natürlich auch nicht alle neuen CPU-Features der letzten 17-Jahre durch.
Es sollte etwas so wie bei mir hier angezeigt werden:

Anhang anzeigen 304984
Achtung, Turbo-Mode ist hier nicht aktiv, daher niedriges Rating. Außerdem auch nicht die neust-mögliche Kernel/KVM-Kombination bzw. Konfiguration.

Kannst du mir sagen wie dieser Benchmark zustande kommt? War Proxmox der Host? Wenn ja: welche Version? Welche Settings hattest du für die VM?
 
Auch ein Xen, ESXi oder Proxmox muss gepatcht werden. Da gibts genau so Updates wie für Windows und teilweise in gleicher Menge. Installation gestaltet sich da teilweise sogar noch schwerer.

Natürlich gibt es da auch updates, aber zumindest beim ESXi kann ich auch ruhig schlafen ohne Updates zu fahren. Ich hab mir da länger keine patchnotes angesehen aber das da relevante Sicherheitslücken auftauchen erscheint mir deutlich seltener als bei einem deutlich komplexeren z.B. Hyper-V Gastsystem.
Ich betreibe die hier so, dass ich von admin hosts aus per vSphere Client auf die Hostsysteme zugreifen kann und der rest wird von der Firewall geblockt. Da halte ich es auch für vertretbar veraltete Versionen einzusetzen ohne das ich mir große Sorgen um die Sicherheit machen muss.
Solange ich da keinen neuen features brauche oder was wirklich kritisches gepatcht wird setze ich da auch ohne Bedenken ein paar Versionen aus.
Einzig bei der Hardwarebeschaffung ist drauf zu achten das evtl. Raid controller und Netzwerkkarten mit der eingesetzten Version ordentlich funktionieren. Am besten gleich zertifizierte Hardware anschaffen.

Die Benchmark ergebnisse überraschen mich nicht besonders. Natürlich kannst du hier und da wenn du nicht aufpasst mit ungünstig gewählter emulierter hardware schlechtere performance erzielen als im idealfall, aber out of the box liefern die halb komerziellen Systeme mit defautl settings recht ordentliche Werte. Ich denke das liegt einfach daran, das man sich da erlauben kann Leute dafür zu bezahlen sowas zu testen.

Ich habe aber den Eindruck das gerade die Hardwareunterstützung in den letzten Jahren beim ESXi schlechter geworden ist und man öfter mal versionen patchen muss bevor die ordentlich funktionieren. Oder man muss auf Vendor Images zurückgreifen. Da sind probleme früher oder später vorprogrammiert.
 
Ich habe aber den Eindruck das gerade die Hardwareunterstützung in den letzten Jahren beim ESXi schlechter geworden ist und man öfter mal versionen patchen muss bevor die ordentlich funktionieren. Oder man muss auf Vendor Images zurückgreifen. Da sind probleme früher oder später vorprogrammiert.

Schaue ich mir die HCL an, werden eigentliche alle Server der großen Hersteller unterstützt. Der ESXi war nie ein Produkt für Consumer-/Homeanwender.

//Update: In der VMware HCL finden sich derzeit 868 Rackmount-Server, verschiedener Hersteller, für die Version 5.5
 
Zuletzt bearbeitet:
Ich habe noch meine Ergebnisse rausgesucht:

Cinebench
Blech 457
ESXi 450
Proxmox 405

Crystal Disk Mark sequentielle Lese/Schreibrate
Blech 80MB/s
ESXi 72MB/s
Proxmox 50MB/s

Folding@Home mit Nacl
Blech ca. 29.000PPD
ESXi ca. 29.000PPD
Proxmox ca. 25.000PPD

Hardware dabei:
Core i5-3450
16GB RAM (8GB für die VMs eingerichtet bzw. im Windows auf Blech auf 8GB limitiert)
Normale 320GB 2,5" Festplatte

Software:
Windows 2008 R2 als Gastbetriebssystem
Proxmox 3.3 installiert auf der Festplatte, ESXi 5.5 installiert auf einem USB Stick
 
Also aus meiner Erfahrung mit XenServer, Hyper-V und ESXi kann ich sagen, dass die reine CPU Leistung annähernd identisch ist. Wenn nur Windows-Gäste eingesetzt werden gibt es nur geringe Unterschiede in der Gesamtperformance der VMs, wobei ESXi im Bereich Storage und Netzwerk-IO (vorallem wenn die VMs auf dem selben Host sind) die Nase vorne hat.

Wenn Linux-VMs dazukommen führt kein Weg mehr am ESXi vorbei. Die Unterstützung mit Gasterweiterungen oder wie die einzelnen Hersteller ihre Features nennen ist nur bei VMware wirklich brauchbar. Linux auf Hyper-V ist ein Desaster im Bereich HDD- und Netz-IO.

Wenn du Interesse hast, kann ichdir gerne mal ein paar Benchmarks dazu zukommen lassen ;)
 
*ausbuddel*
Ich möchte auch noch kurz mein Senf dazu geben. Wenn man rein Linux virtualisiert und man sich sicher ist das es auch so bleibt, sollte man sich mal LXC ansehen..
 
naja ...

Hyper-V bietet die beste Lastverteilung der CPU Resourcen und einfachen HDD passthrough (leider ohne Smart und Sleep)
Proxmox die beste Webverwaltung bei guter Leistung (erfordert aber etwas Handarbeit wenn man passthrough nutzen mag/HDDs ohne passthrough Controller nutzen will)
ESXi bietet vorteile bei passthrough von PCI(e) hardware in der Bedienbarkeit und hohe Leistung (allerdings bei beschränkter Homeuser Useability und Handarbeit wenn man HDDs ohne passthrough Controller nutzen will)

IMHO ist Proxmox für den Heimanwender (und auch bei manchen Rootservern im Home/SB Bereich) immernoch die 1. Wahl - grad auch wenn Softwareraid genutzt wird (was ja auch z.B. die günstigen Hetzner/OVH Rootserver nutzen)

mit den neueren Versionen ist sogar ZFS mit proxmox möglich (p.s. den dummen Nagscreen wegen dem fehlenden ServiceAbo kann man leicht wegeditieren) http://forum.online.net/index.php?/topic/4547-howto-remove-proxmox-nag-screen/

ich nutze proxmox seit ich durch OVH darauf gekommen bin - sie bieten es als preinstall seit längerem an
z.B. hier : http://www.soyoustart.com/de/essential-server/

anfangs für Minecrafthosting, nun für fast alles
 
Zuletzt bearbeitet:
Hyper-V bietet sehr wohl ein sleep / spin down der Festplatten. Zwar nicht direkt der Hyper-V aber das Wirts-System.
Man muss es nur unter dem GAST Deaktivieren ;) sonst schauckeln sich die Systeme immer gegenseitig hoch.
Solbald kein Zugriff mehr statt findet, gehen die Festplatten in IDLE - zumindest wenn sie durchgereicht wurden.

Funktioniert bei mir ohne Probleme.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh