Da du die entsprechenden VMs ja bereits in irgendeiner Form laufen hast dürftest du ja schon eine grobe Vorstellung von der benötigten Diskperformance haben, jetzt stellt sich natürlich die Frage in wie weit die sich ändert wenn die selben Platten nicht mehr im Server sondern im Eternus stecken. Das ließe sich denk ich mit einer Leihstellung recht vernünftig abklären.
Genau das ist die Frage
Wobei mir meine damalige Erfahrung mit der MSA2312fc zeigt, dass die Performance ziemlich identisch ist, zwischen internem Storage vs. FC Storage, wenn die Disks und Raidlevel vergleichbar sind. Das ging damals schon richtig ab. Da war es auch kein Problem mal 20 VMs gleichzeitig vom "OS" Raid 10 zu rebooten (nach Updateinstallation) ohne das das Storage bröckelte. Dies ist leider aktuell nicht der Fall
Und sollte in meinen Augen geändert werden.
Denn um so mehr VMs, desto mehr Zeit kost die Wartung und wenn man das ganze dann noch sequenziel machen musst, weil bei gleichzeitigem Boot oder gleichzeitigem Patchen die Performance extrem einbricht, wirds langsam unschön
Brauche ja jetzt schon ca. 8h Zeit um die ganzen Windows based VMs zu patchen...
Immerhin bist du damit nicht alleine^^ Bei uns in der Firma hosten wir auf den ESXi Clustern neben virtuellen Servern auch virtuelle XP Clients
Ja sowas gibts bei uns auch... Ich meinte damit eher die Tatsache, das man eigentlich die VMs als "abgeschlossene" Systeme hostet. Sprich die VM und ihre internen Services werden im Netz bereit gestellt.
Ein dediziertes Ausführen einer einzigen Anwendung, gehostet von einer der VMs für einen Client only ist nicht das, was der ESXi macht
Da gibts andere Ansätze, ggf. sogar virtuelle Desktops (da gibts ebenso Produkte von VMware) Oder eben halt Terminalserver mit ggf. sogar Grafikhardwarebeschleunigung, falls nötig.
Hat von euch schon jemand Erfahrung mit nennenswerter Grafikbeschleunigung in VMs? Gibt ja von Nvidia bereits Grakas für sowas aber ich hab was das betrifft noch nichts fertiges gesehen.
Mhh, ich weis, es gibt von VMware die Möglichkeit, virtuelle Desktops bereit zu stellen, aber soweit ich weis, hat das nix mit ESXi und Co. zu tun, sondern ist ne eigene Lösung.
Wie gesagt, ich würde mir bei dem Thema zuerst mal RemoteFX von nem Mircosoft Terminalserver ansehen. Das läuft ggf. sogar in ner VM, wenn man ne Grafikkarte findet, welche sich via Passthrough in die VM schieben lässt. Ich könnte mir vorstellen, mit ner NVidia Tesla bzw. supported Quadro drüfte das ggf. gehen.
Ja ist aber auch mehr I/O lastiges dabei als bei uns.
Da kann die Schere schon sehr weit auseinander gehen.
Ich bin jetzt gespannt wie weit ich mit meinem TX150 S7 mit 16 GB RAM daheim komm, überleg noch ob ich gleich auf 32 GB aufrüste solang DDR3 noch so günstig ist.
Außerdem schau ich mich noch nach schnellen Platten um, aktuell stecken 2x 500 GB 7.2k SATA Platten drin die im RAID 1 laufen.
SAS Platten sind ziemlich teuer, ich bin noch am überlegen ob die 1 TB Veloci nicht ne gute Alternative wäre.
Die Velos sind schon nicht schlecht. Ggf. könnte man aber auch gleich auf SSDs gehen, je nachdem, wie viel Platz benötigt wird. Für Fileserverfunktionalitäten sicher quatsch, aber für DB Dienste und Co. oder die OS vmdk Files durchaus interessant. So ne Gruppe (Raid 1) aus zwei 256GB 830er Serie Samsungs ist halbwegs erschwinglich, und bietet richtig dampf. Ggf. könnte man gleich drei holen und hätte ~500GB nutzbar im Raid 5. Wenn der Controller das packt zumindest
Und mit SSDs dürfte der Raid 5 Betrieb als OS "Ablagefach" durchaus abgehen wie Hexe.
Thema ESXi@Home. Leider hab ich die Z400 doch nicht bekommen. Mit nem i7 870, 16GB RAM und 4x500GB Disks + Hardwareraidcontroller (dürfte irgend so ein HP P4xx sein) wäre das gar nciht verkehrt für 99€, was das Ding hätte kosten sollen.
Neja muss ich mich also doch weiter umsehen, oder meine Kiste weiter nutzen... Aber die bröckelt aus allen Nähten