Sinn einer Storage-VM

eldiabolo18

Experte
Thread Starter
Mitglied seit
14.11.2015
Beiträge
140
Moin zusammen,

Wenn Leute Homeserver bauen, werden HBAs und Disks idR (also was ich so hier im Forum lese...) an eine VM weitergereicht und dort extra als Storageserver aufegesetzt?
Warum?
Mein Ubuntu-Server (der auch sonst KVM macht) hat Storage auf Baremetal. Ich spare mir das rumfrickeln irgendwelche PCI-devices durch zureichen, ich habe eine VM weniger. Das Argument, dass VMs migriert werden koennen/ portable sind, faellt durch dass passthrough auch weg, also was ist der Sinn dahinter?
Warum nicht z.B. ESXi das Storage verwalten lassen?
Auch beim Zugriff: ob ich jetzt von einer Application-VM via NFS/SMB auf die Daten der Storage-VM zugreifen oder eben von der application-VM via NFS/SMB direkt auf den Host, macht absolut keinen Unterschied (eher ist der Zugriff direkt auf den Host schneller...)

Gruss!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ESXi kann im Gegensatz zu z.B. Proxmox seinen Storage nicht selber verwalten.
Der Sinn hinter einer Storage-VM ist, ZFS-Storage an ESXi per NFS zurückzugeben, sodass alle weiteren VMs auf ZFS-Storage liegen und von dessen Vorteilen profitieren.
 
Die ganze Sache mit dem Sinn oder Unsinn bzw Nutzen hat zwei Ebenen.
Zum einen der Sinn von Virtualisierung im allg.. Eig braucht man (so gut wie) nie, vor allem im Home Bereich, eine Virtualisierung. Man könnte das auch monolithischen machen. Aber Virtualisierung bringt halt doch enorme Vorteil, Stabilität, Trennung, Flexibilität mögl. Sicherheit.

Zum anderen haben halt mache Hypervisors Einschränkungen was das Storage angeht. Wie schon geschrieben sind die Möglichkeiten von ESXi recht beschränkt. Proxmox bietet von Haus aus keine GUI für Shares und nur eingeschränkt fürs Storage. Storage OS/Distris sind auf der Virtualisierung meist eher rudimentär unterwegs.
 
ESX kann seinen Storage schon selber verwalten, aber er kann damit nichts anderes machen als eine Disk zu formatieren und darauf ein Volume anzulegen um dann im Anschluss darauf eine VM abzulegen.

Ein SoftwareRAID oder ZFS umzusetzen ist nicht Aufgabe von ESX und daher kann er das auch nicht. Um also seine Storage redundant aufzubauen, wird das extern ausgelagert. Im Regelfall nimmt man dazu irgendnen NAS oder sonstiges, die machen dann "RAID" und Replikation und weiß der Geier. ESX greift darauf dann mit NFS oder iSCSI darauf zu.
Da sich der Homeuser das nicht im professionellen Umfeld hinbaut, müsste er zusätzlich ne Bastelkiste bauen. Er hat also 2 Rechner ständig am Laufen. (dedizierte NAS jetzt mal außen vor)

Die logische Konsequenz ist also, dass man diesen externen Rechner einfach in eine VM überführt. Da kannste dann SoftwareRAID oder ZFS oder sonst was machen. Um aber der VM auch ungestörten Zugriff auf die Disks zu geben, reicht man eben den Controller oder im Zweifel die Disks direkt durch. Somit sieht es für die VM so aus, als wäre sie ein echter Rechner und ESX fummelt da im Storagestack nicht rum. (man könnte ja auch einfach 100 .vmdk erstellen...)
 
Die Ausgangslage ist oft, dass man die Spezialisten ESXi für Virtualisierung und ein gemeinsames NAS/SAN für Storage einsetzt das viel umfassendere Storageoptionen anbietet als ESXi. Wenn ESXi genügend Resourcen hat, kann man den Storagepart virtualisieren. Da ist dann HBA pass-through angesagt wenn man eine Storageperformance wie auf Barebone möchte. Ich selbst nutze das sogar so, dass jede meiner ESXi Server eine eigene Storage VM für seine VMs via NFS nutzt. Damit hat jeder ESXi seine VMs lokal kann aber auf den Storage jedes anderen zugreifen.

Wenn man nur Storage ohne VMs braucht, gibts natürlich keinen Grund das zu virtualisieren. Man kann auch auf einem Storageserver z.B. unter OmniOS mit LX Zonen/Bhyve oder Free-BSD mit Jails/Bhyve virtualisieren. Da ist aber meist die Virtualisierung viel langsamer und unterstützt weniger Gastsysteme. Am problematischsten werden die Abhängigkeiten. Ändert man irgendwo etwas und das System wird instabil muss man alles neu machen. Da verhält sich eine getrennte VM/Storagelandschaft viel gutmütiger.
 
Die Antwort auf die Frage hat m.E. drei Aspekte: zum ersten, nämlich der Storage-Seite ist hier ja schon viel ausgeführt.

Der zweite Aspekt ist, dass heutige Hardware selbst in schmaler Ausführung regelmäßig deutlich mehr Kapazitäten/Leistung mitbringt, als man für einen reinen Storage-Server benötigt. Diese Leistung kann man dann natürlich anderweitig nutzen.

Und hier kommt dann der dritte Aspekt zum tragen: nimm man ein „fettes“ OS für alle gewünschten Services quasi „aus einer Hand“ wie FreeNAS o.ä. oder lieber „best in class“... und viele hätten dann gerne letzteres oder zumindest hohe Flexibilität, womit man dann sehr schnell bei Virtualisierung landet - sei es bei Containern oder eben einem echten Hypervisor. Und dann ist der Weg eben konsequent, auch den Storage-Bereich darüber mit zu erschlagen... ;)
 
Was noch hinzukommt ist, dass der Windows Storage Server nur zwei VMs in der Hyper-V Rolle ausführen darf.
 
Okay, schon mal vielen Dank euch allen!

Ich lese jedenfalls nichts, was man nicht auch mit einem normal *nix Server und manueller Virtualisierung/ Storage auf Baremetal machen koennte wenn man auf eine schoene bunte GUI verzichten kann :)

Thx, haut rein!
 
Wenn du Bock auf manuelle Fehlerbehebung hast, kann man so machen.
Solange du das nicht automatisierst mit CM Tools sehe ich da echt keinen großen Vorteil.
Ein ESXi hab ich in 5 min aufgesetzt und meine Storage-VM samt napp-it wiederhergerstellt, du deinen Server samt integrierten Storage wahrscheinlich nicht...(außer mit CM/Packer/...)
 
Ich lese jedenfalls nichts, was man nicht auch mit einem normal *nix Server und manueller Virtualisierung/ Storage auf Baremetal machen koennte wenn man auf eine schoene bunte GUI verzichten kann :)
Klar kann man das, jeder wie er es mag und manche mögen es so und andere anders. Jeder Ansatz hat Vor- und Nachteile und jeder sollte den wählen der ihm persönlich am Besten gefällt.
 
Okay, schon mal vielen Dank euch allen!

Ich lese jedenfalls nichts, was man nicht auch mit einem normal *nix Server und manueller Virtualisierung/ Storage auf Baremetal machen koennte wenn man auf eine schoene bunte GUI verzichten kann :)

Thx, haut rein!
Nutz doch einfach Proxmox. Da hast du alles dabei.
 
Warum nicht z.B. ESXi das Storage verwalten lassen?
ESXi ist so gebaut, dass es möglichst gut virtualisieren kann. Und das sehr konsequent. Virtualisieren heißt, Resourcen möglichst gerecht zu verteilen. Das gelingt aber nur, wenn man die Resourcen unter Kontrolle hat. Diese volle Kontrolle hat man aber in dem Moment nicht mehr, wenn man Speicheranbieter spielt, also z.B. ein SMB- oder NFS-Server betreibt. Denn dann bestimmt eine äußere Last, welche Diskresourcen noch für die VMs übrig bleiben. ESXi ist ganz bewußt so designed, dass es gewissermaßen minderbemittelt ist, wenn es um das Anbieten von Diensten geht. Praktisch jedes andere System kann das besser, aber dafür eben auch nicht ganz so perfekt virtualisieren wie ESX.

Wenn Du einen Hypervisor suchst, der eine möglichst dünne, möglichst hochwertige Virtualisierungsschicht mitbringt, bist du bei ESX goldrichtig. Wenn Du einen Hypervisor suchst, der auch noch Funktion X, Y und Z beherrscht, dann nimm irgedwas anderes, aber nicht ESX. Bei ESX ist die Idee, dass Du Funktion X, Y und Z in einer VM oder mehreren VMs unterbringst und sie damit von der Hardware losgelöst hast.
Ich lese jedenfalls nichts, was man nicht auch mit einem normal *nix Server und manueller Virtualisierung/ Storage auf Baremetal machen koennte wenn man auf eine schoene bunte GUI verzichten kann :)
Für den Heimbereich kann man das so sehen. Da hat man ja meistens auch nur einen Server. Sobald die Wünsche etwas größer werden, kippt das halt sehr schnell zugunsten von vSphere ESX. Wird aber leider auch sehr schnell sehr teuer.
 
ESX bringt vsan durchaus vergleichbare Storagelösungen. Eine Storage VM ist am Ende eine Notlösung, es hat schon Gründe warum auch VMware die eigenen Storage VM´s nach wenigen Jahren wieder eingestampft hat.
 
Das sehe ich so nicht.

Vsan ist eine teure Storagelösung ausschließlich zum Speichern vom VMs mit dem Schwerpunkt HA/Verfügbarkeit. Dafür ist es sehr gut geeignet.

Eine übliche ZFS Storage VM ist ohne Support auch kostenloses Universalstorage für FC/iSCSI, NFS, SMB und S3 Cloudstorage den man auch für VMs per iSCSI oder besser NFS nutzen kann mit umfassenden und viel einfacheren Storage und Backupfeatures wie unlimited Snaps, Echtzeit-Dedup, Caches oder Verschlüssellung, Verwaltung von Zugriffsrechten etc. HA ist da aber erstmal optional.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh