Einzelner Server mit vielen Diensten vs. Hypervisor mit virtuellen Maschinen

BeLi

Profi
Thread Starter
Mitglied seit
10.12.2016
Beiträge
15
Hallo Zusammen,

auch mit der Unterstützung hier aus dem Forum ist mein Heimserver inzwischen seit gut einem Jahr am laufen und versieht seinen Dienst sehr gut und unauffällig:
  • Ubuntu 16.04 als einzigstes OS
  • Merere ZFS-Pools mit internem Backup und halbautomatischem externen Backup
  • Fileserver für alles und jeden in der Familie (4 Benutzer)
  • Webserver mit Nextcloud als sukzessiven Ersatz für Google-Dienste und Dropbox
  • VNC Umgebung um im Ausland weiter einen vollen Internetzugang zu haben
Was mir so langsam Sorgen bereitet, ist die wachsende Anzahl der Dienste, die dafür notwendig sind. Zudem ist die Erweiterung und das ausprobieren von zusätzlichen Funktionen nicht mehr so einfach. Ich will mein laufendes System nicht abschießen und mir fehlt die Möglichkeit Sachen einfach einmal auszuprobieren.

Von den Threads hier im Forum habe ich eher den Eindruck, dass die meisten eher einen Hypervisor (proxmox / esxi) mit darauf laufenden, spezialisierteren Distributionen am laufen haben. Oder täuscht hier der Eindruck?

Mit der Einrichtung und Wartung von Linux (Ubuntu) komme ich schon gut zurecht. Eine spezielle Weboberfläche wie bei FreeNAS ist natürlich schön, aber insbesondere bei den wenigen Benutzern nicht unbedingt notwendig.

Beispielsweise sind ein Hypervisor + FreeNAS + LAMP + X ja dann auch schon mindestens drei Distributionen, in die man sich einarbeiten muss und die aktuell gehalten werden müssen.

Wie geht ihr hier vor?

Code:
Supermicro X11SSM-F
Intel G4400
16 GB ECC RAM
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Einarbeitung in ESXi ist m.E. echt schnell erledigt und sollte niemanden abhalten, sein Glück zumindest einmal damit zu versuchen. (Proxmox, Xen und sonstige Linux-Hypervisor kenne ich nicht, Hyper-V ist deutlich aufwändiger zum Einstieg als ESXi).

Du kannst theoretisch auch deine jetzige Baremetal Ubuntu-Installation in eine VM umziehen. Dann musst du eigentlich gar nüschts dazu lernen und kannst parallel zur produktiv-VM nach Lust und Laune Test-VMs aufsetzen und wieder wegwerfen.

Ich hab damals - zugegeben über Umwege von hinten durchs Knie - zum Beispiel meinen Ubuntu-Server (ähnlich wie Deinen) zunächst vom Blech in eine 1:1 HyperV-VM und von dort dann weiter in eine ESXi-VM migriert. Im Prinzip musste ich dazu lediglich ein Abbild der ursprünglichen OS-Installationsplatte ziehen (hab wg. Hyper-V disk2vhd benutzt) und für den zweiten Schritt dann die VHD-Datei in eine VMDK für ESXi konvertieren... wäre aber nicht meine Empfehlung für die ersten Geh-Versuche. ;)
 
Der Profi macht es so: Pro Dienst ein Server
Früher waren das "Physikalische" Bleche (Wer Sonntag Ran-NFL geschaut hat versteht den), heute sind das eher VMs.
So kann kein wildgewordner Dienst andere Dienste umschmeissen.
 
Du kannst deinen Ubuntu Server auch so lassen und einfach einzelne der bestehenden Dienste auf LXC Container umziehen (Nextcloud, Fileserver,..). Später kannst du dann immer noch einen Hypervisor wie Proxmox verwenden.
 
Danke für die Hinweise. Dann gehe ich einmal die Planung an, was ich noch für den Umbau auf Virtualisierung brauche. Bei meinem ersten Versuch war ich schon bei Proxmox + Ubuntu gelandet gewesen.

Gescheitert ist das damals an dem Problem, dass ich die einzelnen Festplatten vom Controller des Mainboards nicht komplett an das OS durchreichen konnte. Inzwischen hab ich gelernt, dass ich dafür eine eigene Controllerkarte brauche, die ich dann komplett weitergebe (Auswahl an Controllerkarten).
 
du kannst LXC und KVM direkt auf deinem bestehenden Ubuntu Host betreiben, auch ohne Proxmox => LXC › Wiki › ubuntuusers.de

Ich wüsste auch keinen Grund wozu du einen Controller durchreichen müsstest, leg deine Container/VM´s einfach auf dem bestehenden ZFS ab. Solltest du später mal wechseln wollen, kannst du deine ZFS Pools einfach in Proxmox übernehmen.
 
Da hat VirtuGuy natürlich auch wieder recht. Sollte man sich einmal genauer ansehen ...

- - - Updated - - -

Da hat VirtuGuy natürlich auch wieder recht. Sollte man sich einmal genauer ansehen ...
 
Heute VMs morgen Docker Container.
Eine VM pro Service stimmt nicht ganz, kommt der Sache aber näher.

Sicher ist eine Sinnvolle Aufteilung wichtig, gerade nach dem Faktor was wie Kritisch ist.

Mittlerweile sollte ein Container System aber auch zu einer modernen Umgebung gehören
 
Ich bin jedenfalls noch zu blöd für Container... :d
 
Habe mittlerweile so wenig VMs im Einsatz wie seit Jahre nicht mehr. Lieber wenige und leichtgewichtige VMs (RancherOS, CoreOs, Photon et al) und dafür Services in Docker Container verpackt. So lässt sich einfacher, schneller, leichtgewichtiger und flexibler orchestrieren.
 
Alles geht mal kaputt.

Wenn das passiert sollten die kritischen Dienste und das sind für mich die Virtualisierungsumgebung und Storage in kürzester Zeit wieder aufgesetzt werden können und zwar ohne Backup und Disaster Recovery Plan.

Je mehr Abhängigkeiten desto mehr Probleme.Ein ESXi z.B. ist in 5 Minuten installiert. Vorhandene VMs registrieren ist dann ein Mausklick auch ohne vorheriges Backup. Für ein minimalistisches ZFS Storage wie OmniOS/ Solaris egal ob Barebone oder virtualisiert gilt gleiches. Installieren, Pool importieren und SMB/NFS/iSCSI läuft. Mit AD den Server der Domäne hinzufügen oder bei Workgroups User wieder anlegen und Rechte kontrollieren - das wars. Backup völlig unnötig, Komplexität minimal.

Alle anderen Dienste lassen sich dann gut in einer eigenen VM Umgebung zusammenfassen, egal ob als einfache VM, als LX Zone oder per Docker.

Ein OS und darauf alles installieren wäre für mich der Horror. Eine falsche Aktion und nichts geht mehr. Wiederherstellen des Staus Quo - nein danke.
 
Seit gut 2 Jahren ist bei mir Proxmox das Maß der Dinge gewesen. Grundsystem und darin mehrere Sachen: Container und KVM mit Durchreichung. Vorteil KVM ist eben, dass recht schnell auch ein Separieren auf eigene Hardware möglich ist. Ansonsten kommt es eben auf die Redundanz an. Mein Arbeitsserver liegt z.B. als Cluster vor- zzgl. zu den Sicherungen. Aber das ist eben Arbeit und nur 3-5 Leute, die mal gleichzeitig Daten brauchen. Daheim ist halt mal ein WE Ruhe, wenn was ausfällt, aber das ist halt immer eine Kosten/Nutzen-Rechnung.

Edit: Ach ja: Aktualisierungen sind immer so eine Sache: Server-OS sind jetzt nicht sooo Update-Affin wie Windows 10 :fresse:. Bei meinem Server werden einmal die Woche Updates manuell eingespielt. Solange man die Kassenabrechnung macht, läuft das gemütlich vor sich hin...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh