Setup Homeserver, Aufteilung in VMs

killer1337

Neuling
Thread Starter
Mitglied seit
22.07.2011
Beiträge
18
Hallo zusammen,
ich habe momentan eine Synology DS 212j und mehrere Raspberrys im Netzwerk, die allerhand Dienste zur Verfügung stellen. Darunter:
- Fileserver (Synology)
- Mailserver (Synology, Sammeln über getmail von verschiedenen Providern, roundcube als Frontend)
- Printer server (Synology)
- VPN server (Synology)
- owncloud (raspberry)
- firefox Sync server (raspberry)
- wallabag (raspberry, selbst gehosteter Link Sammler á la Pocket)
- FHEM (raspberry, Home automation server)
- XBMC (raspberry)

Da die kleinen Maschinen aber mittlerweile ziemlich überlastet sind möchte ich das alles gerne auf einem potenteren Server zusammenfassen. Hierzu habe ich den n54l von HP mit 4GB Ram ins Auge gefasst.

Allerdings bin ich unschlüssig, wie ich die ganzen Dienste am schlauesten auf dem neuen Server unterbringe. Einstalliere ich einfach Debian und ziehe dort alles auf oder unterteile ich das in Virtuelle Maschinen? Wie würde eine solche Aufteilung aussehen, und welches VM System nimmt man da am besten?

Zusätzlich denke ich, dass in Zukunft noch weitere Sachen dazukommen werden, die dann ebenso schnell wieder runterfliegen können. Daher wäre ein variabler Aufbau sehr angenehm.

Viele Grüße
Killer1337
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Alles auf ein System ist meistens am einfachsten zu verwalten. Du kannst natürlich einzelne kritische Sachen auf eine VM ziehen. Zum Beispiel Dienste die von außen zu erreichen sind.
 
Also beispielsweise Mailserver und Owncloud in meinem Fall auf zwei getrennte VMs?
Zieht man denn dann alles in Virutellen Maschinen (mit soetwas wie ESX darunter) auf?
Oder installiert man erstmal beispielsweise Debian mit allen gewünschten Diensten und erstellt dann unter Debian die virtuellen Maschinen für Mailserver und Owncloud?
Wo liegen jeweils die Unterschiede? Hat man Performance Einbußen durch ESX?
Für ESX spricht aus meiner Sicht, dass alles unabhängig voneinander läuft und ich nicht alles neu aufsetzen muss wenn ich etwas zerschieße.
 
Also für mich ist ESX ziemlich überflüssig. Ich habe OmniOS als Fileserver und VM Host. Darauf laufen dann ein paar VM´s die nur für externe Dienste sind. Ich habe aber auch nicht soviele Aufgaben.

VirtualBox kommt bei mir zum Einsatz. Wird verwaltet über eine PHP Website.
 
Ich hab früher auch Geschichten die ich unbedingt autark haben wollte unter Debian virtualisiert.
Mittlweile rennt aber auch bei mir esxi, es hat in meinem Augen erhebliche Vorteile, sofern man geeignete Hardware verwendet.
Den Wichtigsten hast du schon erwähnt, ein System fällt aus und muss resettet werden, aber der Rest rennt weiter...
Dann kann man von den einzelnen Systemen Snapshots ziehen und auch hier wieder nur eine Instanz zurücksetzen.

Wo liegen jeweils die Unterschiede? Hat man Performance Einbußen durch ESX?

Naja der erste Unterschied ist wohl, dass esxi mit dem vsphere Client wesentlich einfacher zu verwalten ist als eine klassische Virtualisierung auf Debian.
Bei der Performance konnte ich keine Unterschiede feststellen, vermute aber mal, dass esxi eher weniger Ressourcen frisst als eine Debian Installation mit irgendeiner XEN umgebung.

Bei dem geringen Ressourcenbedarf einer Debian Minimal habe ich mir mittlerweile quasi für jeden Quark eine eigene VM angelegt.
Web und Mailserver, Debian mit Samba als Fileserver, VPN läuft mittlerweile alles über Sophos (auch in einer VM), Asterisk (Telefonanlage), Teamspeak auf Debian(wg Sicherheit), usw...
Nachdem alles läuft, Snapshot ziehen und du hast 100% Ruhe. Wenn sich Änderungen geben, wieder einen Snapshot...
Die einzige Lücke die ich sehe ist XMBC. Was hast du denn damit vor?

Bis gestern hätte ich dir eher zum G8 Server geraten, durch die Cashback Aktion war der für unter 290 Euro zu haben.
Dafür gleich mit 4 GB Ram und einer Terabyte HDD.

Jenachdem was da alles laufen soll (gerade bei xmbc), ist der N54l dir evtl. zu lahm!?
 
Zuletzt bearbeitet:
Alternativ können für einzelne Dienste auch Container wie openvz oder lxc unter Debian/Linux verwendet werden.
 
Nur wenn er vor hat auf dem Hostsystem auch Dienste laufen zu lassen gilt auch hier: Fällt das Hostsystem aus, sind alle VM's erstmal platt.
esxi als Hostsystem kann nicht ausfallen... (oder sagen wir mal es passiert so gut wie nie)
 
Zuletzt bearbeitet:
Bis gestern hätte ich dir eher zum G8 Server geraten, durch die Cashback Aktion war der für unter 290 Euro zu haben.
Dafür gleich mit 4 GB Ram und einer Terabyte HDD.
Ich habe mir gestern den n54l bestellt. Für 142. Das entspricht eher meinem Budget und verbraucht auch noch weniger Strom wenn ich richtig gelesen habe. Die Platten übernehme ich erstmal aus der Synology. Ich denke dass ich dann XBMC weiterhin auf dem raspberry laufen lassen werde. Das funktioniert mit xbian out of the box ausreichend zuverlässig und frisst kaum Strom. Außerdem kann ich den hp dann in die hinterletzte Ecke verbannen wo er so laut sein kann wie er will.

Nach deinen Ausführungen hört sich ESXi für mich immer interessanter an. Gerade weil ich gerne mal was ausprobiere und gleichzeitig einzelne Dienste gerne stabil weiterlaufen lassen möchte. Ich werde mich dann wohl mal tiefergehend über ESXi belesen.
Ein paar Fragen fallen mir allerdings direkt ein, die ich gerne loswerden möchte (ich finde mich aber auch mit "RTFM!" als Antwort ab ;) ) :
- kann ich den Speicherplatz (zumindest in Teilen) VM-übergreifend nutzen? Beispielsweise sollen Daten über owncloud (getrennte VM) sowie NAS (z.B. FreeNAS in eigener VM) gleichzeitig genutzt werden können. Oder binde ich für sowas am besten den vom NAS zur verfügung gestellten Speicher als externen Speicher in die Owncloud ein?
- Lassen sich beliebig neue VMs für neue Projekte anlegen und wieder entfernen?
- Lassen sich später einfach weitere Platten hinzufügen und für bestehende VMs nutzen?

Danke für eure hilfreichen Kommentare!
Viele Grüße
 
- kann ich den Speicherplatz (zumindest in Teilen) VM-übergreifend nutzen? Beispielsweise sollen Daten über owncloud (getrennte VM) sowie NAS (z.B. FreeNAS in eigener VM) gleichzeitig genutzt werden können. Oder binde ich für sowas am besten den vom NAS zur verfügung gestellten Speicher als externen Speicher in die Owncloud ein?
Das ginge auch, wenn du Container auf den Virtuellen Platten anlegst.
Das ist allerdings aus Performancegründen nicht unbedingt zu empfehlen.
Ich würde die HDD's für das Filesystem via Raw Device Mapping einbinden: Klick
Ich habs noch nicht probiert, gehe aber davon aus, dass sie sich dann nur einer VM zuordnen lassen. -> Du bindest den Speicher in den anderen VM's als Netzwerkspeicher ein.

Bisher habe ich zwischen den VM's aber auch noch keine so großen Datenmengen bewegt, dass ich mir über die Performance großartig Gedanken gemacht hätte.
Mag sein, dass es bessere Lösungen gibt :d

Lassen sich beliebig neue VMs für neue Projekte anlegen und wieder entfernen?
Die einzige Grenze ist die Performance...

- Lassen sich später einfach weitere Platten hinzufügen und für bestehende VMs nutzen?
Ja, aber wenn du HotSwap nutzen willst, brauchst du ein ModBios.
Je nach OS des Fileservers ist evtl. ein Neustart der VM fällig.
 
Zuletzt bearbeitet:
Ich habe gerade gelesen, dass der n54l unter ESXi keine Geräte an VMs durchreichen kann.
Da ich für FHEM einen Homematic USB-Stick benötige fällt das also schonmal flach, korrekt?
 
Mit der Passenden ESXi Version kannst du den angeschlossenen USB Stick in einer VM nutzen.
 
Ich habe gerade gelesen, dass der n54l unter ESXi keine Geräte an VMs durchreichen kann.
Da ich für FHEM einen Homematic USB-Stick benötige fällt das also schonmal flach, korrekt?

Das Betrifft Steckkarten und andere Hardware (Für IOMMU brauchts AMD-Vi oder VT-d)

Mit USB Devices funktionierts aber ohne, habe auf dem N54l mehrfach Geräte an VM's durchgereicht.
 
Zuletzt bearbeitet:
Danke für eure Antworten!
Ich habe mich jetzt mal ein bisschen belesen und eine ungefähre Ahnung wie ich dieses Projekt angehen möchte:

Als Grundlage zur Virutalisierung erscheint mir nach ein bisschen Recherche Proxmox für mein Vorhaben geeigneter als ESXi (bitte korrigieren wenn falsch):
- performantere Virtualisierung "einfacher" Services mittels openVZ
- Trotzdem die Möglichkeit einer vollständigen Virtualisierung von bspw. Windows via KVM
- Möglichkeit das ganze vollverschlüsselt aufzusetzen mit dem Umweg über Debian und nachträglicher Installation des Proxmox VE
- Mehr Möglichkeiten zum Durchreichen von Geräten auch ohne IOMMU (stimmt das?)
- Einfache Bedienung über Weboberfläche

Noch nicht ganz schlüssig bin ich mir über die Speicheraufteilung. Momentan habe ich zur Verfügung:
- 1x 250GB
- 2x 3TB
- USB-Sticks

Ich würde also erstmal Proxmox und die VMs auf der 250GB Platte unterbringen. Diese kann dann ich dann später durch eine SSD ersetzen wenn ich wieder Geld ausgeben möchte.
Wenn die Platte ausfällt ist das blöd, aber ich würde regelmäßige Snapshots der VMs machen und könnte das dann recht schnell wieder auf einer neuen Platte aufziehen. Ein Tag Downtime ist zu Hause für mich nicht so dramatisch.

Eine der VMs soll dann die Herrschaft über die zwei 3TB Platten bekommen und an die anderen VMs und die Windows Rechner des Haushalts per SMB und NFS freigeben. Hierbei bin ich mir aber noch nicht im klaren darüber, wie ich das am besten aufziehe (Auteilung, Raid Ja/Nein, weiterreichen per RDM oder als LVM ...). Was ist da das schlaueste?
Wichtig ist mir, dass die Daten auf den Platten verschlüsselt liegen, was ja auf vielerlei Weise zu erreichen ist.
Dass diese Verschlüsselung Performance kostet ist mir klar, aber wie hole ich trotzdem das Maximum raus?

Nehme ich OMV/FreeNAS/NAS4Free mit Software Raid oder ist der Einsatz von ZFS mit napp-it zu Hause wirklich von so großem Vorteil? ZFS soll ja sehr resourcenhungrig sein...
 
Also erstmal vorweg, wenn du nicht unbedingt nur Originalram nutzen willst, kauf dir lieber die Ausführung mit 2 GB und der HDD.
Dann kannste die HDD verhökern und kaufst dir ein 8 GB Kit Ram.
In der Anschaffung ist die Kiste dafür von vornherein dann schon 30 Euro günstiger.

Zur Virtualisierung:

performantere Virtualisierung "einfacher" Services mittels openVZ
OpenVZ ist für mich keine Virtualisierung :d

- Trotzdem die Möglichkeit einer vollständigen Virtualisierung von bspw. Windows via KVM
Ja kann Proxmox

Möglichkeit das ganze vollverschlüsselt aufzusetzen mit dem Umweg über Debian und nachträglicher Installation des Proxmox VE
Sehe ich keinen Grund zu. Die Datenplatten in der VM Verschlüsseln und gut.

Mehr Möglichkeiten zum Durchreichen von Geräten auch ohne IOMMU (stimmt das?)
Kann ich nix zu sagen...

- Einfache Bedienung über Weboberfläche

Dafür gibts bei ESXI den vsphere client

Ich würde also erstmal Proxmox und die VMs auf der 250GB Platte unterbringen. Diese kann dann ich dann später durch eine SSD ersetzen wenn ich wieder Geld ausgeben möchte.
Sicher keine schlechte Idee

Hierbei bin ich mir aber noch nicht im klaren darüber, wie ich das am besten aufziehe (Auteilung, Raid Ja/Nein, weiterreichen per RDM oder als LVM ...). Was ist da das schlaueste?

Bei der Performance des N54l, nimm eine Debian VM, Truecrypt drauf, Platten auf jeden Fall per RDM weiterleiten (massive Performancesteigerung) und dann evtl mit mdadm ein Software Raid aufsetzen.
Freigaben dann mit Samba und nfs-common.

Dass diese Verschlüsselung Performance kostet ist mir klar, aber wie hole ich trotzdem das Maximum raus?
Siehe oben.

Wie gesagt von den Fertig-ZFS-Lösungen würde ich beim N54l die Finger lassen, sofern das kein reiner Fileserver ohne Virtualisierung wird.
Alleine die FreeNas Vm braucht locker ihre 4 GB Ram um einigermaßen auf Tempo zu kommen.
Insofern sind 8 GB Ram schon absolutes Minimum.
Wenn ich dann lese, dass du da eine Win VM drauf packen willst sind 16 GB angesagt.

Resumee: Der N54l ist nix für dich.
Nimm den G8 Microserver, ich hab meinen N54l auch nach 3 Monaten wieder abgegeben.
So schön das in dem Video von Sysops TV auch ausschaut, die Kiste ist mit FreeNas und Sophos alleine schon komplett überfordert.
Zeitgleich downloaden mit 50 mbit und abspeichern über FreeNas war unmöglich.
Der Download ist meist so bis auf 10mbit eingebrochen.
Wenn da noch eine AES Verschlüsselung und eine Win VM ins Spiel kommt ist komplett Ende.
 
Zuletzt bearbeitet:
Zur Virtualisierung:

OpenVZ ist für mich keine Virtualisierung :d

Openvz ist eine Art der Virtualisierung, auf Betriebssystem-Level.


Sehe ich keinen Grund zu. Die Datenplatten in der VM Verschlüsseln und gut.

Einfacher ist es auf jedenfall den Datenspeicher der VMs zu verschlüsseln, als jede VM einzeln zu verschlüsseln. Nach einem Reboot muss nur ein Volume entschlüsselt werden, anstatt jede VM.


Dafür gibts bei ESXI den vsphere client

Der aber auch nur bis HW Version 9 funktioniert. Zukünftig soll der vSphere-Client komplett wegfallen.

Bei der Performance des N54l, nimm eine Debian VM, Truecrypt drauf, Platten auf jeden Fall per RDM weiterleiten (massive Performancesteigerung) und dann evtl mit mdadm ein Software Raid aufsetzen.
Freigaben dann mit Samba und nfs-common.

Wenn Debian/Proxmox eingesetzt werden sollte, können die Dateidienste auch direkt auf dem Host-System laufen.
 
Danke für eure ehrlichen, wenn auch etwas ernüchternden Antworten :)

Da ich den n54l nun schon günstig geschossen habe (4GB ohne optisches Laufwerk) und mir ein G8 ehrlich gesagt erstmal zu teuer ist, werde ich es zunächst damit probieren und sehen wie weit ich komme. Für eine Windows VM habe ich eh keinen Bedarf. Der Kommentar bezog sich nur darauf, dass Proxmox das prinzipiell per KVM kann.

Ich habe gestern Abend mal angefangen ein verschlüsseltes Debian aufzusetzen (dauert laaaaange). Heute Abend mache ich dann weiter mit Proxmox, den VMs und dem durchreichen der Festplatten und schau mir mal die Performance an.

@Tr4c3rt: Aus welchem Grund würdest du Truecrypt den Linux eigenen Verschlüsselungsmöglichkeiten vorziehen?

Dann würde ich OMV als NAS VM nutzen und hierin dann aus den durchgereichten Platten ein Software Raid und darin ein verschlüsseltes Volume erstellen. Oder erstelle ich das Software Raid besser schon in dem Grund Debian und reiche nur das darauf liegende Volume an die VM durch?

Nehme ich für die OMV VM besser OpenVZ oder KVM?

Nochmal danke für all den Input!
 
Ich habe gestern Abend mal angefangen ein verschlüsseltes Debian aufzusetzen (dauert laaaaange)

Was da lange dauert, ist der Löschvorgang. Bei einer neuen oder bereits vorher verschlüsselten HDD hättest du den Vorgang auch abbrechen können :d

Aus welchem Grund würdest du Truecrypt den Linux eigenen Verschlüsselungsmöglichkeiten vorziehen?

Ich halt von der klassischen LVM mit dm-crypt nix.
Kommt natürlich aber drauf an, vor wem du deine Daten verstecken willst...
Nachteil von Treucrypt/Debian, es wird keine Vollverschlüsselung unterstützt, sondern nur Containerverschlüsselung..

Dann würde ich OMV als NAS VM nutzen und hierin dann aus den durchgereichten Platten ein Software Raid und darin ein verschlüsseltes Volume erstellen. Oder erstelle ich das Software Raid besser schon in dem Grund Debian und reiche nur das darauf liegende Volume an die VM durch?
Platten per RDM weiterreichen und in OMV erst zusammenführen.
Ansonsten funktioniert RDM nicht. Und darauf willst du nicht verichten!

Nehme ich für die OMV VM besser OpenVZ oder KVM?

KVM wegen RDM.

Der aber auch nur bis HW Version 9 funktioniert. Zukünftig soll der vSphere-Client komplett wegfallen.
Und dann auch Konfiguration über Web? Das ging doch bisher nur wenn man das vcenter hatte?!! Und dafür gab es keine kostenfreie Lizenz.
Hmm bin ich wohl nicht auf dem laufenden...
 
Zuletzt bearbeitet:
Unter Linux verwendet kein Mensch Truecrypt, nur Leute die irgendwie noch mit Windows kompatibel sein wollen oder Leute die keine Ahnung haben. Es wird nicht wirklich gepflegt und hat wenig Features.

Platten via RDM/HDD-Passthrough durchzureichen ist nicht empfehlenswert, gefährlich und vor allen Dingen ziemlich inperformant, es gibt zahlreiche Berichte dazu. Das ist keine Lösung für den Produktivbetrieb und auch nicht für den Heimbetrieb mit Daten die einem lieb sind. Wenn Storage-VM, dann mit via PCIE-Passthrough durchgereichten SAS/SATA-Controller und nicht anders.

Und KVM ist auch nicht besser oder schlechter als OpenVZ.
KVM ist eine Voll-Virtualisierung und OpenVZ eine Container-Virtualisierung. Beides zwei völlig verschiedene Ansätze mit unterschiedlichen Stärken und Schwächen. Hat schon seinen Grund warum Proxmox beide Lösungen bereitstellt.
Aber für eine Storage-VM musst du KVM verwenden, das ist schon richtig.

Dann mal grundsätzliche Dinge: Viele Sachen auf einem N54L zu Virtualisieren ist unsinnig da die Performance einfach viel zu gering ist. Man sollte versuchen möglichst alles Bare-Metal laufen zu lassen.
Verschlüsselung auf dem N54L ist ein extremer Performance Killer da die CPU keine AES-Beschleunigung hat und sowieso grundsätzlich nicht von der schnellsten Sorte ist. Machbar ja, aber dann mit ständiger 100% CPU-Last bereits wenn man nur mal kurz ein paar Daten kopieren will und mikrigen Übertragungsraten.
 
Zuletzt bearbeitet:
Hallo, ich wieder. Nochmal danke für eure Antworten.
Ich habe jetzt am Wochenende die Kiste so aufgesetzt wie ich mir das ursprünglich vorgestellt habe und anschließend angefangen Daten über gigabit Netwerk von der Synology auf das n54l zu übertragen. Leider mit unterirdischen Datenraten von kleiner 10 MB/s ... ja ich weiß, ihr habt es gesagt :P

Ich möchte mal kurz beschreiben wie ich das ganze genau aufgezogen habe. Vieleicht entdeckt ihr ja einen groben Schnitzer und es wäre trozt Verschlüsselung mehr drin. Ich brauche nicht unbedingt 100 MB/s.

- von GUI geführte Debian installation mit verschlüsseltem LVM auf 120GB Festplatte (frei nach https://darkstar.gernox.de/2012/10/13/debian-server-verschlusselung/
und Voll-verschlüsseltes-System via SSH freischalten)
- Proxmox nachinstalliert (nach Install Proxmox VE on Debian Wheezy - Proxmox VE)
- KVM VM erstellt mit folgenden Daten:
omvVM.png
- OpenMediaVault installiert
- 2 TB Platte durchgereicht (habe ich noch in meinem Desktoprechner gefunden) durch eintragen von "virtio1: /dev/sdb" in die config der VM
- Verschlüsselte Partition mit luksformat erstellt (nach Festplattenverschlüsselung mit Debian GNU/Linux)
- über OMV Webinterface Partition eingebunden und shares erstellt
- Über SSH in die OMV VM: samba Freigaben von Synology per "mount -t cifs 192.168.xxx.22:/music /root/syno_music -o user=admin,password=xxx" eingebunden
- Kopiervorgang gestartet per "cp -a /root/syno_music /media/0c82bd47-1224-4d70-b98c-fccace45bc31/synobackup/music" (letzteres wurde beim mounten über webinterface angelegt, musste ich auch erstmal finden)

wie gesagt komme ich so auf Übertragungsraten von um die 10 MB/s und niedriger. Über Nacht wurden so nur ca. 50GB übertragen. Die CPU Auslastung in der VM ist dabei nur ca. 20%, die auf dem "Rumpf-Debian" jedoch bei über 80. Irgendwie habe ich daher das Gefühl, dass ich die VM falsch eingerichtet habe was die CPU, Arbeitsspeicher und/oder Netzwerk angeht...

Habt ihr eine Idee?

Ansonsten würde ich es als nächstes ohne VMs und nur mit verschlüsselter Datenpartition versuchen.

Danke und viele Grüße!

Edit: Habe gerade mal einen Sambashare von der Synology direkt in das Grund-Debian gemountet. Beim Kopieren einer Großen Datei dümpelt die Übertragungsrate hier auch nur zwischen 10 MB/s und 20 MB/s. CPU load laut top durch die Prozesse kcryptd ca 20%-50%, cifs ca 3%-8%

Edit2: Auch mit einem frisch aufgesetzten, unverschlüsselten Debian komme ich nicht über 20 MB/s. Ich probier dann mal ein paar Kabel durch...
 
Zuletzt bearbeitet:
Hast du überhaupt gelesen was ich geschrieben habe?
Platten via RDM/HDD-Passthrough durchzureichen ist nicht empfehlenswert, gefährlich und vor allen Dingen ziemlich inperformant, es gibt zahlreiche Berichte dazu. Das ist keine Lösung für den Produktivbetrieb und auch nicht für den Heimbetrieb mit Daten die einem lieb sind. Wenn Storage-VM, dann mit via PCIE-Passthrough durchgereichten SAS/SATA-Controller und nicht anders.
Das ist einer der Gründe, und gleich kommen noch ein paar mehr:

Ich verstehe nicht warum du auf einem N54L eine Storage-VM machen willst. Das Gerät hat gerade mal genug Leistung um nativ als Storage-Server auszukommen und du willst den Teil virtualisieren und noch weitere Dienste drauf pappen? ;)
Und wie schon gesagt, WENN Storage-VM, dann mittels PCIE-Passthrough durchgereichten Controller, alles andere ist asking for trouble!

Dann darfst du auch nicht der VM 2 Cores zuweisen weil dein Host-System nur 2 hat. Du könntest zwei Cores zu weisen wenn deine CPU ein Quadcore wäre. Aber nicht so. Denk doch einfach mal darüber nach was passiert wenn Host was in zwei Threads berechnet und die VM auch? Genau, die kommen sich in die Quere und Scheiße passiert, performance goes down south! Das Problem wird nur noch schlimmer sobald du noch weitere VMs in Betrieb nimmst.

Dann sehe ich 4GB Ram zugewiesen. Wie viel Ram hat dein Hostsystem überhaupt? Fällt dir hier was auf? ;)
Du solltest mindestens 1GB, besser 2GB für den Host freilassen. Auf Produktivsystemen mit 32GB mit Proxmox lasse ich immer 4GB für den Host frei, auf größeren Systemen auch mehr. Ja ich weiß, KVM nutzt nur den Speicher der auch wirklich von der VM gebraucht wird und man könnte daher ruhig etwas Overprovisionen, aber so etwas ist potentiell instabil und ist aufgrund der lächerlichen Preise für Speicher einfach nur bescheuert.

Mach es einfach alles Baremetal, dann erreichst du auch halbwegs brauchbare Übertragungsraten, auch verschlüsselt, und auch mit ZFS wenn du willst, siehe FreeNAS mit Verschlüsselung welche CPU ? Post #28. Lies dir vielleicht auch mal den gesamten Thread durch. Ähnliche Performance würdest du auch mit ZFSonLinux erreichen falls du dich dort wohler fühlst. Wenn du eine Klick-Klick-Lösung haben willst, installiere dir einfach FreeNAS und gut ist. Funktioniert und fertig. Was einfacheres mit Verschlüsselung+ZFS wirst du nicht bekommen.

Wenn du dann mehr Dienste ernsthaft und ohne Schneckentempo betreiben willst muss es dann halt ein richtiges Serversystem sein, z.B. die genannten größeren HP-Kisten oder so etwas hier:

http://preisvergleich.hardwareluxx.de/?cat=WL-273085
Ist ausgelegt für 24 Festplatten, kannst ja auf weniger Festplatten downsizen, dann reicht auch das E9 400W, keine extra Controller, und das 150€ Inter-Tech und gut ist.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh