Hardware für Homeserver

nofear87

Enthusiast
Thread Starter
Mitglied seit
13.01.2009
Beiträge
177
Hallo,
ich möchte mir ein kleines Homelab aufbauen.

Betreiben werden sollen VMs: Mailserver (wahrscheinlich Xafara), NAS, Monitoring, Windows Server 2012 und alles was zum testen anfällt

Derzeit schwanke ich zwischen dem betrieb mithilfe von ESXI und einem Ubuntu Server mit Virtualbox Server um die VMs zu betreiben.

Das ganze soll 24/7 laufen. Daher ist mir der Stromverbrauch nicht ganz unwichtig.

Derzeit beschäftige ich mich mit der Hardware.

Ich schwanke zwischen einem Xeon 1231v3 mit SuperMicro Board/ bzw. einem Desktop-Board. und einem SuperMicro Board mit bereits verbauter CPU (z.B. einem Atom, die Empfehlung liest man ja oft).

Da ich fast keine Erfahrungen in dem Bereich habe bin ich von euren Ratschlägen abhängig.

In wie weit ist ein Server-Mainboard überhaupt notwendig, lohnt sich der Auspreis für den nicht professionellen Einsatz? Mit welchem Ansatz spare ich Stromkosten? Letztendlich sollte er aber dennoch ausreichend performant sein.

Vielen Dank!
Grüße Robert
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie hoch ist dein Budget?

Du willst virtualisieren, also ist in erster Linie dies wichtig (nach Wichtigkeit sortiert):

1) Die Menge an installierbarem RAM (je mehr je viel besser)
2) Virtualisierungs-Features wie VT-x/AMD-V (können fast alle CPUs, unerlässlich!) und VT-d/IOMMU (CPU & Mainboard müssen es können, ist nützlich für gute Performance)
3) ECC RAM Support (je nach Einsatzgebiet unerlässlich oder eben unwichtig)
4) Anzahl CPU-Kerne/Leistung pro Kern
5) Möglichkeit für Storage Anbindung (anz. SATA/SAS Anschlüsse oder Möglichkeit für Anschluss von Raid Controller -> genug PCIe Slots)

Nicht ganz unwichtig ist eben auch, dass du ein gutes Storage bauen kannst.
Je nach Budget geht das relativ simpel, z.B mit SSD's da die extrem schnell sind.
Die machen auch ein RAID 5 mit 4 guten Festplatten einfach platt.

Und weiter solltest du vielleicht auch mehr als eine Netzwerk-Schnittstelle im System haben.
Die VM's teilen sich diese und für die NAS Funktionalität wäre ein exklusives Gigabit LAN (oder mehr) toll.

Einige der Punkte kann man mit Erweiterungskarten gut abdecken (Storage, LAN), andere sind nicht nachträglich veränderbar.
Daher würde ich gut evaluieren was die CPU und das Mainboard/Chipsatz können.

Einen Server zusammenzustellen ist schwerer als ein normaler PC, du musst auf viele Dinge achten und das ganze ist stark abhängig vom Betriebssystem.
 
Zuletzt bearbeitet:
Danke erst einmal ;-)

1) Ich wollte mit 16GB starten mir aber die option auf 32GB offen lassen (4 Steckplätze?)
2) Danke! Werde ich drauf achten!
3) Wie wichtig das ist kann ich leider selbst noch nicht beurteilen?
4) Soviel wie möglich, es soll aber im Budget bleiben (ca. 500-800€ FP sind allerdings genügend vorhanden)
5) Was bringt mit ein "Storage", reicht es nicht Festplatten einzeln zu betreiben? (geht es hier rein um Übertragungsgeschwindigkeit? Zur Sicherung der VMs/Daten steht ein NAS bereit)
6) mehr Netzwerkanschlüsse wären super, ja

Welche Mainboards/CPUs wären aus deiner Sicht für mich interessant?
Welche Vorteile hätte der ESXi für mich im Gegensatz zum Ubuntu Server mit Virtual Box Server?
 
Zuletzt bearbeitet:
1) Ja klingt vernünftig
2) Auf VT-d kannst du insofern verzichten wenn du keine Hardware direkt an eine VM durchreichen willst.
Aber es wäre schade, wenn ein möglichst hohe Storage-Leistung für das NAS gefragt ist, musst du z.B einen RAID Controller durchreichen können. Oder TV Karten wenn du aufzeichnen willst uvm.
3) Ist bei Verwendung von Dateisystemen wie ZFS bei gleichzeitigem RAM-Schreibcache ein Muss. Ansonsten bringt es i.d.R nur Stabilität (was auch schön ist)
4) Ich würde 4 Kerne einer aktuellen Haswell/Skylage CPU als gute Basis sehen. AMD Prozessoren sind derzeit zu stromhungrig. Auch dort 4 Kerne sind gut.
5) Mit Storage meinte ich den Verbund deiner Festplatten. Einzelbetrieb ist nicht so toll. Raid 1, 10 oder Raid 5 macht teilweise Sinn. Anders siehts bei SSD's aus. Da bringt dir Raid zu wenig.
6) Pass auf, gute und Stromsparende Netzwerkkarten können teuer sein. Gerade die tollen Dual-Port oder Quad Port Karten. Alles was Onboard ist, ist "geschenkt" im Kaufpreis.

Ich würde dir für den 24/7 Einsatz professionelle Serverhardware empfehlen.
Entweder bedienst du dich an den günstigen Komplett-Systemen/Barebones die hier im Forum gängig sind oder baust selber mit Server-Hardware (Supermicro, Asrock, Asus, Intel).

ESXi kannst du mit vSphere zimlich toll verwalten.
Die Performance ist ähnlich oder gar ein ticken besser.

Ich empfehle dir Proxmox wenn es kein ESXi sein soll oder Microsoft Hyper-V als Bare-Metal Lösung.
Anstatt VirtualBox würde ich KVM/QEMU verwenden.
Das ist ne "Schicht tiefer" und d.H leistungfähiger. Das ganze kannst du natürlich auf Ubuntu auch einrichten.

Proxmox als Linux Distribution hat sehr wenig Overhead (heisst schlankes Betriebssystem reduziert auf das nötigste) und dient daher als Hypervisor - hat also auch möglichst guten Virtualisierungs-Support.
Du sparst also viel Zeit weil Proxmox quasi eine fertige Lösung ist.

Auf meinem sehr alten Server (siehe Signatur) den ich schon kaum mehr brauche, hatte ich anno 2010 (glaube ich) mal Benchmarks gemacht.
Damals waren die VM's unter Proxmox schneller als in ESXi 4.1.
 
Also ich kann dir nur die Supermicro Boards mit den Xeon E3 v3 ans herz legen.

Ich habe selber einen E3-1271 V3 mit 32Gb RAM auf einem Supermicro laufen. Der Server ist in einem 2HE Case von Supermicro in betrieb. Zu den Grundkomponenten kommen noch 4 SSDs, 2 x 4TB Hdds und eine dual Gbit Lan karte. Im idle kommt der Server laut UPS auf gute 40 Watt. Das liegt haubtsächlich an dem Supermicro Netzteil, da dieses auf viel höhere Lasten ausgelegt ist und somit nicht in der Effizienten zohne läuft. (720 Watt 80 Plus Gold)
 
Wenn wir nochmal kurz an Punkt 3/5 festhalten bevor es weiter geht, nur das ich es richtig verstehe:

Beim Einsatz von SSDs macht ein Raid keinen Sinn?
Z.b. der ESXI könnte auf einem USB Stick laufen. Dies SSDs wären dann zum halten der VMs sinnvoll? Und eventuelle HDDs als reines Datengrab? Oder würdet ihr grundsätzlich alles auf die SSDs packen?

Ich denke jetzt an ein NAS Szenario, in dem bspw. OpenMediaVault auf der SSD läuft und die Daten auf den HDDs?
 
Der Server soll ja auch ein NAS sein.
Daher empfehle ich dir ein HDD Datengrab (Raid 1,10 oder halt 5).

Die VM's würde ich - sofern Performance extrem wichtig ist - auf SSD's lagern oder auf anderen Festplatten.
Eine phyiskalische Trennung zwischen Datastore und VHD-Store ist sinnvoll.

Raid bei SSD's bringt dir kaum mehr Performance bzw. brauchst du die nicht.
Zudem ist die Ausfallrate bei SSD's nicht mehr so "zufällig" wie bei einer Harddisk. Also kann man theoretisch den Sinn von Raid 1 bei SSD's auch noch in Frage stellen.

Ein kleines NAS Betriebssystem wie FreeNAS, OpenMediaVault kannst du natürlich auch auf eine kleine, billige SSD installieren. Richtig.

Ich würde beim Kauf der Hardware sehr gut darauf achten was schlussendlich für ein OS drauf läuft.
RealTek Netzwerkkarten mögen z.B nicht alle Betriebssysteme so gut. Soundkarten, Onboard Controller usw. auch nicht.
Teilweise kann sogar UEFI ein Problem darstellen.

Bei den Mainboards finde ich Asrock(Rack) auch sehr interessant. Sind zwar noch relativ neu am Markt, jedoch hört man viel gutes.
Beim RAM einfach nur den kaufen, der vom jeweiligen Board-Hersteller empfohlen wird.
 
Hallo,
ich möchte mir ein kleines Homelab aufbauen.

Betreiben werden sollen VMs: Mailserver (wahrscheinlich Xafara), NAS, Monitoring, Windows Server 2012 und alles was zum testen anfällt

fang doch einfach erstmal mit dem kleinsten aufrüstbaren Nenner an (nur mein Tip) : https://geizhals.de/hp-proliant-ml10-v2-814483-421-a1321006.html?hloc=at&hloc=de

mehr Ram , und CPU kannst du immernoch kostenneutral aufrüsten (CPU kann man noch gut verkaufen und Ram günstig aufrüsten)

allein ein vergleichbares Board und CPU kosten das gleiche ... ohne die Garantie :)


http://www.hardwareluxx.de/communit...3240-i3-4150-e3-1220v3-e3-1241v3-1084044.html
 
Zuletzt bearbeitet:
Ich würde ein Board kaufen, das IPMI bietet. Ich hatte damals auch den Fehler gemacht, auf Konsumerhardware ohne zu bauen, war ein grosser Fehler.

Jetzt muss ich einen der knappen PCI-E Slots für eine Grafikkarte nur für BIOS und vSphere Konsole verschwenden.

Wahrscheinlich würde ich heute bei Desktop sowie Server das vPRO Feature haben wollen. Mit den Intel TXT Instruktionen.

VT-d halte ich für überbewertet. Meine Hardware kanns, aber ich nutze das nicht.

Wenn Du Strom sparen willst, bist Du mit vSphere falsch, ausser Du packst alles auf SSD. Die Platten gehen nicht in den Spindown, daher unbedingt 24/7 Platten nehmen. Ich steh da auf WD RE und RE 4 (nicht WD RED), da schwör ich drauf.

https://www.digitec.ch/de/s1/product/wd-re-2000gb-35-server-workstation-festplatte-360771?tagIds=76
 
Zuletzt bearbeitet:
Wozu genau brauchst du TXT, das hat doch eigentlich fast jede CPU, wenn ein TPM da ist (das hat nicht jedes Board), brauchst du aber auch nur wenn du sehr viel Aufwand in die sichere Konfiguration steckst. VT-d brauchst du eigentlich immer, wenn du irgendwie vernünftige I/O-Möglichkeiten schaffen willst...
 
Hi

Mir gings bei der Aussage vor allem um den Desktop. Das mit der sicheren Konfiguration hatte ich aber im Hinterkopf, ja. Bei mir dient die ganze Virtualisierungs Umgebung vor allem der Sicherheit. Nur bringt mir das wenig, wenn meine Workstation irgend ne Malware eingefangen hat. Sonst könnte ich den vSphere Client und die WS fingerprinten, und der Crap hätte keine Angriffsfläche. Allerdings muss ich dazu sagen, dass ich mir das so vorstelle, getestet habe ich das noch nie. Nur drüber nachgelesen und nachgedacht.

Meine 2011er Boards könnten so ein TPM Modul aufnehmen, nur bieten die CPU's (3930k) das Feauture nicht. Einerseits schade, andererseits Frechheit. Nunja, nächstes Mal gibts nen XEON.

Wieso immer alle den Storage per VT-d durchreichen, da erschliesst sich mir der Sinn dahinter noch nicht. Ich habe kein eigentliches Storage im Server, aber wieso das nicht vSphere machen lassen? Meiner Meinung nach könntest Du da genau so gut auf Blech bauen. VT-d ist halt meiner Meinung nach mehr ein Gefrickel, und entspricht imho nicht der Virtualisierungsphilosophie.
 
... 100 mal die gleiche anfrage , 100 mal die gleiche antwort , 10 mal das "ich mag aber" :)
 
Wieso immer alle den Storage per VT-d durchreichen, da erschliesst sich mir der Sinn dahinter noch nicht. Ich habe kein eigentliches Storage im Server, aber wieso das nicht vSphere machen lassen? Meiner Meinung nach könntest Du da genau so gut auf Blech bauen. VT-d ist halt meiner Meinung nach mehr ein Gefrickel, und entspricht imho nicht der Virtualisierungsphilosophie.

Der Grund ist ganz einfach.
ESXi ist ein toller Type-1 Virtualisierer, eigentlich eher eine Bios Erweiterung.
Die Storage Features sind eher mäßig. Man könnte zwar ESXi vdmk (virtuelle Platten) auch als Storage an eine VM durchreichen, hat dann aber den zusätzlichen Overhead, dass alle Daten durch den virtuellen Plattentreiber und dann den ESXi Treiber müssen. Das ist nicht schnell, das ist nicht effektiv und das ist für kritisches transaktionsbasiertes Schreiben nicht sicher genug.

Pass-through bedeutet für eine Storage VM dass es mit eigenen Treibern direkt auf die Hardware zugreifen kann und das kann ein spezialisiertes Storage OS nun mal viel besser als ESXi oder über die ESXi Treiber.

Daher:
NAS/SAN OS virtualisieren ist ok, Storage selber (HBA und disks): never ever
Das ist wie mit der Grafikkarte - die kann man auch nicht virtualisieren (wenn man maximale Power braucht)
 
Zuletzt bearbeitet:
Nur eine off-topic Randnotiz zu virtualisierten Gratis: Habe neulich NVIDIA Teslas in einer Virtualisierungslösung/Demo gesehen, wo die Dinger in Echtzeit hochauflösende /-aufwendige CAD Berechnungen gemacht und auch noch live aus dem RZ gestreamt haben. War schon beeindruckend...
 
Das ist ja auch keine klassische virtuelle Grafikkarte sondern eher "Pass-through auf shared Hardware"
 
genau dafür würde ich auch am Desktop VT-d als sehr wichtig einschätzen ;) (man braucht bspw. USB/Sound/iwas in der VM → Karte durchreichen)
 
Hat keiner einen guten Vorschlag für ein passendes Board welche unter Ubuntu Server und ESXI läuft?
 
jedes Board mit ESXi supported Nics wird laufen (wenn du andere features wie VT-D, IMPI/iKVM haben magst wirds enger, wobei Xeon Boards eigentlich problemfrei sind bei aktuellen esxi)
... für nen 0815 Server braucht man aber kein VT-D (PCI/PCIE Passthrough) und auch keinen Xeon - http://www.hardwareluxx.de/community/f101/hardware-fuer-homeserver-1098204.html#post24104557 (nachrüstbar)

selbst "Billig Boards" laufen ... evtl muss man die NIC nachpatchen


Ubuntu Server ist da noch viel unkritischer

... auch ist es sehr anstrengend Aussagen zu wiederholen ... ein günstiger Einstieg (aufrüstbar) ist der https://geizhals.de/hp-proliant-ml10-v2-814483-421-a1321006.html?hloc=at&hloc=de

dicker Thread: http://www.hardwareluxx.de/communit...3240-i3-4150-e3-1220v3-e3-1241v3-1084044.html
 
Zuletzt bearbeitet:
jedes Board mit ESXi supported Nics wird laufen (wenn du andere features wie VT-D, IMPI/iKVM haben magst wirds enger, wobei Xeon Boards eigentlich problemfrei sind bei aktuellen esxi)
... für nen 0815 Server braucht man aber kein VT-D (PCI/PCIE Passthrough) und auch keinen Xeon - http://www.hardwareluxx.de/community/f101/hardware-fuer-homeserver-1098204.html#post24104557 (nachrüstbar)

selbst "Billig Boards" laufen ... evtl muss man die NIC nachpatchen


Ubuntu Server ist da noch viel unkritischer

... auch ist es sehr anstrengend Aussagen zu wiederholen ... ein günstiger Einstieg (aufrüstbar) ist der https://geizhals.de/hp-proliant-ml10-v2-814483-421-a1321006.html?hloc=at&hloc=de

dicker Thread: http://www.hardwareluxx.de/communit...3240-i3-4150-e3-1220v3-e3-1241v3-1084044.html

Sorry, ich hatte deinen ersten Post anscheinend überlesen.

Irgendwie fehlen mir beim ML10 die Sata Anschlüsse? Zwei Stück sind doch einfach zu wenig, und die Erweiterung kostet wieder schnell Geld.

Weiterhin habe ich etwas vor der Geräuschkulisse eines solchen Systems Angst? Und am Ende Stecke ich dann auch wieder Geld in Lüfter etc. und schmeiße die alten Weg..bzw. das ganze NT.

Ist es da nicht interessanter gleich was an meine Wünsche anzupassen? Ich habe derzeit einen N54L und bin mit der CPU-Leistung so gar nicht zufrieden.

Weiterhin loben viele IPMI...darauf würde ich ebenfalls ungern verzichten wollen.
 
Zuletzt bearbeitet:
der ML10 v2 hat aber insgesamt 6x SATA siehe Ausstattungsvergleich.
Lautstärke und Remote Methode sind aber jedem das seine kostet aber auch entsprechend mehr
 
lass gut sein Janero ... hat wenig Sinn Ratschläge zu geben ... die 2+4 Sata, das iLo und alles andere war im Sammelthread zu lesen :)
auch die Bilder vom passiven CPU Kühler und der leistungsvergleich zum N54L

lass Sie einfach die Erfahrungen selbst machen :)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh