[Kaufberatung] Homeserver mit Storage VM - Hardwareoptionen?

hoyohayo

Profi
Thread Starter
Mitglied seit
02.02.2017
Beiträge
45
Ich bräuchte hier nochmal eure Beratung und Expertise.

Zur Wahl stehen derzeit die folgenden zwei Optionen:

  1. Der Eigenbau:

    HomeServer im Eigenbau



    Hierbei liegt der Fokus auf die zukünftige Erweiterbarkeit. Mir ist bewusst, dass der Pentium G4560, 2x 3.50GHz der Momentan in der Konfiguration ausgewählt ist, schwächer ist als der Intel Xeon E3-1225 v5, 4x 3.30GHz der zweiten Option. Allerdings stehen hier direkt 32GB DDR4 RAM zur Verfügung und eine M.2 SSD.

  2. Die „Fertig“-Variante:

    ML10 Gen9



    Hier ist ein HP PCIe 3.0 x8 Storage Controller dabei, der direkt an VMs weitergereicht werden könnte. Außerdem eine 525GB SATA SSD und bis jetzt „nur“ 16GB RAM plus die vorhandenen 8GB die schon verbaut sind.

Die Ansprüche an beide Varianten ist die Lösung einer Storage VM, bedeutet also ich müsste die Festplatten weiterreichen an eine VM (Soll XPEnology werden auf ESXi). Hier bin ich leider nicht fündig geworden, ob man das mit dem Fujitsu D3417-B2 über den Intel C236 Chipsatz realisieren kann oder ob man hier ebenfalls einen externen Storagecontroller bräuchte. Außerdem sollen neben der XPEnology VM weitere VMs (ca. 4-6 Stück) laufen, die allerdings keine Storage VMs werden.
Weitere Festplatten sind bereits vorhanden für die Storage VMs, daher nur jeweils eine Seagate IronWolf NAS HDD 8TB.

Es bleibt also die Frage nach der Effizienz der Systeme und welche Vorteile mir der KabyLake bieten kann, außer dass man ihn gegen einen Xeon austauschen kann. Vom Kostenpunkt scheinen beide gerade ziemlich gleichwertig, bis auf den Punkt, dass eben eine QuadCore CPU oder ein DualCore das System antreibt. Für die erste Zeit könnte der DualCore wahrscheinlich reichen, bis dann irgendwann ein Upgrade auf dem Sockel ansteht (man kriegt die Xeons doch ganz gut gebraucht?). Dafür ist am Anfang deutlich mehr an RAM vorhanden und eine M.2 SSD in der Eigenbau Variante. Außerdem besteht die Frage ob ich noch einen Storage Controller benötige und ob ich ungefähr einen gleichen Stromverbrauch erziele mit den beiden Systemen.

Hättet ihr sonst noch Verbesserungsvorschläge?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn M.2 und NVME, nimm lieber Samsung 960 Evo , da hast Du deutlich mehr Leistung.
Warum XPEnology und z.B. nicht gleich eine ZFS-Storage-VM auf Solarish- oder BSD-Basis?
Für einen kleinen Server auf Sockel 115x - Basis ohne dicke Grafikkarte ist das Netzteil viel zu groß dimensioniert. Sowas reicht dicke, eher evtl. noch etwas kleiner nehmen.
Versuche nicht, Raid5 mit dem verlinkten HP-Controller zu fahren; das Ding hat keinen Cache und ist beim Schreiben langsam. Ferner ist das Ding nicht native in ESXI unterstützt falls Du ihn nicht durchreichen willst, dann brauchst Du Treiber für ESXI.
Wenn Du einen HBA in eine VM für Storage durchreichen willst (was sinnvoll ist damit die Storage-VM die volle Hardwarecontrolle über die Platten hat), würde ich eher zu LSI/Broadcom/Avago bzw. deren OEM-Versionen raten. Bewährt und zuverlässig.
 
Irgendwie wirken deine Konfigs widersprüchlich, als ob du nicht wüstest was du brauchst und einfach mal irgendwas servermäßiges zusammengeklickt hättest... mal ein G4560 mit 32GB und 128GB SSD, mal ein 1225v5 mit 16GB und 512GB SSD, das ist eine verdammt große Spanne. Und ein Storageserver mit 4 Platten, mehr passen ohne Gebastel nämlich nicht in den ML10.

Da würde ich ja schon fast zu einem Microserver G8 raten, der schluckt die 4 Platten, ist jetzt im Abverkauf schön billig und hat vor allem eine große Community die schon so ziemlich alles dokumentiert hat was mit der Kiste geht.
 
Zuletzt bearbeitet:
Warum XPEnology und z.B. nicht gleich eine ZFS-Storage-VM auf Solarish- oder BSD-Basis?
Ich hatte mich bis jetzt noch nicht sehr viel mit ZFS beschäftigt und habe da eher großen Respekt vor, mit dem Dateisystem zu arbeiten. Außerdem bin ich derzeit im Besitz einer DS214play, bin daher vertraut mit der DSM. Allerdings bin ich gerne offen für weitere Vorschläge. Es soll allerdings letztendlich ein großes Datengrab werden, auf das die anderen VMs ebenfalls Zugriff haben, genauso wie restliche Geräte die im Haushalt vorhanden sind (Also Medienserver, MySQL Datenbank, private Website für Smarthome etc.) Daher war der Anspruch an das OS nicht so hoch.

Wenn Du einen HBA in eine VM für Storage durchreichen willst (was sinnvoll ist damit die Storage-VM die volle Hardwarecontrolle über die Platten hat), würde ich eher zu LSI/Broadcom/Avago bzw. deren OEM-Versionen raten. Bewährt und zuverlässig.
Hast du hier vielleicht einen Hardwaretipp? Also etwas Bestimmtes im Auge, vielleicht für 6-8 Platten?


Irgendwie wirken deine Konfigs widersprüchlich, als ob du nicht wüstest was du brauchst und einfach mal irgendwas servermäßiges zusammengeklickt hättest... mal ein G4560 mit 32GB und 128GB SSD, mal ein 1225v5 mit 16GB und 512GB SSD, das ist eine verdammt große Spanne.
Tatsächlich hast du gar nicht so unrecht mit deiner Aussage, deshalb bin ich ja hier um auf Beratung zu hoffen. Also einfach so etwas Servermäßiges zusammengeklickt ist vielleicht ein wenig übertrieben, allerdings habe ich recht wenig Ahnung von z.B. CPUs. Daher war hier auch die Frage, welchen Vorteil mir der Xeon gegenüber dem G4560 bringt.
Ich hatte allerdings vor bei beiden Varianten auf die 32GB RAM zu gehen. Der Unterschied in den SSDs kommt daher, dass ich mich in der Eigenbauvariante tatsächlich an pumuckels Post [Guide] NAS/Server Hardwareguide 2017 - Seite 5 orientiert habe und deshalb die Intel SSD gewählt habe. Bei dem ML10 hatte ich allerdings noch die Vorstellung etwas mehr Platz zu brauchen für die VMs. Das war eine der ersten Ideen und ich hatte noch nicht auf eine kleinere SSD im ML10 oder evtl. wie hier hier vorgeschlagen eine M.2 Samsung 960 in der Eigenbauvariante einzubauen. Genaue Vorstellung für die Anzahl der VMs und damit benötigten Speicherplatz auf der SSD habe ich noch nicht, und würde daher wohl eher mehr als die 128GB nehmen.

Da würde ich ja schon fast zu einem Microserver G8 raten, der schluckt die 4 Platten, ist jetzt im Abverkauf schön billig und hat vor allem eine große Community die schon so ziemlich alles dokumentiert hat was mit der Kiste geht.

Was den G8 angeht, habe ich da ein wenig Bauchschmerzen, da hier „nur“ DDR3 RAM verbaut wird, bis maximal 16GB und ich nicht die Möglichkeit habe, später eine Festplattenerweiterung einzubauen. Insgesamt ist die Hardware natürlich etwas Älter und die KabyLake/SkyLake Architektur bringt doch (soweit ich das mitbekommen habe) einiges an Stromeinsparung mit. Hier wären die beiden vorgeschlagenen Varianten auch noch weiterhin aufrüstbar, während der 1155 Sockel nur noch aus der Bucht bedient wird. Allerdings ist das Preisargument natürlich (nach dem gerade erchienenen G10) durchaus ein großer Punkt.
 
Der Gen8 ist m.E. eine nicht zu toppende Basis, wenn Du mit den wesentlichen Rahmendaten auskommst. Das heißt: 2x1Gbit, 4+1 SATA (davon 3xSATA2, 2xSATA3), max 16GB RAM und eben die Performance des Celeron.

Mal von hinten nach vorne: reicht der Celeron nicht, musst du aufrüsten. Willst Du Bumms (VMs, transcoding) sind die Xeons inzwischen recht selten und verhältnismäßig teuer. Als VM-Schleuder sind 16GB nicht üppig. Willst du (irgendwann) mehr Platten und/oder schnelle SSDs im Storage - oder die gängige Solarish-ESXi-Kombo für ZFS - brauchst/willst Du einen Zusatzkontroller (PCIe-Slot verbraucht). Willst Du (irgendwann) dein Storage mit 10Gbit anbinden, brauchst du eine Zusatz-NIC (PCIe-Slot verbraucht).

Am Ende musst Du entscheiden, womit Du a) starten willst und b) wo die Reise dich in den nächsten 1-2 Jahren hinführen wird. Gerade bei der Erweiterbarkeit über PCIe Addons und beim RAM ist halt ratzfatz Ende.
 
Mal von hinten nach vorne: reicht der Celeron nicht, musst du aufrüsten. Willst Du Bumms (VMs, transcoding) sind die Xeons inzwischen recht selten und verhältnismäßig teuer. Als VM-Schleuder sind 16GB nicht üppig.

Genau hier hatte ich ansetzen wollen. Ich hatte als erstes den Gedanken für die VMs und transcoding (hast du genau die beiden wichtigen Punkte rausgepickt) einen Xeon zu verbauen. Da kam der ML10 ins Spiel oder halt beim Eigenbau eine Nachrüstbare CPU. Die 16GB werden auch schnell ausgereizt sein, daher hätte ich gerne, genau wie du sagst, die Option auf mindestens 32GB, die in meinen beiden Varianten gegeben ist.

Hier liegt also der Start. In der Basiskonfiguration sollen mindestens 16GB RAM und die Transcoding/"VM-Schleuder" (wie du es so schön genannt hast) gegeben sein. Es werden von Beginn an 3 Platten à 4TB verbaut werden, da diese bereits vorhanden sind und ich würde mir gerne die eine 8TB Platte aus dem ersten Post dazu kaufen um dann 12TB (8+4) an die Storage VM zu reichen und die restlichen 2x4TB als Speicher für die VM-schleudern benutzen (also jegliche VMs die aufgesetzt werden).
Muss hierfür schon ein Storagecontroller vorhanden sein?
 
Transcoding, was und wie viel ? Plex empfiehlt pro 1080p/10Mbps: 2000 PassMark und pro 720p/4Mbps: 1500 PassMark, das solltest du dir also ausrechnen können.
RAM: DSM mit Plex brauch wahrscheinlich höchstens 8GB und würde dann von einem SSD Cache mehr profitieren als von weiteren XGB RAM. Bleiben für die VMs also 8 bis 24GB RAM.
Storage: du hast den DSM, warum für die VMs getrennt nochmal 8TB ?
Ist doch alles viel zu unflexibel, Storage alles in den DSM und je nach Bedarf Volumen für die VMs etc, VMs auf SSD und Rest optional als Cache für den DSM.

Bleibt eben die Frage was deine geplanten VMs tatsächlich an Ressourcen ziehen.
 
Zuletzt bearbeitet:
DSM und Plex läuft schon mit 1-2GB wunderbar.
Mit 4GB geht man schon auf Nummer sicher.
Unbenannt.PNG
 
Zuletzt bearbeitet:
Transcoding, was und wie viel ?

1080p mit h265 auf maximal 2 clients. Wenn ich also nach dem Passmark Score gehe, sollten beide CPUs über genug Kapazität zum Transcoden verfügen.

Der von dir angesprochenen SSD Cache wird dann wie realisiert?

Storage: du hast den DSM, warum für die VMs getrennt nochmal 8TB ?

Du hast natürlich vollkommen recht, das war ein Fehler meiner Überlegung, den Speicher der DSM kann man natürlich per iSCSI einfach in die restlichen VMs einbinden. Da hatte ich kurz einen Knoten im Hirn.
Was die restlichen VMs angeht, so werden die keine unendlichen Resourcen ziehen. Da sind geplant maximal 4GB RAM pro VM (soll Win10, Ubuntu, plus Spielsysteme) werden. Gleichzeitig laufen dort maximal 2 VMs. Der Rest muss nicht 24/7 am laufen sein. Daher hatte ich gedacht per ESXi XPEnology aufzuziehen und daneben die restlichen VMs.
 
h265? Können deine clients das? Wenn nein, könnte das ziemlich Leistung fressen. Mein A10 6800k kommt bei EINEM h265 an seine Grenzen.
 
Laut Datenblatt und dem Post im Forum, kann der Odroid-C2 h265. Dieser hängt als Client mit LibreElec vor dem FHD Fernseher. Allerdings sollte das Transcoding hier auch nicht das Hauptthema werden, da falscher Forumsthread ;) Aber natürlich ist das eine berechtigte Frage ob die Clients h265 unterstützen.

Ich hätte gerne eure Meinung, ob es sich eher lohnen würde den ML10 zu kaufen und dann beschränkt zu bleiben, allerdings direkte Unterstützung bei ESXi, nette User die schon einiges ausprobiert haben und den größeren Prozessor von Anfang an zu haben. Oder ob die Eigenbauvariante sich auf lange Sicht eher lohnt, da sehr flexibel und gut erweiter-/anpassbar.

Außerdem würden mich die Antworten auf die schon gestellten Fragen (Storagecontroller im Eigenbau?, SSD Cache - aber wie?) noch interessieren.
 
Der von dir angesprochenen SSD Cache wird dann wie realisiert?

Hi

Ich glaube, er meint den Swap Cache für den ESXi. Die Cache SSD kannst Du normal am Host anklemmen, oder einen Teil einer SSD vom Datastore dazu verwenden. Einfach im vSphere Client den Platz als Cache zuweisen. Der wird dann für die Swap Files verwendet. Falls Du alle VM's auf SSD's liegen hast, kannst Du darauf verzichten.
 
Storagecontroller, sofern vom gewünschten OS unterstützt und reine HBA gefragt sind:
LSI 9211-8i (Chipsatz LSI2008, PCIe 2.0, 6 Gb/s)
LSI 9207-8i (Chipsatz LSI2308, PCI 3.0, 6 Gb/s)
LSI 9300-8i (Chipsatz LSI3008, PCIe 3.0, SAS bis 12 Gb/s)

Für die Dinger sollte eigentlich jedes vernünftige Betriebssystem Treiber onboard haben bzw. installierbar sein. XPEnology weiß ich nit, müsstest prüfen.

Alternativ die OEM-Versionen von IBM/Lenovo, Intel, FSC, Dell, etc. , sofern sie sich auf sog. IT-Firmware flashen lassen (z.B. der unter Homelab-Usern bekannte IBM M1015).

Oder gleich ein Supermicro X10/X11 Board für Sockel 115x , welches obige Chipsätze gleich integriert. Ist i.d.Regel billiger als "nackertes" Board + gesteckter Controller. Manche davon lassen sich auch komplett fernsteuern/installiern via Lan (IPMI). Daher meine Wahl als Alternative zu HP's Fernsteuerung (ILO).
Gibts in verschiedenen Ausstattungsvarianten (mit oder ohne obigen HBA-Chipsätzen, manche mit oder ohne 10Gbit-Lan, manche mit M.2-Slot.)
 
Zuletzt bearbeitet:

Wieder was gelernt, das wusste ich gar nicht. Danke für den Tipp!

Oder gleich ein Supermicro X10/X11 Board für Sockel 115x , welches obige Chipsätze gleich integriert. Ist i.d.Regel billiger als "nackertes" Board + gesteckter Controller. Manche davon lassen sich auch komplett fernsteuern/installiern via Lan (IPMI). Daher meine Wahl als Alternative zu HP's Fernsteuerung (ILO).
Gibts in verschiedenen Ausstattungsvarianten (mit oder ohne obigen HBA-Chipsätzen, manche mit oder ohne 10Gbit-Lan, manche mit M.2-Slot.)

Hast du da vielleicht auch noch eine persönliche Empfehlung für eines der Boards von Supermicro? Ich hab jetzt mal drüber geschaut bei geizhals und doch relativ viele gefunden, die sowohl IPMI als auch den M.2 2280 Platz besitzen. Woran erkenne ich, ob die von dir genannten Chipsätze bereits integriert sind? Muss ich hierbei auf den Intel 236 Chipsatz achten?
 
Aktuell gibt es nur zwei Boards für Sockel 1151 mit integriertem SAS-Controller:
https://geizhals.de/?cat=mbxeon&xf=544_Supermicro%7E644_Sockel+1151%7E7086_SAS+12Gb%2Fs

Das X11SSL-CF hat zwei 1GB-NICs, das X11SSH-CTF hat zwei 10GBase-T NICs on-board.

Ich habe selbst das X11SSH-TF (also ohne SAS-Controller, aber mit 2x 10GBase-T). Weges des M.2 Steckplatzes würde ich mir im Hinblick auf die Standard-Größe 2280 keine großen Sorgen machen. Ich habe bei mir auf dem Board (vorgesehen ist auch hier 2260) eine 2280 SSD installiert und keine Probleme. Entweder ein wenig basteln oder gleich einen entsprechenden Adapter verwenden...
 
Hi,

weshalb überlegst du dir einen Xeon 4C, wenn schon der 1230v5 4C+HT hat?
Die Storage VM soll einfach als Datenablage dienen, oder startest du von dort aus auch die weiteren VMs?
RAID? (macht das die Storage VM oder ohne oder HW-RAID?)


Hier mal mein System, mit dem ich eigentlich zufrieden bin:

CPU: Xeon E3-1230v5 (Kühler: Scythe Kotetsu SCKTT-1000 - ggf anderen nehmen da etwas breit)
RAM: 2x16 GB DDR4 ECC (Samsung)
MB: Supermicro X11SSi-LN4F (ATX, C236, 4xGbE LAN, IPMI etc)
1x USB Stick Mach Extreme 16G (SLC) (für ESX / steckt direkt auf dem MB)
1x SSD Samsung 850 Evo (für VMs)
1x SSD M.2 Samsung 960 Evo (für VMs)
3x HDD WD Red 4GB (für NAS/Backup)
Gehäuse: Fractal Design Define R5 (2x org. Gehäuselüfter durch 1x Noctua NF-A14 PWM hinten, vorne/HDDs hab ich das enst. ULN-Modell mit statischer 800/600 rpm und höherem Druck)
Netzteil: bequiet Straight Power 10, 400W

Sehr leise, relativ sparsam (mir zeigt es gerade <24 W an) und m.E. schnell (Win 2012R2 VM startet innerhalb weniger Sec. von aus auf login)
Wenn der Verbrauch für dich keine Prio hat, würde ich über einen HW-RAID-Controller nachdenken. Aber ggf. könnte man auch komplett alles an die Storage VM durchreichen (Bis auf 1 HDD/SSD) und die stellt dann den Storage mit den restl. VMs zur Verfügung.

Ich habe probeweise den SATA-Kontroller komplett an eine VM (bei mir OMV) druchgereicht - funktioniert. Mit nur einzelnen HDDs druchreichen hatte ich Probleme.

Evtl. würde ich ein Supermicro-Modell nehmen, das einen onboard LSI_COntroller hat (dh du hast dann 2 - 1x intel, 1x LSI). dann kannst du die ggf. auch einzeln durchreichen.
Hier hast du eine gute Übersicht: https://www.supermicro.nl/products/motherboard/Xeon3000/
 
Zuletzt bearbeitet:
Stimmt tatsächlich, hatte bis jetzt nur den E3-1220 gesehen. Da kann man natürlich auch auf den 1230 v5/v6 gehen.

Was die Storage VM angeht, die soll wirklich nur als Datenablage dienen und die VMs sollen aus dem ESXi gestartet werden, auf dem auch die Storage VM läuft. Zumindest ist so der Plan, da XPEnology soweit ich das überblicke keine für mich zufriedenstellende Virtualisierung parat stellt und auch OS wie NAS4Free oder FreeNAS nicht die Könige der Virtualisierung sind oder liege ich da falsch?

Zum Raid: Das soll eigentlich XPEnology übernehmen. Daher ja auch die Weiterreichung des Controllers, sodass das OS das Raid übernehmen kann.

Das System sieht ja ziemlich klasse aus, ungefähr soetwas wollte ich mit meinem Eigenbau auch verwirklichen. Wobei ich die 4xGbE nicht benötige. Daher hab ich jetzt mal einen neuen Vorschlag erarbeitet und tendiere gerade deutlich zum Eigenbau anstatt die Fertiglösung des ML10.

Ist das so stimmig?


Festplatten sind vorhanden.
 
wenn dir erstmal 1 16GB Modul reicht: Crucial CT16G4XFD824A DDR4 16 GB DIMM 288-Pin Memory Module - Black/Green: Amazon.co.uk: Computers Accessories
...würde aber in jedem fall 2400er ram nehmen wenn schon v5/v6

die Xeon V6 brauchen ein halbwegs aktuelles bios, also beim MB darauf achten (Verkäufer fragen)

die Xeon V5 gibt immer mal bei MF im Mindstar zu kleinpreisen (letzten erst den 1240v5 zu um die 200) aber erfordert zeit zu warten :)

mit dem Fractal Design Define R4 Black Pearl Preisvergleich Geizhals Deutschland kannste bissle sparen (aber das obliegt dir)


Was unterstützt dein OS eigentlich (HW/SL/KL) ? ESXi ist da nicht soooo "aktuell"
 
Zuletzt bearbeitet:
Dann werd ich mal nach den Xeons ausschau halten. Danke für den Tipp mit dem RAM.

Hufff... Was mein OS unterstützt ist natürlich ne gute Frage. Da sollte ich mir vielleicht vor dem Kauf Gedanken zu machen. Muss dann jetzt hier allerdings ne kurze Frage stellen:
Was unterstützt dein OS eigentlich (HW/SL/KL) ? ESXi ist da nicht soooo "aktuell"
HW = Hardware, SL/KL=?
Komm ich da mit Proxmox auf einen besseren Zweig in der Unterstützung? Da bedarf es wohl noch einiges an Sucharbeit von mir.

Wenn allerdings
Hier mal mein System, mit dem ich eigentlich zufrieden bin:

CPU: Xeon E3-1230v5 (Kühler: Scythe Kotetsu SCKTT-1000 - ggf anderen nehmen da etwas breit)
RAM: 2x16 GB DDR4 ECC (Samsung)
MB: Supermicro X11SSi-LN4F (ATX, C236, 4xGbE LAN, IPMI etc)
1x USB Stick Mach Extreme 16G (SLC) (für ESX / steckt direkt auf dem MB)
1x SSD Samsung 850 Evo (für VMs)
1x SSD M.2 Samsung 960 Evo (für VMs)
3x HDD WD Red 4GB (für NAS/Backup)
Gehäuse: Fractal Design Define R5 (2x org. Gehäuselüfter durch 1x Noctua NF-A14 PWM hinten, vorne/HDDs hab ich das enst. ULN-Modell mit statischer 800/600 rpm und höherem Druck)
Netzteil: bequiet Straight Power 10, 400W

damit volle HW Unterstützung hat, gehe ich davon aus, dass es eigentlich funktionieren sollte. Allerdings hat er auch nur OMV laufen und kein ESXi...
 
Zuletzt bearbeitet:
Vermute mal HW=Haswell, SL=Skylake, KL=Kabylake
 
...
HW = Hardware, SL/KL=?
Komm ich da mit Proxmox auf einen besseren Zweig in der Unterstützung? ...

Proxmox released in Kürze Version 5 - das kommt mit Kernel 4.10 und somit ausgereifter Hardwareunterstützung für Haswell und Skylake und rudimentärem Kaby Lake Support.
 
Danke für das Update zu Proxmox und Begrifflichkeitsklärung. Ich hatte mir auch mal Microsofts Hyper-v angeguckt, da werd ich noch einige Nachforschungen betreiben um rauszufinden ob zb XPEnology drauf läuft. Allerdings sollte MS ja auf Hardwareunterstützung der Intel Plattformen geachtet haben oder (mal abgesehen von Windows 7 Kaby-Lake)?
 
Zuletzt bearbeitet:
Stimmt tatsächlich, hatte bis jetzt nur den E3-1220 gesehen. Da kann man natürlich auch auf den 1230 v5/v6 gehen.

Du musst halt schauen, was das Board kann zB wegen Grafik: meine CPU hat keine integr. Grafik - was bei meinem Board nichts macht, da alles vorhanden. Gibt aber Boards, die benötigen für die Grafik eine passende CPU - meine bei Xeon wären es die "ungeraden" Modelle - also zB Er-1245 oder so

Was die Storage VM angeht, die soll wirklich nur als Datenablage dienen und die VMs sollen aus dem ESXi gestartet werden, auf dem auch die Storage VM läuft. Zumindest ist so der Plan, da XPEnology soweit ich das überblicke keine für mich zufriedenstellende Virtualisierung parat stellt und auch OS wie NAS4Free oder FreeNAS nicht die Könige der Virtualisierung sind oder liege ich da falsch?
Zum Raid: Das soll eigentlich XPEnology übernehmen. Daher ja auch die Weiterreichung des Controllers, sodass das OS das Raid übernehmen kann.

ich meinte eher: VON WO AUS die VMs gestartet werden, also aus welchem Storage. Aber ich nehme an du legst alle VMs auf einer Platte ab und die restlichen gibst du an die Storage VM.
Worauf ich hinaus will: Wenn du den Controller an die Storage VM durchreichst, sieht der ESX sämtliche Platten nicht mehr, die am Controller hängen. In meinem Fall bleibt dann also nur noch M.2 für die VMs (da nve nicht sata).
D.h. auch, du hast für deinen VM-Storage (also bei mir zB M.2) - kein RAID / Ausfallsicherheit. Evtl. kannst du damit aber gut leben, weil du z.B. die VMs einfach ab und zu sicherst / nicht kritisch sind.

Virtualisierung bei OMV, FreeNAS und co habe ich nicht ausprobiert - aber funktioniert denke ich schon. Kommt darauf an, was man machen will - also zB "muss" es ESXi sein oder können die VMs auch unter VirtualBox, VMware Workstation etc laufen (gibt ja auch docker + co).
Wenn du keinen ESX brauchst tust du dich halt leichter - dann musst du nix druchreichen - u.U. nicht mal Server-Hardware etc. (installierst ja dann dein NAS-System direkt auf die Hardware und kannst die Platten nutzen wie du magst)


Für eine reine Storage-VM wäre evtl. auch das hier interessant: http://napp-it.de/doc/downloads/napp-in-one.pdf


Das System sieht ja ziemlich klasse aus, ungefähr soetwas wollte ich mit meinem Eigenbau auch verwirklichen. Wobei ich die 4xGbE nicht benötige. Daher hab ich jetzt mal einen neuen Vorschlag erarbeitet und tendiere gerade deutlich zum Eigenbau anstatt die Fertiglösung des ML10.

Danke ... den ML10 gibts ja echt günstig ... mit dem Eigenbau wirst du m.E. teurer kommen. Dafür kannst du es besser anpassen - aber die Frage ist, ob du das brauchst.
4x GbE hatte/habe ich nur, weil ich div. Dinge testen wollte (zB Firewall mit ext/int/dmz1/...) oder auch meherere GbE zusammenschalten


Also das Board ist sicher ok - hat zwar keinen M.2 - aber dafür 2 Controller mit massig SATA bzw SATA/SAS. Denke aber dran, dass du beim SAS-Controller unter ESX nicht RAID verwenden kannst (genau so wie beim Intel) - bin ich mir zumindest rel. sicher - musst mal nachsehen. Aber wollst RAID ja ohnehin via Storage-VM machen.

Zu den anderen Positionen:

SSD: dein Board hat kein M.2 Anschluß ;-)
RAM: nein! Unbedingt RAM verwenden, den Supermicro auch als getestet angibt (und zwar genau DAS Modell, nicht nur den Hersteller. Ist anders als bei Consumer-Boards).
Siehe: X11SSL-CF | Motherboards | Products - Super Micro Computer, Inc. "Tested Memory List" (16er Module)

Deine HDDs kenn ich nicht - aber wenn du die eh schon hast ...
 
Zuletzt bearbeitet:
Hoppla, wie ist denn das passiert... Du hast ja vollkommen Recht, da fehlt irgendwie der M.2 Slot. Hatte dann bei der Auswahl der Boards wohl nur auf den SAS-Controller geachtet und den M.2 vergessen. Das macht die Sache natürlich etwas komplizierter. Da werd ich dann wohl nochmal überlegen müssen, denn 400+€ ins Board zu stecken ist mir dann doch etwas viel.

VON WO AUS die VMs gestartet werden, also aus welchem Storage. Aber ich nehme an du legst alle VMs auf einer Platte ab und die restlichen gibst du an die Storage VM.
Worauf ich hinaus will: Wenn du den Controller an die Storage VM durchreichst, sieht der ESX sämtliche Platten nicht mehr, die am Controller hängen. In meinem Fall bleibt dann also nur noch M.2 für die VMs (da nve nicht sata).
D.h. auch, du hast für deinen VM-Storage (also bei mir zB M.2) - kein RAID / Ausfallsicherheit. Evtl. kannst du damit aber gut leben, weil du z.B. die VMs einfach ab und zu sicherst / nicht kritisch sind.

Korrekt, so war der Plan. Die VMs alle auf der M.2 SSD (hier muss jetzt ein passenderes Board gesucht werden) und die beiden 8TB Platten an die Storage VM durchreichen. Raid für die VMs ist mir nicht wichtig, da eine externe Sicherung gemacht werden kann. Und innerhalb der Storage VM soll das Raid eben vom OS übernommen werden.

Sind ja dann doch einige Punkte mehr zu beachten bei einem Eigenbau. Da muss ich glaub ich noch einiges mehr an Zeit investieren. Ich fand auf den ersten Blick als VM Verwaltung den ESX ne super Sache. Der sah wunderbar aufgeräumt aus und hatte für mich persönlich alles direkt parat. Hab mal kurz bei Proxmox reingeschaut, das war mir persönlich etwas zu unübersichtlich und bei nem Hyper-V Server sitzt halt ne Menge Arbeit drin. Daher werde ich wohl auf die Suche nach der Hardwareunterstützung von ESXi 6.5 gehen und mal nachschauen, was hier denn alles gegeben ist. Vielleicht muss ich auch einfach meine Ansprüche runter schrauben und mich mit einfacherer Virtualisierung in FreeNAS o.ä. beschäftigen.

Fand das über den ESXi nur so klasse, da ich gedacht hatte man kann hier doch relativ flott produktiv Systeme anschmeißen, die dann zum experimentieren genutzt werden und dann wieder auf Ausgangszustand gesetzt werden. Sodass der normale Rechner etwas aufgeräumt ist. Eine VM für Internetbrowsing, die persönlichen Daten auf ner anderen VM (natürlich mit externer Sicherung), die Storage VM für Mediendateien und unwichtige persönliche Daten und dann alle VMs einfach erreichbar per Browser auf einem stromsparenden Rechner. So war der Plan um das alles etwas getrennt zu halten.

Von napp-it hatte ich bis jetzt nur am Rande gehört und mich noch nicht wirklich eingelesen. Wenn ich das aus dem PDF richtig herauslese, geht es darum, dass das OS ebenfalls die Storage Verwaltung übernimmt? Also hier das ganze auf Basis von ESXi läuft und dann ähnlich wie XPEnology ein OS aufgezogen wird, welches eigene Möglichkeiten für den Storage Pool und Freigaben besitzt?
 
wenn du nicht auf die 6 + 8 SATA/SAS Ports angewiesen bist, sondern dir 6-8 SATA Ports (+M.2) auch reichen, da gibt von SM ja noch mehr Boards (siehe Liste). Der Intel AHCI-Controller lässt sich auch komplett an eine VM durchreichen (bisher getestet mit Linux/OMV).
Wenn du mehrere VMs produktiv laufen hast, macht es evtl. wirklich Sinn, die Virtualisierung "unten" als Basis zu haben. Gleiches gilt wenn du Erfahrung sammeln willst / was testen willst, wie es "in echt" (also draußen in der Welt) gemacht wird ;-)

Napp-it sehe ich mir auch gerade an - da gibts auch eine fertige VM (alternativ könnte man es auch direkt auf der Hardware installieren, aber ist ja nicht dein Anwendunsfall). So wie ich es sehe, ist es hier eben ein Storage-System im ursprünglichen Sinne - also Storage mögl. (ausfall-)sicher zur Verfügung zu stellen, ohne zusätzlichen Extras wie OwnCloud, VMs, MediaStreaming, ... (sowan kann man dann ja über eine extra VM machen).
Verwendet auch ZFS wie die "richtigen" NAS-Systeme.
 
Ich denke das 6+8 mehr ist als ich erstmal brauche. Es werden aufjedenfall fürs Erste die 6-8 (+M.2) reichen und wenn dann irgendwann Bedarf besteht, kann man ja noch einen Storagecontroller dazu kaufen. Lässt sich der AHCI denn auch nur für einzelne Platten durchreichen oder gibt der dann alle angeschlossene weiter? (Würde zwar fürs erste wenn die 500GB M.2 SSD da ist ausreichen wenn alle durchgereicht werden, aber vllt wäre es nett mal eine HDD noch für VMs zu haben)

Dann käme wohl am ehesten das Board in Frage: Supermicro X11SSh-F-retail

Aber genau deshalb war die Virtualisierung als Basis und nicht der Storage als Basis gedacht. Da werd ich dann mal schauen, was ich alles damit erreichen kann.
Ist es über Napp-it machbar eine NFS freigabe zu realisieren? Das würde ja fürs erste reichen. Damit hat man ja bei Kodi alles schon bereitgestellt. (SMB geht natürlich auch)
 
Zuletzt bearbeitet:
Ich denke das 6+8 mehr ist als ich erstmal brauche. Es werden aufjedenfall fürs Erste die 6-8 (+M.2) reichen und wenn dann irgendwann Bedarf besteht, kann man ja noch einen Storagecontroller dazu kaufen. Lässt sich der AHCI denn auch nur für einzelne Platten durchreichen oder gibt der dann alle angeschlossene weiter? (Würde zwar fürs erste wenn die 500GB M.2 SSD da ist ausreichen wenn alle durchgereicht werden, aber vllt wäre es nett mal eine HDD noch für VMs zu haben)

Im Prinzip kann man auch einzelne Platten durchreichen (raw disk mapping), allerdings hatte ich damit (bzw. evtl. lags an der Kombination mit Energiespar/Spindown) Probleme, dass die HDDs dann von der VM auf einmal nicht mehr gefunden wurden. Könnte auch ein Problem Controller <> ESX <> HHDs sein, also speziell mit meiner Kombo. Mit dem kompletten Controller hatte ich keine Probleme.

Aber: Du kannst auf den Platten, die deine STorage-VM verwaltet, ja auch eine Freigabe für NFS oder iSCSI machen und die im ESX anbinden. Dann kannst du von dort aus weitere VMs starten - im Prinzip muss dann nur deine Storage VM auf der M.2 liegen - und halt vor allen anderen gestartet werden.


Dann käme wohl am ehesten das Board in Frage: Supermicro X11SSh-F-retail

Ist sicher ein gutes Board - aber *wenn* du ohnehin ein großes Gehäuse nimmst, kannst du auch ATX nehmen. Meins hat M.2. mit PCIe 3.0 x4 angebunden - das o.g. "nur" mit 2x - wobei man mal nachlesen müsste, ob 2x nicht mehr ist, als die SSD schafft?. Ggf. noch Form Factor der M.2 beachten (bei meinem gehen "all"). Evtl. hab ich weg. dem x4 auch nur 6 SATA-Ports? Ka.
Zum Glück hat SM ja x Variationen bei den Boards, so dass man da eigentlich fündig wird.
Nachrüsten von SATA/SAS via Controller (ohne RAID) geht natürlich auch - aber dann geht auch der Verbrauch etwas hoch, denke ich.

Aber genau deshalb war die Virtualisierung als Basis und nicht der Storage als Basis gedacht. Da werd ich dann mal schauen, was ich alles damit erreichen kann.
Ist es über Napp-it machbar eine NFS freigabe zu realisieren? Das würde ja fürs erste reichen. Damit hat man ja bei Kodi alles schon bereitgestellt. (SMB geht natürlich auch)

spontan: ja und ich denke mal iSCSI auch - aber hier gibts einen user "gea" (?) der da glaube ich fit ist - siehe z.B. im "ZFS Stammtisch" thread
 
Ist es über Napp-it machbar eine NFS freigabe zu realisieren? Das würde ja fürs erste reichen. Damit hat man ja bei Kodi alles schon bereitgestellt. (SMB geht natürlich auch)

Napp-it ist ein Tool um aus einem vorzugsweise Solaris basiertem General-Use Enterprise OS ein per Browser bedienbares ZFS NAS/SAN zu machen. iSCSI, NFS und SMB werden bei Solaris von Oracle oder Illumos bereitgestellt/ gepflegt und sind daher immer dabei und voll in das OS und ZFS integriert und mit napp-it lediglich eine On/Off Aktion im Menü ZFS Dateisysteme.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh