Erstes eigenes NAS / Heimserver bauen - Feedback erwünscht

suckerpuncher

Enthusiast
Thread Starter
Mitglied seit
26.11.2004
Beiträge
13
Hallo,

ich möchte mir ein NAS / Heimserver zulegen, bin aber nicht sicher, ob eine Fertiglösung oder einen Eigenbau. Vielleicht könnt ihr mir das ja weiterhelfen.
Ein wenig umgeschaut habe ich mich hier schon einmal, aber ganz firm, vor allem was die Softwareseite angeht, bin ich natürlich nicht, aber das kann man ja später noch genauer klären.
Wenn ich das richtig sehe, dann kostet eine vernünftige Fertiglösung inkl. eines RAM Upgrades auf 8GB ca. €400 und ein Eigenbau mit vernünftigen Komponenten inkl. 16GB RAM ca. €500.

Bisher nutze ich einfach ein 2.5" externen HDD, die ich dann zwischen den TV's hin- u. herwechsle. Ein TV ist noch etwas älter, das ist kein Smartgerät, da nutze ich einen Odroid C2 mit Libreelec, da der problemlos (fast) alle H265 Sachen abspielt. Der andere TV ist ein LG mit WebOS, der kan zumindest schon einmal direkt die meisten normalen Sachen abspielen, aber beim H265 muss ich dann auch wieder auf den Odroid C2 zurückgreifen. Das sollte mit dem NAS dann nicht mehr sein, zumindest letzteres, da ja auch das NAS aus dem non-Smart TV keinen Smart TV zaubern kann. Aber wenn der mal ersetzt wird, dann sollte es halt gleich direkt laufen.
Insgesamt sollen erstmal nur max. 2 TV's gleichzeitig auf den Medienserver zugreifen und dazu


Hier mal etwas genauer, was das neue NAS / Server dann für Aufgaben erledigen soll:
1. Fileserver - idealerweise später um zusätzliche HDD erweiterbar, das scheint ja per ZFS Raid-Z1 o. Z2 nicht möglich zu sein. Oder auch erstmal mit RAID1 anfangen und dann später auf RAID5 upgraden. Welche Möglichkeiten gibt es?

2. Mediaserver - damit möglichst alle Geräte ohne zusätzliche Hardware H265 abspielen können. Geht das mit Plex oder Kodi?

3. Downloadserver - für Sachen wie JDownloader2 oder um Spiele von Steam oder GOG stromsparend herunterzuladen, Frage ist, welches OS dafür dann in Frage kommt.

4. Open-VPN Server - über den dann alle PC's und die TV's nach draußen kommunizieren. Ist jetzt nicht sofort ein Must-Have, aber später vielleicht keine schlechte Idee.

Und sicher dann später noch etwas mehr, was mir jetzt so direkt gar nicht in den Sinn kommt.

Als Unterbau wird sicher EXSI herhalten, aber was die Umsetzung der einzelnen Aufgaben angeht, da bin ich mir noch nicht sicher und auf euren Input angewiesen.


Hier wäre einmal, was ich mir, nach dem Studium des Forums, zusammengestellt habe. Vielleicht könnt ihr ja eure Meinung dazu abgeben.

Intel Pentium Gold G4600, 2x 3.60GHz, boxed Preisvergleich Geizhals Deutschland
Fujitsu D3417-B2/D3417-B21 Preisvergleich Geizhals Deutschland
Kingston ValueRAM DIMM 16GB, DDR4-2400, CL17-17-17-32 Preisvergleich Geizhals Deutschland
Intel SSD 540s 120GB, SATA Preisvergleich Geizhals Deutschland
be quiet! Pure Power 10 400W ATX 2.4 Preisvergleich Geizhals Deutschland
https://geizhals.de/cooler-master-n300-nse-300-kkn1-a943578.html?hloc=at&hloc=de

Gleich noch ein paar Fragen dazu?
a. Ist das Netzteil ok, oder sollte es mehr oder weniger Power haben. Geplant sind erst mal 2-3 normale HDD und 1 SSD und ggf. 1 USB-Stick. Später vielleicht noch mehr HDD.
b. Ist die SSD ok zum Booten? Das Board unterstützt ja M2 via PCIe. Oder gibt es andere SSD mit 120GB, die sich dafür besser eigenen?
c. Oder sollte ich zum Booten von ESXI einen USB-Stick nehmen mit 32GB und die SSD nur für die VM's nehmen? Wenn ja, welche USB-Stick wäre da empfehlenswert?
d. Ist das Gehäuse ok? Es soll weder gut Aussehen, noch muss es sonderlich leise sein, da es in einem extra Raum stehen wird. Wichtig ist nur, dass die HDD drin Platz haben und man später noch mehr HDDD hineinbekommt.

Als HDD wären entweder 2x 4TB WD Red als RAID1 oder 3x 3TB WD Red als RAID5 o.ä. angedacht, wobei die RAID1 Variante dann später mal auf RAID5 hochstufbar bzw. Variante 2 um weitere HDD erweiterbar sein sollte.


Das war jetzt erst einmal alles, was mir so spontan einfällt.
Ich hoffe, auf euer Feedback. Falls ich etwas zu umständlich gemacht oder gedacht habe, dann könnt ihr mir das ruhig sagen. Oder auch nachfragen, falls es undeutlich ist.

Danke schon einmal im Voraus.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mit nem 300W-Netzteil kannste das Board, nen Xeon und 6 HDDs betreiben, kein Problem.
 
Gehäuse: Nanoxia Deep Silence 2 anthrazit, schallged Geizhals Deutschland
+ die HDDs lassen sich leichter wechseln (Querliegend auf einzelnen Trays - ich würde heute nach Möglichkeit kein Gehäuse mehr mit längs eingebauten HDDs nehmen, es sei denn Hot/Cold-Swap Schächte)
+ gedämmt

Inter-Tech IT-9908 Aspirator Preisvergleich Geizhals Deutschland
+ Hot Swap HDD Schächte (intern)

Wenn du ESXi als Hypervisor einsetzen willst, bedenke, daß du für die Storage VM den HBA-Controller an diese durchreichen solltest, damit fällt das Booten von einer SSD an dem selben Controller aus.
- entweder ESXi von USB booten und die Storgae VM auf dem Bootmedium mit drauf packen, hier könnte man einen USB/mSATA Adapter mit mSATA SSD nehmen
- oder einen weiteren HBA zum booten oder durchreichen einplanen - hier wären die LSI HBAs der Königsweg z.B. mit einem Supermicro X11SSL-CF retail Preisvergleich Geizhals Deutschland
(oder einem Supermicro X10SL7-F retail Preisvergleich Geizhals Deutschland mit 'ner Haswell CPU)

Anmerkung: Als Alternative kann man natürlich die einzelnen HDDs als RDM durchreichen, das kostet zum einem Performance und zu anderen hat die StorageVM keinen Zugriff auf die physikalsichen HDDs (z.B. Smart-Werte).

Wenn die Raidsets erweiterbar sein müssen, fällt ZFS aus (zumindest noch, es soll wohl was in Planung sein OCE / RLM für VDEVs zu ermöglichen).
Ob man zu Gunsten von OCE/RLM auf die Features von ZFS verzichten möchte, muß jeder selbst entscheiden.
Als Storage VM könnte man NAS4Free (dann mit LVM Raid und UFS als Dateisystem) oder OMV (EXT3 oder 4 ?) nehmen und gemäß "Gea's NappInOne" einen Teil des Speicherplatzes als NFS-Freigabe für weiter VMs an ESXi zurückgeben

Eine Weitere Alternative wäre Proxmox als Hypvisor und Storage - eine dedizierte Storage VM entfällt hier.
- kein dedizierter HBA für eine Storage VM nötig
- Proxmox kann von Haus aus auch ZFS, nur die Einrichtung / Verwaltung desselben geht mWn nur per Shell (Es gibt da bereits erste erfolgreiche Ansätze "Gea's Napp-It for Linux" unter Proxmox einzusetzen)

P.S. mit Proxmox habe ich selber noch nicht rumgespielt, N4F als StorageVM unter ESXi habe ich selber schon im Einsatz gehabt.
 
Oder bei ZFS Mirror-Pärchen einsetzen, geht natürlich dann auf die Netto-Speicherkapazität. Es lassen sich in Pools ja vdevs anfügen.
 
Oder bei ZFS Mirror-Pärchen einsetzen, geht natürlich dann auf die Netto-Speicherkapazität. Es lassen sich in Pools ja vdevs anfügen.
Ist natürlich eine Möglichkeit, die sogar die IOPS des Pools erhöht - für neue Daten, bereits vorhanden Daten werden nicht neu verteilt(wie es bei eine OCE oder RLM passiert)
ABER:
Der Redundanzlevel des gesamten Pools ändert sich nicht, es kann nach wie vor nur eine beliebige HDD im gesamten Pool ausfallen, fält die 2. HDD eines Spiegels aus, ist der gesamte Pool hinüber - analog zu Raid10.

So eine Konfiguration würde ich grundsätzlich nur aus Performancegründen erwägen, wenn SSDs keine Option bzw. zu Teuer sind .- und dann auch von vornherein so einrichten.
 
@suckerpuncher

Guck Dir mal unRAID an - das kostet zwar, aber ist jeden Cent wert und erfüllt all Deine Anforderungen. ;)

ZFS und Freenas ist alles ganz toll, aber meiner Meinung nach nicht die ideale Lösung für zu Hause.
 
Danke erst einmal für die vielen Tipps.

Mit nem 300W-Netzteil kannste das Board, nen Xeon und 6 HDDs betreiben, kein Problem.

Bis zu wie vielen HDDs reicht das 300W NT in dem Fall. Wäre ab 6 Schluss oder gingen auch noch mehr, vielleicht sogar 10+? Es soll je möglichst zukunftssicher sein.


Gehäuse: Nanoxia Deep Silence 2 anthrazit, schallged Geizhals Deutschland
+ die HDDs lassen sich leichter wechseln (Querliegend auf einzelnen Trays - ich würde heute nach Möglichkeit kein Gehäuse mehr mit längs eingebauten HDDs nehmen, es sei denn Hot/Cold-Swap Schächte)
+ gedämmt

Inter-Tech IT-9908 Aspirator Preisvergleich Geizhals Deutschland
+ Hot Swap HDD Schächte (intern)

Das mit dem Gehäuse und den querliegenden HDD Einschüben habe ich mir vermerkt.
Das standardmäßig genannte Nanoxia Deep Silence 4 sollte ja auch den Kriterien entsprechen: Nanoxia Deep Silence 4 anthrazit Preisvergleich Geizhals Deutschland


Wenn du ESXi als Hypervisor einsetzen willst, bedenke, daß du für die Storage VM den HBA-Controller an diese durchreichen solltest, damit fällt das Booten von einer SSD an dem selben Controller aus.
- entweder ESXi von USB booten und die Storgae VM auf dem Bootmedium mit drauf packen, hier könnte man einen USB/mSATA Adapter mit mSATA SSD nehmen
- oder einen weiteren HBA zum booten oder durchreichen einplanen - hier wären die LSI HBAs der Königsweg z.B. mit einem Supermicro X11SSL-CF retail Preisvergleich Geizhals Deutschland
(oder einem Supermicro X10SL7-F retail Preisvergleich Geizhals Deutschland mit 'ner Haswell CPU)

Ein Extra HBA lohnt sich derzeit einfach nicht für mich. Aber die wird man später dann ja noch nachkaufen können, wenn einer gebraucht wird. Nur aktuell und in absehbarer Zukunft werde ich den nicht benötigen.

Daher sollte es eigentlich beim Fujitsu bleiben. Dann kommt eine 120GB M2 SSD in einen USB-Stick.
Hat es gravierende Nachteile, wenn ich alle VM auf der SSD liegen haben, auf der auch ESXi läuft? Oder anders gesagt, würde es im einfachen Heimanwenderbereich einen Unterschied machen, ob ich eine kleine M2 USB SSD für ESXi nutze und dazu noch eine größe M2 USB SSD für die VMs?


Würde diese SSD in einem USB-Stick funktionieren?
Intel SSD 600p 128GB Preisvergleich Geizhals Deutschland

Und gibt es eine Empfehlung für so ein USB-Stick Gehäuse oder sind die alle mehr oder weniger gleich?


Anmerkung: Als Alternative kann man natürlich die einzelnen HDDs als RDM durchreichen, das kostet zum einem Performance und zu anderen hat die StorageVM keinen Zugriff auf die physikalsichen HDDs (z.B. Smart-Werte).

Wenn die Raidsets erweiterbar sein müssen, fällt ZFS aus (zumindest noch, es soll wohl was in Planung sein OCE / RLM für VDEVs zu ermöglichen).
Ob man zu Gunsten von OCE/RLM auf die Features von ZFS verzichten möchte, muß jeder selbst entscheiden.
Als Storage VM könnte man NAS4Free (dann mit LVM Raid und UFS als Dateisystem) oder OMV (EXT3 oder 4 ?) nehmen und gemäß "Gea's NappInOne" einen Teil des Speicherplatzes als NFS-Freigabe für weiter VMs an ESXi zurückgeben

Eine Weitere Alternative wäre Proxmox als Hypvisor und Storage - eine dedizierte Storage VM entfällt hier.
- kein dedizierter HBA für eine Storage VM nötig
- Proxmox kann von Haus aus auch ZFS, nur die Einrichtung / Verwaltung desselben geht mWn nur per Shell (Es gibt da bereits erste erfolgreiche Ansätze "Gea's Napp-It for Linux" unter Proxmox einzusetzen)

P.S. mit Proxmox habe ich selber noch nicht rumgespielt, N4F als StorageVM unter ESXi habe ich selber schon im Einsatz gehabt.

Würde es Probleme geben, wenn ich später mal beim Nachkauf von HDDs das RAIDZ1 wieder komplett neu aufbaue, wenn ich die alten Daten sowieso als Backup auf einer externen HDD gespeichert habe? Vielleicht dann sogar als RAIDZ2.
Davon ausgehend, dass regelmäßig ein Backup der wichtigen Daten gemacht wird und genug Speicherplatz dafür vorhanden ist.
Da könnte ich ja trotzdem ZFS nutzen, wäre dann wohl nur zeitaufwändiger beim Neuaufbau, oder geht das gar nicht?



@suckerpuncher

Guck Dir mal unRAID an - das kostet zwar, aber ist jeden Cent wert und erfüllt all Deine Anforderungen. ;)

ZFS und Freenas ist alles ganz toll, aber meiner Meinung nach nicht die ideale Lösung für zu Hause.

Danke, das werde ich mir dann auch mal genauer angucken.
Würde das Basis Paket erst mal reichen oder haben die anderen Pakete noch mehr Vorteile, als nur zusätzliche HDDs?
 
Bis zu wie vielen HDDs reicht das 300W NT in dem Fall. Wäre ab 6 Schluss oder gingen auch noch mehr, vielleicht sogar 10+? Es soll je möglichst zukunftssicher sein.

Pro 3,5"-HDD sollte man beim Netzteil 25 Watt für den Anlaufstrom einkalkulieren (zumindest solange es kein Profi-Serverboard mit Staggered Spinup ist). 10 Platten mit 300W halte ich für zu knapp, das restliche System will ja auch noch etwas Strom abhaben.

Spin-up - Wikipedia
 
Natürlich ist das technisch kein Problem, die Daten eines Zfspools zu sichern, den Pool platt zu machen und mit neuen/zusätzlichen HDDs wieder zu betanken. Der Backup-/Zwischenspeicher muss halt die Daten zuverlässig haben.
Noch einfacher wird es, wenn das Backupsystem auch ZFS hat. Denn dann kannst einfach ein Snapshot eines Datasets übers Netz (via netcat oder SSH) auf den Backup-Pool senden und von dort wieder zurück.
ZFS hat dafür entsprechende Kommandos (zfs send / zfs receive). Das funktioniert auch mit verschiedenen Plattenkonfigurationen und auch inkrementell auf Wunsch.

Aus diesem Grund hab ich 2 ZFS-Storageserver: eine Hauptmaschine und eine Backupmaschine, die auch nur Backups speichert und sonst ausgeschaltet ist. Verbunden via 10Gbit-Lan, so dass auch TB-starke Backups kein Thema sind. Die Backupmaschine ist halt etwas kostengünstiger bzgl. CPU, Speicher, Controller und SSD/HDDs konfiguriert, während die Hauptmaschine reichhaltiger ist.

Tipp: die kleinen E3-Xeon Server von Dell, HP und Fujtisu sind da recht brauchbare und manchmal recht günstig erwerbbare Plattformen. Ansonsten eben als Standardempfehlung die Haswell- und Skylake/Kabylake-Mainboards von Supermicro, Asrock Rack oder Fujtisu. Ein paar wurden ja schon genannt (X10SL7, X11SSx-*). Wenn Du mal die Remotesteuerung (IPMI z.B.) kennst und nutzt, willst Du sie nicht mehr missen.

Meine aktuelle Hauptmaschine siehst Du hier im Forum von innen.
 
Zuletzt bearbeitet:
Das DS2 hat einen HDD Schacht mehr als das DS4

Zum Thema Netzteil:
Y-Kabel um genügend Stromanschlüsse für die HDDs zu haben sind praktikabel, aber eine gern genommene "Fehlerquelle" >> bei 4-6 HDDs sehe ich da mit 300 Watt noch keine Leistungsgrenze eher zu wenig Anschlüsse :)


zum Thema weitere VMs:
Bei ESXi packt man nur die Storage VM auf das Bootlaufwerk, die anderen VMs kommen dann auf einen per NFS bereitgestellten Speicherplatz - den kann auch die Storage VM bereitstellen.
 
Meine Meinung als laie: Weshalb nicht einfach EIN Linux als unterbau, darauf Openmediavault für den FS, Plex für die Medien und Jdownloader auch direkt aufs Linux drauf?
Evt kommt meine idee auch daher, da ich keine Ahnung von ESXi habe ^^

Bei mir läuft ein kleiner HPE Gen10 Würfel mit debian, daurauf OMV und Deluge. funzt super :)

die Videogeschichte ist so eine geschichte ^^ Transcoding, gerade von grösseren Files benötigt zimlich viel Rechenpower... (Syno 214play mit Atom 1.6ghz dualcore hatte für Plex nicht genügend Saft....)
besser wäre es die Files nativ abspielen zu können --> Pi mit Kodi drauf als Bsp
 
Danke erst einmal für die vielen Tipps.



Bis zu wie vielen HDDs reicht das 300W NT in dem Fall. Wäre ab 6 Schluss oder gingen auch noch mehr, vielleicht sogar 10+? Es soll je möglichst zukunftssicher sein.




Das mit dem Gehäuse und den querliegenden HDD Einschüben habe ich mir vermerkt.
Das standardmäßig genannte Nanoxia Deep Silence 4 sollte ja auch den Kriterien entsprechen: Nanoxia Deep Silence 4 anthrazit Preisvergleich Geizhals Deutschland




Ein Extra HBA lohnt sich derzeit einfach nicht für mich. Aber die wird man später dann ja noch nachkaufen können, wenn einer gebraucht wird. Nur aktuell und in absehbarer Zukunft werde ich den nicht benötigen.

Daher sollte es eigentlich beim Fujitsu bleiben. Dann kommt eine 120GB M2 SSD in einen USB-Stick.
Hat es gravierende Nachteile, wenn ich alle VM auf der SSD liegen haben, auf der auch ESXi läuft? Oder anders gesagt, würde es im einfachen Heimanwenderbereich einen Unterschied machen, ob ich eine kleine M2 USB SSD für ESXi nutze und dazu noch eine größe M2 USB SSD für die VMs?


Würde diese SSD in einem USB-Stick funktionieren?
Intel SSD 600p 128GB Preisvergleich Geizhals Deutschland

Und gibt es eine Empfehlung für so ein USB-Stick Gehäuse oder sind die alle mehr oder weniger gleich?




Würde es Probleme geben, wenn ich später mal beim Nachkauf von HDDs das RAIDZ1 wieder komplett neu aufbaue, wenn ich die alten Daten sowieso als Backup auf einer externen HDD gespeichert habe? Vielleicht dann sogar als RAIDZ2.
Davon ausgehend, dass regelmäßig ein Backup der wichtigen Daten gemacht wird und genug Speicherplatz dafür vorhanden ist.
Da könnte ich ja trotzdem ZFS nutzen, wäre dann wohl nur zeitaufwändiger beim Neuaufbau, oder geht das gar nicht?





Danke, das werde ich mir dann auch mal genauer angucken.
Würde das Basis Paket erst mal reichen oder haben die anderen Pakete noch mehr Vorteile, als nur zusätzliche HDDs?

Nein! Der Unterschied liegt nur bei der Anzahl von verwendeten Platten. Grundsätzlich halte ich unRAID im Homebereich neben OMV für eine sehr ernste Geschichte. Sol toll Freenas auch ist, so würde ich dieses definitiv im Profibereich einsetzen, aber nicht zu Hause, wo man vielleicht auch auf Energie, Stabilität, einfache Bedienbarkeit usw. achtet. ;)
 
zum Thema weitere VMs:
Bei ESXi packt man nur die Storage VM auf das Bootlaufwerk, die anderen VMs kommen dann auf einen per NFS bereitgestellten Speicherplatz - den kann auch die Storage VM bereitstellen.
Dann würde ich also in der Storage VM bzw. einen virtuellen Pool aus bspw. 75% des restlichen Speicherplatzes der SSD erstellen und den dann per NFS an EXSi zuweisen? Oder womit erstellen ich dann den benötigten Pool für die zusätzlichen VM?

Dann wäre es vielleicht einfacher einen 32GB Stick für EXSi und die Storage VM zu nehmen und dann eine 120GB SSD per SATA anzuklemmen für die anderen VMs. Dann würde am Ende sicher irgendwann mal ein Anschluss für eine HDD fehlen, da dieser von der SSD belegt wird, aber das sollte nicht tragisch sein.
Bzw. ginge mit dem Boot Stick die Variante dann ein M2 SSD, da diese ja per PCIe angesprochen wird im Fujitsu? Oder kommt es dann wieder zu dem von dir oben erwähnten Problem mit dem Durchreichen?

Vielleicht nehme auch auch das Supermicro X11SSL ansatt des Fujitsu, da überlege ich noch mal wegen des IPMI.
 
Die klassischen ESXi@Home Varianten sind wohl wie folgt:

Ausgangsbasis
Hardware: Onboard SATA, HBA, 1x kleine SSD (~64GB), diverse HDDs (Datengrab) und ggf. zusätzliche SSDs (Speicher für VMs)
Hardware-Konfig: kleine SSD an Onboard SATA, Rest (HDDs + zusätzliche SSDs) an HBA
Software-Konfig: ESXi auf kleine SSD an Onboard SATA, Storage-VM (auch) auf kleine SSD an Onboard SATA, HBA mit allen anderen Datenträgern dran per PCIe an Storage-VM durchreichen, Storage-VM reicht für weitere VMs Platz auf HDDs/SSDs per NFS zurück an ESXi.

Nun kann man diverse Abwandlungen davon fahren, indem man einzelne Speicherplätze ersetzt.

Dabei ist eben die Grundanforderung, dass der Speicherplatz der Storage-VM einerseits, und der Speicherplatz für die sonstigen VMs andererseits, an unterschiedlichen Kontrollern angebunden sein müssen (und eben nicht nur auf unterschiedlichen Datenträgern liegen!).

Umgekehrt können ESXi und die Storage-VM am gleichen Kontroller und sogar auch auf dem gleichen Datenträger liegen (müssen aber nicht).

Interessant ist auch, dass ESXi selbst in Sachen Datenspeicher "für sich selbst" total unempfindlich ist, also Schreib- und Leseleistung eigentlich keine Rolle spielen, da ESXi nach dem Booten allein im RAM läuft. Schneller Speicher beschleunigt also nur die Bootgeschwindigkeit (die uns bei 24/7-Dauerläufern ja ziemlich wurscht ist).

Daher gibt es ganz unterschiedliche Kombinations- und Konfigurationsmöglichkeiten, quasi um den HBA zu sparen:

USB: ESXi + Storage-VM auf USB-Stick. Nachteil: Storage-VM könnte durch Schreibzugriffe zu einem schnelle(re)n Tod des USB-Sticks führen. Kann man durch einen besseren Stick (oder SSD in USB-Gehäuse statt/zusätzlich zum Stick) ausgleichen. Vorteil: SATA-Kontroller frei, kann also an Storage-VM durchgereicht werden --> kein zusätzlicher HBA nötig.

PCIe: ESXi + Storage-VM auf PCIe-SSD. Wie oben USB (Onboard bleibt frei), nur anderer Speicherplatz. Die Performance eine PCIe-SSD ist aber meistens für das OS in der Storage-VM "Perlen vor die Säue". Dann lieber die PCIe-SSD auch an die Storage-VM durchreichen und per NFS Speicherplatz zurückreichen... ;)

Gibt noch mehr, aber das sollte die Grundideen aufzeigen.

Meine Meinung: sauberer ist die Lösung mit HBA und die 50-80 Euro sollten da nicht den Ausschlag geben.
 
Zuletzt bearbeitet:
@besterino

Danke für die ausführliche Erklärung. Ich hoffe, dass ich es auch richtig verstanden habe.

Die PCIe Variante auf dem Fujitsu Board wäre realisierbar mit Folgendem:
Transcend MTS800S 64GB Preisvergleich Geizhals Deutschland
Intel SSD 600p 128GB Preisvergleich Geizhals Deutschland
CSL - SSD Festplattengeh Zubehör

In das USB-SSD Gehäuse kommt dann die 64GB SSD, darauf kommt dann ESXi + Storage VM und die große SSD kommt an den M.2 PCIe Slot des Boards und wird dann für die anderen VM's als NFS durchgereicht und dazu auch der OnBoard SATA Controller für die HDDs.


Die PCIe Variante würde auf dem Supermicro X11SSL nicht funktionieren, da dem Board ja der M.2 Key Anschluss fehlt. Da müsste dann die große SSD in das USB-SSD Gehäuse, EXSi + Storage VM drauf und SATA durchreichen. Aber wie nutze ich dann den Rest des Platzes der SSD für die anderen VM? Kann man der Storage VM auf der SSD ein NFS erstellen und dort dann die anderen VMs laufen lassen? Oder besser beide SSD in so ein USB-SSD Gehäuse und dann auf die kleine wieder ESXi + Storage VM und den 2. Stick mit der großen SSD direkt durchreichen für die anderen VMs.


Danke für eure Geduld und sorry, falls die Fragen teilweise etwas banal für euch klingen.
 
@besterino

Danke für die ausführliche Erklärung. Ich hoffe, dass ich es auch richtig verstanden habe.

Die PCIe Variante auf dem Fujitsu Board wäre realisierbar mit Folgendem:
Transcend MTS800S 64GB Preisvergleich Geizhals Deutschland
Intel SSD 600p 128GB Preisvergleich Geizhals Deutschland
CSL - SSD Festplattengeh Zubehör

In das USB-SSD Gehäuse kommt dann die 64GB SSD, darauf kommt dann ESXi + Storage VM und die große SSD kommt an den M.2 PCIe Slot des Boards und wird dann für die anderen VM's als NFS durchgereicht und dazu auch der OnBoard SATA Controller für die HDDs.
Ja, wenn du die 128 GB PCIe SSD an die Storage VM durchreichst.


Die PCIe Variante würde auf dem Supermicro X11SSL nicht funktionieren, da dem Board ja der M.2 Key Anschluss fehlt. Da müsste dann die große SSD in das USB-SSD Gehäuse, EXSi + Storage VM drauf und SATA durchreichen. Aber wie nutze ich dann den Rest des Platzes der SSD für die anderen VM? Kann man der Storage VM auf der SSD ein NFS erstellen und dort dann die anderen VMs laufen lassen? Oder besser beide SSD in so ein USB-SSD Gehäuse und dann auf die kleine wieder ESXi + Storage VM und den 2. Stick mit der großen SSD direkt durchreichen für die anderen VMs.
Nein!
Passthrough ist exclusiv! Das Bootmedium steht somit nicht für die Storage VM zur Verfügung.

Es bleibt bei der 64 GB M2 SSD (32 GB würde auch reichen) für ESXi und Storage VM
Dann kannst du beide SAS/SATA Controller (Broadcom und Intel) an die Storage VM durchreichen und kannst der Storage VM somit insgesamt 14 physikalische Laufwerke (HDDs /SSDs) zur Verfügung stellen.
für die VMs nimmst du dann halt 2 gute und schnelle SSDs als Spiegel (ZFS Mirror, Raid 1) oder 4 davon als Raid 10 (erhöht den Durchsatz) oder halt auch nur eine SSD.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh