Homeserver als NAS Ersatz

esquire1968

Experte
Thread Starter
Mitglied seit
30.03.2015
Beiträge
170
Hallo zusammen!

Nachdem meine beiden QNAPs nur wirklich in die Jahre gekommen sind und darüber hinaus der Platz knapp wird, überlege ich mir stattdessen einen Server zu kaufen oder zusammen zu schrauben. Ein leistungsfähigeres NAS ist für mich keine Alternative - mit 6 HDD Einschüben und 16 GB RAM zu teuer.

Meine geplanten Anwendungen:

ESXI zur Virtualisierung

/FreeNAS - virtualisiert
- Backup von 4 PCs
- OwnCloud
- Sync mit verschiedenen Clouds
- Fileserver für bis zu 6 Anwender
- Mediaserver (Twonky und Minim)

/pfSense (virtualisiert) - eventuell

/debian (virtualisiert)
- verschiedenen kleine Anwendungen

Ein paar weitere Anwendungen zum Testen kommen im Laufe der Zeit sicher noch dazu.

Das Betriebssystem sollte auf einer M.2 SSD laufen. Für den Fileserver stelle ich mir 4x 6 TB HDD in einem Raid 5 Verbund vor. Gerne würde ich noch 2 Wechselplatten zum Sichern verwenden.

Ich habe seit einiger Zeit einen kleinen Digitus Netzwerkschrank (12 HE) im Einsatz - allerdings mit einer geringen Tiefe von 45 cm. Ich würde den Server natürlich gerne in den Schrank packen.

Mir ist durchaus bewusst, dass es nicht gelingen wird einen Server zu betreiben, der so wenig Strom wie ein NAS benötigt, denoch wäre ein halbwegs vernünftiger Stromverbrauch wünschenswert. Ich habe einmal versucht, eine Konfiguration zusammen zu stellen, die viel Performance bringt und preislich für mich noch OK ist.

Gehäuse: 19" Server Gehäuse 4HE - https://www.amazon.de/gp/product/B007PDRZ76/ref=ox_sc_act_title_1?smid=A1H323GVYZCPC0&psc=1
Mainboard: Supermicro X10SRM-F - https://geizhals.at/supermicro-x10srm-f-retail-mbd-x10srm-f-o-a1441445.html?hloc=at
Prozessor: Intel Xeon E5-2609 v4, 8x 1.70GHz - https://geizhals.at/intel-xeon-e5-2609-v4-bx80660e52609v4-a1394446.html?hloc=at
RAM: Intenso Desktop Pro DIMM Kit 16GB, DDR4-2133, CL15 - https://geizhals.eu/intenso-desktop-pro-dimm-kit-16gb-5641162-a1528392.html?hloc=at
SSD: SSD Intel SSD 600p 256GB, M.2 - https://geizhals.eu/intel-ssd-600p-256gb-ssdpekkw256g7x1-ssdpekkw256g7x3-a1491161.html?hloc=at
HDD: HGST Deskstar NAS 6TB, SATA 6Gb/s - https://geizhals.eu/hgst-deskstar-nas-6tb-h3iknas600012872sww-0s04007-a1575663.html?hloc=at

Meine Fragen dazu:

1) Pass die Hardware zusammen bzw. ist diese sinnvoll? Was sollte ich verändern?
2) Wo könnte ich etwas sparen? Diese Konfig ist mit rund 1800 Euro (mit 4 HDDs) eher am oberen Rand!
3) Wie schaut es mit dem Stromverbrauch aus?
4) Ein Netzteil fehlt noch, wie gross sollte ich das dimensionieren?
5) Lässt sich das in dem Gehäuse überhaupt realisieren?
6) Beim Prozessor habe ich auf Taktfrequenz zu Gunsten der 8 Kerne verzichtet, sinnvoll für Virtualisierung.
7) Gibt es eine "fertige Lösung" als Alternative?

Vielen Dank für Eure Unterstützung und beste Grüße aus Wien!
Thomas
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sorry, beim RAM würde ich auf irgendwas namhafteres gehen, aber nicht Intenso. Außerdem würde ich dann auch Registered ECC nehmen - wie es die Specs vom Mainboard vorsehen: Supermicro | Products | Motherboards | Xeon Boards | X10SRM-F

Willkommen jedenfalls schon einmal in der tollen, aufregenden Serverwelt! :)

Dazu ein paar Denkanstöße:

Deine E5-CPU hat kein Hyperthreading. Auf 8 Threads kommst du auch mit der eher günstigeren E3-Plattform (also Xeon E3-12xx v5/6 und Sockel 1151) bei dann auch deutlich mehr Takt: Intel mit Prozessortyp: Xeon E3-1200 v5/Xeon E3-1200 v6, Threads: ab 8 Preisvergleich Geizhals Deutschland Warum also E5 und 2011-3? Die Basis lohnt sich m.E. vor allem, wenn man eben mehr Threads (oder 2 CPU-Sockel) will, als 1151 bietet. Oder eben PCIe-Lanes, aber die brauchst du dann auch nicht wirklich für deinen skizzierten Einsatzzweck.

Auch fehlt noch der klassische SAS HBA zum Durchreichen an die Storage-VM in Deiner Liste.

Eine rein persönliche Anmerkung: ich hab die Intel p600 256GB und find die ziemlich Kacke. Zickig in bestimmten (zugegeben ausgefalleneren) Konstellationen und eher von der lahmen Sorte. Würde ich nicht wieder kaufen sondern lieber entweder eine gute SATA-SSD oder eben eine wirklich flotte PCIe-SSD wie Samsung 960 Evo/Pro.

Wahrscheinlich kannst Du mit einem Wechsel zu Sockel 1151 und Xeon E3 ein paar Euro sparen, die du dann für den HBA brauchst und in ECC-RAM stecken solltest und ggf eine bessere SSD investieren kannst.

Bei weiteren Fragen: fragen! :d
 
Ich hatte gerade ähnliche Anforderungen und habe diese mit folgender Einkaufsliste gelöst:

1 Inter-Tech KT016 (88885376)
1 Intel SSD Pro 6000p 128GB, M.2 (SSDPEKKF128G7X1)
1 Adaptec mini SAS HD x4 (SFF-8643) auf 4x SATA (SFF-8448) Kabel, 0.8m (2279800-R)
1 Intel Xeon E3-1245 v6, 4x 3.70GHz, tray (CM8067702870932)
2 Kingston ValueRAM Server Premier DIMM 8GB, DDR4-2400, CL17-17-17, ECC (KVR24E17S8/8MA)
1 Supermicro X11SSL-CF retail (MBD-X11SSL-CF-O)
1 Noctua NH-D9L

Dazu das 4U Gehäuse (45cm tief) von X-Case:

https://www.xcase.co.uk/collections/4u-rackmount-cases/products/x-case-x445-c8-lcd-4u-with-8-hotswap-bay

Bei dem Gehäuse musste ich allerdings die ab Werk verbauten Festplattenlüfter gegen Slim-Lüfter tauschen, da diese über die Anschlüsse Front-USB3 und SAS rüber ragten.

Ansonsten bin ich super zufrieden. Boote ESXi vom Stick, OMV/napp-it von der NVMe und habe derzeit 5 virtuelle Maschinen (Linux) laufen. Dazu 4 WD-Red Platten. Im Idle (Festplatten Spindown) 40W Leistungsaufnahme. Im Normalbetrieb ca. 50-55W. Unter Vollast (Stresstest mit 8 Threads) ca. 100-110W. OMV und Napp-It bekommen je einen Controller (SATA/LSI) als Passthrough.

Als nächstes werde ich wohl noch zwei SSDs (vermutlich Samsung 850pro) für die Nicht-Storage VMs ergänzen und den RAM auf 32 oder 48GB aufrüsten.
 
Hallo!

Vielen Dank für Eure Tipps, das war schon mal sehr hilfreich. Ich habe die Konfiguration jetzt mal angepasst:

Mainboard: Supermicro X11SSH-F
Prozessor: Intel Xeon E3-1230 v6, 4x 3.50GHz, boxed
RAM (1x 16 GB): Kingston ValueRAM Server Premier DIMM 16GB, DDR4-2400, CL17-17-17-32, ECC
(Die auf der Supermicro Site angeführten RAM Bausteine konnte ich kaum finden, daher etwas bekannteres.)
SSD M.2: Samsung SSD 960 EVO 250GB, M.2
Kühler: Noctua NH-D9Ll
Netzteil: be quiet! System Power 8 400W ATX 2.4 (BN240)
Gehäuse: 19" Server Gehäuse 4HE / 4U - IPC-E420 - Frontaccess / 35,5cm
HDDs (4 x 6 GB): Western Digital WD Red 6TB, 3.5", SATA 6Gb/s (WD60EFRX)
(Brauchen offensichtlich weniger Strom.)

Mit dem Mainboard Format Micro-ATX sollte es auch mit dem Gehäuse klappen - das ist auch das einzige 19" Rackmount Case mit dieser geringen Tiefe, das ich gefunden habe.

Das mit der "der klassische SAS HBA zum Durchreichen an die Storage-VM" habe ich nicht verstanden! Ich habe ja 6 SATA Anschlüsse am Mainboard. Sorry, bin noch neu in der "Serverwelt" - wird aber täglich besser.

Was ist Eure Meinung zu dieser Konfiguration? Passt das zusammen? Macht das Sinn. Kann ich damit die beschriebenen Anwendungen realisieren - mit Luft nach oben?
Ich muss dazu sagen, dass ich mit 1.800€ schon sehr am oberen Rand des geplanten Investments angekommen bin - wo könnte ich sinnvoll sparen?

Danke vorab und beste Grüße aus Wien!
Thomas
 
Ergänzend dazu noch ein Gedanke. Lässt sich das Projekt auch stromsparender realisieren? Z. B. mit einem aktuellen Atom Prozessor?

Gruß Thomas
 
Vergiss besser die Atomkrücken: zu langsam, zu wenig Ports, zu wenig PCIe Lanes. Afaik kein VT-d.
Einen HBA brauchst Du, weil man idealerweise diesen Controller dediziert der NAS-VM zuweist (="durchreicht"), damit das Betriebssystem dort direkten Hardwarezugriff auf die Platten hat und auch die volle Storageperformance hat.
Da Exsi aber ganze devices (also Controller) und nicht einzelne Ports durchreicht, du aber trotzdem ja ein Storage zumindest für die NAS-VM direkt in esxi braucht, brauchst du einen zweiten getrennten Storage-Controller. Durch das "Durchreichen" werden die entsprechenden Ports für esxi unsichtbar.
Es sei denn, du bootest von der M.2 und packst da die Nas-Vm drauf und reichst den Sata-Controller durch. Aber: das ist öfters mal zickiger (und bedarf öfters manuelle Eingriffe in die Esxi-config) als die LSI/Avago/Broadcom SAS-Controller. Letztere musst du in der Regel vorher mit der sog. IT-Mode-Firmware flashen.

Bedenke auch, dass dein gewähltes Board nur 2 Lanes am m.2 Slot hat, nicht 4 . Du wirst also lesend nicht die volle Performance der 960 sehen, für die Praxis wird das aber kaum Relevanz haben.
 
Zuletzt bearbeitet:
Der HBA war nur eine Anregung, sich mit dem Begriff/Konzept einmal zu beschäftigen - ist halt die wohl gängige / "professionelle" (Anführungszeichen beachten!) Lösung.

Alternativ kannst Du auch ESXi auf einen USB-Stick packen und davon booten und die Storage-VM dann auf eine kleine NVMe-SSD (32GB) entweder im m.2 oder per Adapter im PCIe-Slot. Erspart einem die Frickeleien, vom der NVMe booten zu müssen und hat den Vorteil, dass die Storage-VM unabhängig vom ESXi-OS/-Host "transportabel" ist. Dann kannst Du grds. trotzdem den Onboard SATA-Controller durchreichen und brauchst eben keinen zusätzlich Storage Controller/HBA. So richtig supported von ESXi ist das aber m.W. nicht und auch unter Solaris /napp-it sind Platten an einem SAS-HBA evtl. entspannter als am SATA-Controller. Wie das mit FreeNAS aussieht, keine Ahnung.
 
Nochmal vielen Dank! Das Thema HBA klingt wirklich interessant, ich werde da noch tiefer einsteigen und lernen. Was wäre ein geeignter HBA für die o. g. Konfiguration?

Btw, wie bewertet ihr diese generell? Tauglich bez. sinnvoll? Ich habe ein wenig den Eindruck übers Ziel zu schiessen, andererseits zuviel schadet eher weniger. Lässt sich das mit dem Case realisieren?

Gruß
Thomas
 
Ich habe ein wenig den Eindruck übers Ziel zu schiessen

Ich mach' mal die Kurzfassung: :d

1. Wer billig kauft, kauft 2x
2. Viel hilft viel - so wie Hubraum nur durch mehr Hubraum zu ersetzen ist, gilt das auch für CPU-Power, RAM, Speicherplatz etc...
3. Was heute als Spielerei erscheint, ist morgen "must-have-Anforderung"
4. Du bist hier im -luxx für Luxus, nicht z.B. bei -base für Basis

;)

HBA irgendwas mit LSI/Avago/Broadcom Chipsatz. Gebrauchte Dell H200i, Dell H310i oder IBM M1015 bieten sich an: dell h200 | eBay

Darf's auch ein passendes Kabel sein? Bitteschön:

Für Anschluss an Backplane: SFF8087 auf SFF8087
Für Anschluss Einzelplatten: SFF8087 auf 4x SATA (gerade)
Für Sonderwünsche: SFF8087 auf 4x Sata (gewinkelt) oder SFF8087 auf SFF8088 für Anschluss externes Gehäuse - dann je nach Geschmacksrichtung und Anschlussart eben noch mit dem passenden SFF8088 auf SFF8088 oder für die älteren Semester SFF8088 auf SFF8740 oder bei besonderen Anforderungen des Gehäuses/Backplane SFF8087 auf SFF8087 mit Winkel rechts- oder linksrum.

Mann bin ich nett. :d Immerhin kann ich jetzt in Zukunft darauf verlinken.

Oder eben die elegante Lösung "all inclusive" onboard wie von Digi-Quick verlinkt - da brauchste dann aber annere Käbelsche.
 
Zuletzt bearbeitet:
Wow, danke für die vielen Tipps. Tolles Forum!

Schön langsam verstehe ich das auch mit dem HBA. Ich denke für mich ist die die Konfiguration von jonofe genau die richtige Lösung. Da habe ich das HBA Ding gleich mit gelöst.

Von der SSD M.2 könnte ich dann booten und darauf auch die VMs installieren. Mit der VM FreeNAS die 4 HDDs (später 6) im Raid 5 (später 6) -Verbund betreiben. Hoffe das habe ich richtig verstanden!

Mein einziges Problem ist dann wohl das Case. @jonofe: Das Case schaut richtig gut aus, lässt sich für mich nicht realisieren. Würde das mit dem von mir angeführten Teil auch umsetzen 19" Server Gehäuse 4HE / 4U - IPC-E420 - Frontaccess / 35,5cm? Ich finde irgendwie kein 19" Case mit max 35,5 cm Tiefe! Vielleicht wisst Ihr noch was. Alternativ könnte ich noch das verwenden Fractal Design Node 804.

Beste Grüße
Thomas
 
Zuletzt bearbeitet:
Supermicro X11SSL-CF retail Preisvergleich sterreich
da ist der HB /SAS Controller dabei und kann auch auf IT Mode geflashed werden

Genau dieses Board habe ich auch genommen. Ich boote ESXi vom Stick. Habe OMV und Napp-It auf einer M2 NVMe via PCIe Karte und reiche den SATA Controller an OMV und den HBA (auf IT Mode geflasht) an Napp-It.

Damit der SATA Controller durchgereicht werden kann, ist nur eine kleine Änderung an einem Config-File auf dem ESXi notwendig. Funktioniert danach aber komplett ohne Probleme. ESXi gibt wohl per default das onboard SATA Device nicht für Passthrough frei.

Hier übrigens die Anleitung zum Passthrough des SATA Controllers, welche bei meinem X11SSL-CF problemlos funktioniert hat.

https://forums.freenas.org/index.php?threads/configure-esxi-to-pass-through-the-x10sl7-f-motherboard-sata-controller.51843/
 
Zuletzt bearbeitet:
Warum vom Stick und nicht von der M.2 booten?

Das Board muss auf IT Mode geflasht werden?
 
Zuletzt bearbeitet:
Genau dieses Board habe ich auch genommen. Ich boote ESXi vom Stick. Habe OMV und Napp-It auf einer M2 NVMe via PCIe Karte und reiche den SATA Controller an OMV und den HBA (auf IT Mode geflasht) an Napp-It.

Damit der SATA Controller durchgereicht werden kann, ist nur eine kleine Änderung an einem Config-File auf dem ESXi notwendig. Funktioniert danach aber komplett ohne Probleme. ESXi gibt wohl per default das onboard SATA Device nicht für Passthrough frei.

Hier übrigens die Anleitung zum Passthrough des SATA Controllers, welche bei meinem X11SSL-CF problemlos funktioniert hat.

https://forums.freenas.org/index.ph...e-x10sl7-f-motherboard-sata-controller.51843/
OMV & Napp-It ???
Warum 2 Storages?

OMV kann auch ZFS (via Plugin)

- - - Updated - - -

Warum vom Stick und nicht von der M.2 booten?
Wenn M2 vorhanden ginge auch das, das X11SSL-CF hat aber keinen.

Das Board muss auf IT Mode geflasht werden?
Nicht das Board, sondern der LSI Controller auf dem Board. *fg*
Ja, sollte auf IT-Mode geflashed werden, damit der Controller wie ein einfacher HBA die HDDs direkt durchreicht - ohne Raid VDs (Virttuelle Disks) einrichten zu müssen. nur dann hat ein ZFs vollen Zugriff (z.B.auf die SMART Werte).
 
OMV & Napp-It ???
Warum 2 Storages?

OMV kann auch ZFS (via Plugin)

Ist nur eine Übergangslösung, da ich vorher ein separates OMV NAS hatte. Das habe ich zuerst mal 1:1 migriert und jetzt wollte ich mich mal mit napp-it befassen. So konnte ich die 25W des alten OMV Servers schon mal abklemmen. :)
 
Ist nur eine Übergangslösung, da ich vorher ein separates OMV NAS hatte. Das habe ich zuerst mal 1:1 migriert und jetzt wollte ich mich mal mit napp-it befassen. So konnte ich die 25W des alten OMV Servers schon mal abklemmen. :)
Verstehe, an so eine Situation habe ich nicht gedacht :)
 
Mit einem Adapter Inter-Tech KT016 konnte ich doch die M.2 anschliessen?
ESXI bootet vom USB Stick, VM's auf der M.2., die 4 HDD's im Raid Verbund.

Dazu hätte ich noch eine Frage. Im Manual des Mainboards steht zum Thema Raid folgendes:

... I/O Devices
SATA 3.0 - RAID 0, 1, 5, 10
Mini-SAS HD- RAID 0, 1, 10


Heißt das, wenn ich die HDD's über den Mini-SAS anschließe ist kein RAID 5 bzw. Z1 (FreeNAS) möglich???

Und noch was. Ist das Netzteil aussreichend dimensioniert?

Danke + Gruß
Thomas
 
Sind wir bei ZFS? ZFS macht die Raidfunktionalität in Software. Soll heißen, ZFS funktioniert am besten mit allen Funktionen nur, wenn man eben die Platten einzeln zur Verfügung stellt und nicht in einem Raid-Verbund.

Daher findet man ja auch häufig die Erwähnung eines SAS "HBA" oder "Host Bus Adapters" und "crossflash auf IT-Firmware" in diesem Zusammenhang. Mit einer IT-Firmware (im Gegensatz zu einer IR-Firmware) verliert die Karte sogar sämtliche Raidfunktionen und ist quasi "dumm". Die höhere Logik kommt dann vom OS bzw. Dateisystem (oder wie auch immer man das nennen will). Auch bei einem SATA-Controller würdest du die Raid-Funktionen nicht aktivieren, sondern im Zweifel "AHCI" einstellen.
 
OK! Danke! Ganz klar ist mir das allerdings nicht, sorry!

Habe ich dann mit FreeNAS (ZFS) die Funktionalität eines Raid-Verbundes, sprich Ausfallssicherheit. Netto bleiben dann (4-1)*6TB übrig?

Wo finde ich die Software und eine Anleitung zum "crossflash auf IT-Firmware" - Google hat mir da nicht geholfen ...
 
Zuletzt bearbeitet:
Wenn Du mit Raidz1 (=ZFS-Version von Raid5) arbeitest: ja, dann hast Du in etwa die Netto-Kapazität von 3 Platten. Der andere Speicherplatz dient der Ausfallsicherung. ZFS verteilt die Datenblöcke und Metadaten so, dass wenn eine HDD ausfällt, trotzdem noch nichts verloren ist.

Aber, beachte, 4 Platten sind nicht ideal für Raidz1, da Du mit 3 Platten (eine geht ja sozusagen "drauf" für Parität) keine 2er-Potenz für Datenblöcke (8K, 16K, 32K, 64K, etc.) erreichst; das lässt sich ja nicht gerade aufteilen. Für Raidz1 empfiehlt sich daher, eher mit 5 Platten zu arbeiten.

Ferner: Raid ersetzt kein Backup!

ABER. Bei Platten im 6TB-Größenbereich ist es nicht unwahrscheinlich, dass einfach durch die schiere Datenmenge eine Platte Lesefehler generieren kann. Sind schlichte statistische Wahrscheinlichkeiten bei solchen Datenmengen. Und beim Resilvern (=wiederherstellen im ZFS-Jargon) werden die Platten doch recht beansprucht (in einem klassischen Hardware-Raid genauso). Wenn dann dort während des Resilvern Lesefehler entstehen => winke winke Daten.
Wenn Du mal ein Kontaktproblem hast z.B. an einer Platte für Daten oder Strom => keine Redundanz mehr vorhanden. Das hatte ich schon zweimal mit jeweils 2 Platten!!!
Bei Platten in dieser Größe würde ich daher nur mit Raidz2 (=raid6) arbeiten. Daher hab ich 6*6TB verbaut. Das hat mir schon meine Daten wie gesagt zweimal gerettet.

Daher meine Empfehlung: dürfen die Daten auf keinen Fall weg sein => Raidz2 nehmen.

Ach ja, noch ein Wort zu den "Raid"-Levels des Intel-Sata-Chipsatzes. Das ist kein Hardware-basiertes Raid sondern dort übernimmt der Treiber im jeweiligen Betriebssystem und die CPU die eigentliche Arbeit. Die Einstellung im Intel-Bios ist im Prinzip nur eine Angabe, wie das Betriebssystem die Platten bitte interpretieren möge. Darum sieht Linux z.B. kein Raid5-Volume, sondern weiterhin die einzelnen Drives. Dieses Intel-Chipsatz-Raid ("RST") wird daher auch "Fake-Raid" genannt. Am besten links liegen lassen für Storage, ist eher was zum Spielen auf einem Desktop.
 
Zuletzt bearbeitet:
@Trambahner: Super! Danke! Jetzt hab ich es verstanden! Also 6 HDD's mit Raid Z2!
 
Yep, ist die paar Watt, die das Ding dann mehr zieht, auf alle Fälle wert.
Damit bricht beim Ausfall einer Platte noch kein Schweiß auf der Stirn aus und beim Ausfall von zwei Platten ist immer noch nichts verloren.

Aber wie auch erwähnt: denke bei diesen Datenmengen daran, wie Du sie regelmässig und mit überschaubaren Aufwand backuppen kannst. Das ist bei TBs an Daten im Heimumfeld nicht ohne.
 
Zuletzt bearbeitet:
Nochmals DANKE! Mit der Anleitung sollte es funktionieren. Ich denke, jetzt habe ich alles zusammen. Leider muss ich nochmals lästig sein und Eure Meinungen einholen (um die letzten Unklarheiten zu beseitigen).

1) Klappt das mit der M.2 unter Verwendung des Adapters Inter-Tech KT016? Ich boote dann von der M.2, dort kommen auch die VM's drauf.

2) Welches Case wäre nun besser (beide sollte ich in den Schrank unterbringen): 19" Server Gehäuse 4HE oder Fractal Design Node 804?

3) Reicht das Netzteil be quiet! System Power 8 600W ATX 2.4 (BN242)?

Sorry, das ich Euch so mit Fragen löchere ...

Thomas
 
Die Inter-Tech müsste soweit ich sehen kann eigentlich für NVMe SSDs PCIe funktionieren, leider sind die Angaben recht widersprüchlich zu dem Ding. Teilw. wird mit "SATA III" angegeben, dann steht wieder bis knapp 4GB/s. Das passt nicht zusammen. Rein optisch schaut mir das aber nach einer reinen PCIe 4x-Karte ohne Sata aus (kein Controller drauf zu sehen).
Eine 600p (oder besser 960 Evo/Pro) würde ich (ohne Garantie) erwarten, dass sie daher läuft.

NT 600W für 6 Platten und E3-Server? Ohne Grafikkarte? Ist deutlich Overkill bzgl. Leistung. Ich verwende z.B. ein be quiet! Straight Power 10 400W und hab deutlich "hungrigere" 7200er Platten.
Von einem Node 804 würde ich aus dem Bauch raus abraten, die Platten hängen da in einer Art "Schwinggabel"....das kann leicht Resonanzen erzeugen (sprich, die Kiste brummt oder summt). Wenn nicht 19", schau Dir ein Fractal Define R4 oder R5 an. Zu 19" hab ich keine Erfahrung. Das Define R4/R5/R6 hat den Vorteil, eine Basisdämmung+Luftfilter serienmässig mitzubringen und Du kannst die Kabel ganz gut verlegen. Ferner ist es nicht teuer. Das R4 oder R5 gibts hier und da für ~90 Euro. Und Du hast Reserve, wenn Du mal bzgl. HDDs etwas ausbaust.


Tipp für die VMs, ist dann aber eher eine Fortgeschrittenen-Option für später mal. Eine Storage-VM kann ja Speicherplatz via NFS-Protokoll sharen. Und diesen NFS-Share kann ESXI selber als Datastore wieder nutzen. Damit kann man mit einer einzigen VM (eben der Storage-VM) auf einem ESXI-Datastore auskommen und alle anderen VMs dann auf dem ZFS-Share ablegen. Dementsprechend hat man dann alle ZFS-Möglichkeiten, die VMs zu sichern, zu snapshotten, komprimiert abzulegen etc. :-))
Da das alles innerhalb einer Maschine auf einem virtuellem Netz stattfindet, beschränkt einen nicht die übliche Netzwerkgeschwindigkeit im Lan, sondern nur die CPU des Servers.
Sprich, neben dem HDD-Zpool für allg. Storage hab ich in der gleichen Maschine noch einen SSD-Zpool, auf dem liegen dann die VMs.
Aber erstmal mit den Grundmöglichkeiten vertraut machen und umgehen lernen, dann kannst an sowas ran gehen.
 
Zuletzt bearbeitet:
Nochmals DANKE! Mit der Anleitung sollte es funktionieren. Ich denke, jetzt habe ich alles zusammen. Leider muss ich nochmals lästig sein und Eure Meinungen einholen (um die letzten Unklarheiten zu beseitigen).

1) Klappt das mit der M.2 unter Verwendung des Adapters Inter-Tech KT016? Ich boote dann von der M.2, dort kommen auch die VM's drauf.

Ich setze das genau so ein: KT016 mit Intel 600p in einem X11SSL-CF. Funktioniert einwandfrei. Allerdings boote ich ESXi vom Stick. Auf der Intel 600p habe ich nur die Storage VMs.
 
Jo das KT016 ist richtig dafür und ich hatte bisher keine Probleme/Inkompatibilitäten damit.
 
Definitiv Wechselgedöns lieber an den SAS Controller. Der kann das jedenfalls eher als der onboard.

Hab das ähnlich, bei mir stecken z.B. die SSDs in sowas: Delock Wechselrahmen 13,3 cm f Zubehör

(Der Lüfter ist die Hölle, den hab ich abgeklemmt, so dass ich bei der Packungsdichte selbst im 19“-Gehäuse im Hinblick auf die Wärmeentwicklung vorsichtshalber nur SSDs verbauen würde.)
 
Aber, beachte, 4 Platten sind nicht ideal für Raidz1, da Du mit 3 Platten (eine geht ja sozusagen "drauf" für Parität) keine 2er-Potenz für Datenblöcke (8K, 16K, 32K, 64K, etc.) erreichst; das lässt sich ja nicht gerade aufteilen. Für Raidz1 empfiehlt sich daher, eher mit 5 Platten zu arbeiten.
Die Aussage trifft für ZFS nur bedingt zu, da man hier i.d.R. die LZ4 Kompression auf dem Pool einschaltet und dadurch ist der "Verschnitt" nicht mehr ganz so klar kalkulierbar wie bei einem klassischem Raid.
How I Learned to Stop Worrying and Love RAIDZ | Delphix

Raidz1 (Raid5) vs Raidz2 (Raid6):
Grundsätzlich bietet ein Raidz2 die höhre Aufallsicherheit.
Zusätzlich solltest du bei den HDDs auf Seagate Ironwolf umschwenken sofern noch nicht gekauft, denn die haben im ggs. zu den anderen NAS-HDDs eine URE (UBER) von 1 in 10^15 statt 1 in 10^14 (auch gerne als 10 in 10^15 angegeben), was ebenfalls der Ausfallsicherheit / Verfügbarkeit zu Gute kommt und die Wahrscheinlichkeit eines erfolgreichen Rebuilts deutlich verbessert.

Ich liebe den Kalkulator:
RAID Reliability Calculator - Simple MTTDL Model - ServeTheHome

Wobei das natürlich alles Wahrscheinlichkeitsrechnungen und keine real garantierten Werte sind - Ausnahmen bestätigen die Regel.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh