[Guide] NAS/Server Hardwareguide 2020

Status
Für weitere Antworten geschlossen.
Mir ist neulich tatsächlich der ESXi abgehimmelt - hab irgendwas mit TrueNAS gemacht und auf einmal ging gar nichts mehr, alles stand. Dummerweise war ich unterwegs und Remote drauf und auf dem ESXi läuft auch der VPN-Server…. Da kam ich dann auch nicht mehr auf IPMI drupp. Naja, so kann’s gehen. Bin eh noch am überlegen, wie ich so meine Wunschliste komplett mit der (eigentlich reichlich) vorhandenen Hardware umgesetzt bekomme - aber irgendwie hab ich den heiligen Gral noch nicht gefunden…
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wer nen SPOF baut, hat natürlich etwas grundsätzlich falsch gemacht, wenn es um Erreichbarkeit geht.
Daher trenne ich das auch.
Modem-Router-(FW)-Serverinfrastruktur
 
Jo. Hatte ursprünglich mal nen Cluster und die VPN-VM als HAVM mit Failover. Aber der Stromverbrauch lohnt nicht, weshalb ich runter bin auf eine Kiste 24/7 und das war das erste Mal in ca. 6 Jahren, dass ich mich quasi ausgesperrt hab. Pro und Contra passt für mich schon so.
 
Wozu denn ne VPN-VM? Sowas terminiert man auf dem Router, sprich auf einer Netzwerkkomponente. Mit viel Langeweile kann man das Teil gegenüber dem Provider auch als VRRP-Cluster aufbauen (je nach Zugangstechnik) Dann hat man des Routing redundant ausgelegt. Das kann man natürlich auch beliebig weiterspinnen.

Aber die zentrale Netzwerkkomponente oder VPN-Zugangskomponente auf nem ESX laufen zu lassen, würde ich mir mehrfach überlegen, gerade dann wenn man öfter mal dran rumspielt.
Trennt man Routing(FW) und Fernzugang vom Rest, dann ist nur eine Komponente down, der ESX. Alle anderen Dienste laufen noch weiter.

So geil das mit dem ESX auch immer ist, manche Sachen sollte man, wenn man Verfügbarkeit will, nicht machen. So nen dedizierter Router/VPN-Server frisst nun ja nun auch kein Strom/Platz, als dass ein Konsolidieren da den mega Vorteil bringt.

Lustig wird es dann, wenn man mal ein paar Tage länger nicht da onsite ist, dann kann sowas echt frustrieren.
 
Alles homemade/homelab. Da ist nur länger niemand on-site wenn ich im Urlaub bin und dann ist auch ein Totalausfall der gesamten „IT-Landschaft“ kein Weltuntergang.

Und der ESXi ist quasi die EINZIGE 24/7 Komponente abgesehen von dummen Switches. Wie gesagt: kalkuliertes Risiko (auch wenn einige vielleicht sagen: „…but damn, he is bad at math“). :d
 
Ja, muss man halt abwägen.
Mitunter ist auch etwas dezentraleres Konzept, mit kleineren Stages die bessere Option.
 
Das beste Konzept ist bei mir wohl immer noch "never change a running system" - einfach so wäre der ESXi zum Beispiel auch nicht abgehimmelt.
 
Welche Optionen hat man denn bei Gehäusen? Man will ja etwas, wo es keinen Wärmestau gibt, die Geräuschentwicklung möglichst gering ist (besonders wenn mehrere Festplatten den Lärm vervielfachen), es Wechselrahmen gibt oder wenigstens einfacher Datenträgeraustausch möglich ist, und das Ding nicht zu sperrig wird. Es soll ja Zuhause aufgestellt werden, man will kein Rechenzentrum betreiben. (Es in den Keller zu stellen, wo es per Definition nicht stört, ist oft auch keine Option.) Wenn man es z.B. in eine Ecke in den Flur stellt, will man es nicht in der ganzen Wohnung hören.

Mit Hot-Swap oder ohne? Hot-Swap ist zwar nett, aber man betreibt doch kein Rechenzentrum, wo Festplattenwechsel Routine ist. Andererseits machen viele der normalen PC-Tower den Festplattenwechsel zur Tortur (besonders ältere Gehäuse, verdammte Dinger), und das muss auch nicht sein.

Normale PC-Tower sind sicher eine Option, zumindest wenn das Gehäuse eine vernünftige Einbauweise für Festplatten hat. Haben aber auch viel Schnickschnack, der stört, oder haben ungünstige Abmessungen (je nachdem wo man den Server hinwerfen will).

Spezielle NAS Gehäuse? Da gibt es z.B. die SilverStone Case Storage Gehäuse ( https://geizhals.de/?cat=gehatx&asuch=SilverStone+Case+Storage ). Oder z.B. https://geizhals.de/fractal-design-core-500-schwarz-fd-ca-core-500-bk-a1276378.html . Wenn man die Reviews liest, sind die nicht immer perfekt. Außerdem teuer. Viele sind auch Mini-ITX beschränkt, zumindest für mich nicht interessant.

Irgendwelche 19" Racks? Dazu braucht man ja nicht unbedingt einen entsprechenden Schrank (den Rack einfach ins Regal stellen). Meistens gibt es genügend Platz für Festplatten, aber wie einfach die einzubauen sind, und wie sehr das Resultat dann vor sich hinvibriert, ist zumindest mir als Rack-Laie aus den Produktbeschreibungen nicht erkenntlich. Manche haben eingebaute Hot-Swap Einschübe (z.B. https://geizhals.de/inter-tech-ipc-4u-4408-88887191-a1480037.html ).

Selbstgebautes Gehäuse? Das gibts ja auch. Einfach Löcher in Fachböden bohren, Abstandshalter reinschrauben, Mainboard drauf, so ähnlich mit Netzteil und Festplatten vorgehen, in einen 19" oder 10" Schrank einschieben, fertig. Für die meisten Leute wäre es wohl erst mal ein Abenteuer. (Könnte aber Spaß machen...)

Die wirkliche Frage ist eigentlich, wie sich das mit Lärm/Hitze verhält. Kommt es vielleicht wirklich nur darauf an, ob die Festplatten gummigepolstert sind, und man einfach einen guten Airflow hat?

Welches Gehäuse verwendet ihr?
 
Ich lande meist bei 19“ Intertech mit 4HE. Hab z.B. das 4416 für meinen Hauptserver.
 
Bei mir ist es ein Fractal Define 7 geworden. Fand ich damals besser als die Silverstone Cases.
 

Wenn man mit MiniITX und 2x 2,5" und 4x 3,5" (oder 2,5") auskommt, hat man ein schönes Case im NAS Format.



Das Ding ist schick wenn es etwas mehr sein darf: Booards bis eATX, 8x Hotswap inklusive, 2x redundante Netzteile à 1200w mit 95% Effizienz in flüsterleise, Deckel und Füße kann man abnehmen, Rackschinen anschrauben und auch ins 19" Rack packen. Oki, kostet paar Euro, aber dafür bekommt manauch was geboten.
 
1. ein Rack ist der Schrank und nicht das Case. Ein 19" Case ist eines für ein Rack, ist aber selber kein Rack.
Rack heißt übersetzt "Gestell" und macht daher wenig Sinn einen PC (in Einzelteilen) in ein Rack einzubauen. Das wird in ein (19") Case eingebaut und das dann wiederum in das Rack.

Ansonsten ist das alles Geschmackssache. Wenn man eh mehrere Server hat, kann a 19" schon Sinn machen, weil man die einfacher stapeln kann, habe ich am Anfang auch gemacht, auch ohne Rack. 19" kann das Problem haben, dass es mitunter sehr laut wird, wenn man das falsche Case hat, auch kann es Probleme geben, dass man "proprietäre" Komponenten brauch, wie z.B. Netzteil. Dafür ist sowas meist auch riesige Datenträgeranzahl ausgelegt, wo dann 20 Geräte keine Frage sind.

Ich habe 19" sowohl hot swap als auch "flexible" und auch ITX von Chenbro im Einsatz. Towercases waren es am Anfang, hatte sich aber schnell erledigt. (wobei ich noch EYE910 und auch YY Cubes da haben, auch die eigenen sich super für Server.
EDIT:
Wäre z.B. auch ne Variante:
 
Bei mir ist es ein Fractal Define 7 geworden. Fand ich damals besser als die Silverstone Cases.

Finde ich noch immer besser wenn man kein Hotswap brauchst. In das 7 XL passen 18 Festplatten und 4 SSD's.
 
Zuletzt bearbeitet:
Wenn einem 8x HDDs reichen und Qualität will nimmt man das Silverstone CS381. Hab es gerade mit 4x 120mm Lüfter rausblasend im Einsatz und somit die gesamte Frischluft durch die HDD Trays kommen muss.
 
Wenn einem 8x HDDs reichen und Qualität will nimmt man das Silverstone CS381.
Die Preise von den Dingern schrecken mich immer ab (wie auch die der Supermicro Gehäuse). Sind sie bestimmt aber wert?
1. ein Rack ist der Schrank und nicht das Case. Ein 19" Case ist eines für ein Rack, ist aber selber kein Rack.
Rack heißt übersetzt "Gestell" und macht daher wenig Sinn einen PC (in Einzelteilen) in ein Rack einzubauen. Das wird in ein (19") Case eingebaut und das dann wiederum in das Rack.
Verstehe. Ist das Betreiben ohne Rack überhaupt empfehlenswert?
 
Die Preise von den Dingern schrecken mich immer ab (wie auch die der Supermicro Gehäuse). Sind sie bestimmt aber wert?
Das Gehäuse inkl. Netzteil kannst Du ewig benutzen, sondern es nicht kaputt geht und Du mit dem Format und NT Leistung weiterhin zufrieden bist. Da hast Du dann Jahre später ev. das 3. Board drin, und auch sonst div. Upgrades gemacht, aber immer noch das selbe Case. Von daher eine Investition, wo man viele Jahre Spaß dran hat.

(In meinem GamePC habe ich ein Fortron Zen 400w full-passiv Netzteil, hat damals ~140 Euro gekostet, hat inzwischen 13,5 Jahre auf dem Buckel)
 
Die Preise von den Dingern schrecken mich immer ab (wie auch die der Supermicro Gehäuse). Sind sie bestimmt aber wert?
Also ich bin mit dem Silverstone CS381 sehr zufrieden und feier das Konzept das nur 12V per 6-Pin PCIe an die Backplane muss. Aufpassen muss man wegen der SFF SAS Stecker, die nochmal etwas kosten wenn diese nicht schon hat.
 
Das Gehäuse inkl. Netzteil kannst Du ewig benutzen,
Beim Netzteil würde ich das nicht unterschreiben.
Netzteile altern, zum einen durch verwendeten Bauteile und zum anderen auch durch die Anforderungen.

Wenn man sich die ATX SPEC über die letzten 20 Jahre anschaut, wird man schnell feststellen, dass neben den groben Parametern auch die spezifischen Parameter eine deutliche Änderung erlebt haben.
Insbesondere was die Art und Weise der Spannungen und deren Feinstparametern angeht, kann es sehr schnell Probleme bei der Stabilität geben. Stichwort ist hier Welligkeit usw.

Des Weiteren kann ein veraltetes und defektanbahnendes Netzteil auch gerne mal deine Hardware grillen, wenn aus 12V plötzlich *enter a value here* werden.

Von daher sollte man, wie auch den Schlüpper, ein Netzteil in aller Unregelmäßigkeit auch mal wechseln.

Auch beim Case würde ich das nicht mehr Bedingungslos unterschreiben. Ein Case mit einer integrierten SATA-Backplane wird keine SAS-Laufwerke fressen. (manchmal sind die halt günstiger)
Des Weiteren wird es auch schwer eine NVMe SSD in einem solchen Case zu betreiben. Sprich, wenn in 10 Jahren NVMe SSDs sich durchgesetzt haben, kauft man sich wieder ein neues Case.
Ne Backplane kann also ein Problem sein.
Flexibler sind backplaneless Cases oder Cases mit 5,25" Slots, wo man dann separate Backplanes einbauen kann.
Für sowas gibt es mittlerweile M.2/U.2 Backplane, die 8 oder gar 12 SSDs in einen 5,25" unterbringen. Das gibt es für SATA als auch NVMe.
Würde man sich also heute so ein Case mit 3,5" HDDs vollstopfen, kann man es "morgen" mit M.2 bestücken.
Begrenzende Ressource sind dann eher die Ports auf Controllerebene.
So nen SM SC836 ist in 10 Jahren sicherlich nicht mehr das, was man möchte. So ist das bei den Fertigservern auch. Heute mag man noch SAS Slots haben, in der next Gen wäre es dann wahrscheinlich NVMe only. Setzt man nicht unbedingt schon bei SAS auf U.3, bedingt das also auf jeden Fall ein komplett anderes Design, alles full flash natürlich.

Beim Case kommt es also darauf an, dass man sich auf den minimalsten Standard beschränkt. Wo wir dann wieder beim oben verlinkten Cube sind.
Noch heute könnte man mit einem EYE-910 jede Storagetechnologie bedienen, dank mass 5,25" Slots und auch für Zukünftige dürfe das gelten. Kompakt ist halt was anderes. Das ist zum Teil viel Luft, die man da umbaut.
 
Zuletzt bearbeitet:
Kurze Frage zum Planen eines Setups:

Geplant: Unraid-NAS mit Dockercontainern für Hausautomation, Plex, Nextcloud und Windows VM für ETS5 (KNX Software).
Eventuell als Option: Spiele VM für PARSEC und evtl Mining, falls Spiele nicht genutzt werden und die PV sauberen Strom produziert.

Die 10th und 11th Intel Generationen bieten keinen ECC Support, welchen ich schon gerne im NAS haben würde. Eine i3-9100 CPU wäre aber vermutlich für die Spiele VM kontraproduktiv? (Aktuelle Spiele sollen flüssig laufen, muss aber nicht topnotch sein)

Wäre es jetzt sinnvoll lieber ein weniger perfomantes NAS zu konfigurieren, was ECC bietet und die 24/7 Anwendungen unterstützt und ein eigenes Gaming System aufzusetzen? Ich sehe halt den Mainboard/CPU/Gehäuse/SSD/Netzteil/10G Karten overhead, der das ganze sehr teuer macht, im NAS müsste ich ja quasi nur eine GPU einbauen.

Vorteil getrennte Systeme: NAS dürfte sich dann Stromeffizienter bauen lassen, Spiele Server läuft ja nur wenn nötig. Ist es möglich, z.B. Spiele auf den NAS HDDs zu installieren und dann vom Spieleserver darüber zu spielen? Oder geht das von der Geschwindigkeit nicht?

Macht AMD beim NAS Sinn, wenn der Idle Verbrauch soviel höher ist? Unraid soll ja auf Intel auch stabiler laufen, als auf AMD. Ist halt schade, dass die neuen Intel Gens kein ECC haben, da die kaum teurer für sehr viel mehr Performance sind.
 
In dem Fall, würde ich das eher trennen - vorallem brauchen Gameserver eigentlich keine Grafikkarte und ob sich das Mining bei den Strompreisen noch rechnet?
Wie viel Speicher soll denn werden? - Und ja, man kann theoretisch auch ein Share von nem NAS in nem Gameserver einhängen um darauf die Installation zu haben - wie flüssig das läuft kommt aber wieder auf andere Umstände an.
 
Wieso unterstützt die 10. und/oder 11. Intel Gen kein ECC? Wo hast du das her?
10. Gen
11. Gen
 
Er meint vermutlich, dass nur die Xeon CPUs ECC haben...

Früher hatte zumindest die Pentium und kleineren CPUs (wie G4930/8100 etc) ECC Support.

E2324G kosten 210€, 4C/4T ... 10100 4C/8T kostet 120€. 10400 6C/12T kostet 170€.

Ist für mich nen klassischer Intel Arschlochmove

War für mich auch der Grund, wieso ich zu nem gebrauchten 8100er System mit C246 gegriffen hab.
 
Wieso unterstützt die 10. und/oder 11. Intel Gen kein ECC? Wo hast du das her?
10. Gen
11. Gen
Sorry, hab nicht spezifiziert. Ich meine natürlich die Consumer CPUs i3,i5 und i7.
Laut ark.intel ECC sind das aktuell nur noch die Xeons. Die sind mir zu teuer, eignen sich ja auch nur bedingt für Gaming und haben auch nen höheren Stromverbrauch. (Das mit dem Stromverbrauch ist grad geraten, aber die Xeons sollten ja auf Leistung, und nicht auf Sparsamkeit optimiert sein.)

So beliebte Prozessoren wie der i3-9100 oder ein Pentium Gold G5400 haben keine Nachfolger, die ECC unterstützen.

In dem Fall, würde ich das eher trennen - vorallem brauchen Gameserver eigentlich keine Grafikkarte und ob sich das Mining bei den Strompreisen noch rechnet?
Wie viel Speicher soll denn werden? - Und ja, man kann theoretisch auch ein Share von nem NAS in nem Gameserver einhängen um darauf die Installation zu haben - wie flüssig das läuft kommt aber wieder auf andere Umstände an.
Mit Gameserver meine ich Gamestreaming via PARSEC z.B.
Mining wäre nur j4f und Spielerei und würde auch nur laufen, wenn die PV den Strom produziert, ansonsten ist es, wie du schon sagtest, nicht sonderlich rentabel.

EDIT:

Er meint vermutlich, dass nur die Xeon CPUs ECC haben...

Früher hatte zumindest die Pentium und kleineren CPUs (wie G4930/8100 etc) ECC Support.

E2324G kosten 210€, 4C/4T ... 10100 4C/8T kostet 120€. 10400 6C/12T kostet 170€.

Ist für mich nen klassischer Intel Arschlochmove

War für mich auch der Grund, wieso ich zu nem gebrauchten 8100er System mit C246 gegriffen hab.

Jup, genau das.
 
Wenn man ihn bekommen kann. (go 4 VitaminB)
Und nen Xeon braucht auch nicht mehr Strom. Wo kommt das her?
Klar braucht nen 10C Xeon mehr als nen 4C i3. Wenn man aber die Leistung nicht abruft, brauchen die genauso viel Strom, bzw. sind dicht beieinander.
Sprich also nen 4C i3 braucht im Idle genauso viel wie nen 10C Xeon, in etwa.
Bei 4C merkt man keinen Unterschied.

Und warum sollten die sich nicht fürs Gaming eignen? Die haben die selben Ressourcen, die selben Befehlssätze, alles. Das ist alles gleich. Du zockst auf einem Xeon genauso wie auf einem iX. Ggf. sogar besser, wenn der höher boostet und den halten kann.

Aber ja, grundsätzlich hat Intel im Desktop ECC massiv zurückgefahren.

Ich habe in den WS auch Xeons drin, ich komme auf die selben Werte wie die Standardinstallationen mit i3 und Co. (IDLE)
 
Zuletzt bearbeitet:
Im Grunde sinds ja auch die gleichen CPUs mit nem Intel Premium Aufschlag :fresse:, daher wird der Verbrauch bei gleichem Aufbau (Cores etc) und TDP auch gleich sein.

Kann mir keiner erzählen, dass die CPU mit dem XEON Aufdruck plötzlich das doppelte Kosten soll.
 

Embedded heißt dann irgendwo als SoC auf nem Mainboard verlötet in irgend nem Embedded System? Da braucht man doch dann viel Vitamin B, dass man den lose iwo bekommt...

Okay, dann wirds wohl eher ein XEON, ohne die Systeme zu trennen.

Ach und noch @konfetti, welcher Speicher? fürs NAS? ca. 20-30TB. (Eine große Parity und 2x 10-14TB Platten)
 
Embedded heißt dann irgendwo als SoC auf nem Mainboard verlötet in irgend nem Embedded System?
Embedded heißt da erstmal garnichts. Es ist ne CPU Linie für "professionell", wenn man so will.
Das ist der Xeon Chipsatz dazu.
Heißt primär, längerer Vertriebskanal (~7 Jahre)
Du glaubst garnicht, wieviele "embedded" Intel-Teile auf der Welt unterwegs sind. Nur selten wird da gelötet.
Klar, gibt es auch "echtes" embedded.

Sieh auch den verlinkten Ark-Eintrag

Package-Spezifikationen​

  • Geeignete Sockel FCLGA1200
 
Ach und noch @konfetti, welcher Speicher? fürs NAS? ca. 20-30TB. (Eine große Parity und 2x 10-14TB Platten)
Dafür musste bei Unraid aber auch ne Lizenz kaufen... - Gut, bin kein Freund von Unraid, würde mir lieber nen ESXi/Proxmox hinstellen und darauf dann mit durchgereichtem HBA nen ZFS-Storage hinstellen.
Vorteil für andere VMs ist halt, das man da nen Class-1 Hypervisor hat...
 
Kann mich vom Konzept her mehr mit Unraid anfreunden, da ist halt alles integriert und gebündelt. Außer du sagst mir jetzt, dass eine Gamestreaming VM performancetechnisch nicht mit Unraid umsetzbar ist,

@underclocker2k4 Bei den neuen Xeons gibts die passenden Mainboards dazu noch nicht, beim Intel Xeon E-2324G gibts noch keine CPU Benchmarks, da muss man vermutlich noch bisschen warten. Ist den die Kompatibilität z.B. von Unraid sofort gegeben? Oder sollte man da lieber warten?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh