[Kaufberatung] Vorschläge/ Anmerkungen zu geplantem 16-Bay NAS

Gae Bulga

Neuling
Thread Starter
Mitglied seit
02.02.2016
Beiträge
7
Ort
Hannover
Hallo liebe Forengemeinde,

zunächst entschuldige ich mich für den x-tausendsten Post zum ewig gleichen Thema NAS, obwohl ich hier sehr viele Themen mit großem Interesse durchforstet habe.

Aber da mein geplantes Gerät nicht aus meiner Portokasse bezahlt werden kann, wollte ich zumindest einmal vorher bei den Profis und Enthusiasten hier nachhorchen, ob das so in Ordnung geht und ob ich ggf. noch Änderungen vornehmen sollte.

Bisher habe ich eine Synology DS1513+ mit 3 TB-Platten bestückt. Auf der Suche nach etwas größerem hatte ich mir zuerst die RS2416+ angesehen, dachte mir bei den Preisen aber, dass da doch auch im Selbstbau etwas gehen muss.

Was soll das Ding können?
Primär einfach nur Massen von Daten speichern auf ZFS-Basis mit ESXi (zumindest Wunschvorstellung). Evtl. aber auch noch zusätzliches wie einfache Serverdienste/ Owncloud etc. (daher ist die CPU ggf. etwas groß dimensioniert)

Zu meiner bisherigen Planung:

GehäuseChenbro RM41416 (gab es gerade "günstig" in der Bucht)
NetzteilSuper Flower Leadex Gold schwarz 550W ATX 2.3*
MainboardSupermicro X11SSH-CTF* (sobald es mal verfügbar ist)
RAM2x Kingston ValueRAM Hynix A-Die DIMM 8GB, DDR4-2133, CL15-15-15, ECC*
CPUIntel Xeon E3-1225 v5
Systemplatten2x SuperDOM 32 GB*
SpeicherplattenWD Red 4 - 6 TB o.Ä.
Zubehör2x 4x SATA zu SFF-8087
2x SFF-8643 zu SFF-8087 (laut Beschreibung des Mainboards sind die Anschlüsse vom LSI-Controller "SAS3"... = SFF-8643?)
Molex-Splitter, leisere Lüfter, etc.


Wie man an den ganzen * sieht, bin ich mir bei einigem noch nicht ganz sicher.
Beim Netzteil habe ich hier häufiger gelesen, dass sich für solche Systeme Single-Rail-Netzteile am besten eignen (Seasonic und Super Flower).
Bei vielen habe ich in den Komponentenlisten aber auch Multi-Rails gesehen.
Mich stört etwas, dass kein gescheites Single-Rail-NT überhitzungsschutz hat und bei "geringen" Fehlerströmen die anderen Schutzschaltungen ggf. nicht auslösen.
Da die vermeintlichen Single-Rail-Seasonics tatsächlich Multi-Rails sind, blieb nur noch Super Flower (mit denen ich keine Erfahrung habe).

Das Mainboard scheint zuerst vermutlich völlig überzogen, aber ich wollte gerne 10 GbE (als mittelfristige Vorsorge) haben und ein günstigeres Board wäre vermutlich auf lange Sicht teurer gewesen (Board 200 - 250€, IBM 1015 ~150€, Intel 10 GbE NIC ~300€). Da ich nicht gerne auf 2011-3 gehen wollte (auch wenn ich hier mehr RAM nachrüsten könnte), blieb fast nur dieses übrig.

Beim RAM gibt es leider bisher nur eine sehr begrenzte Kompatibilitätsliste (2 oder 3 Einträge) und die Kingston-Suche hat den angegebenen ausgespuckt. Leider keine Kits.
Ich wäre gerne bei den maximalen 64 GB ausgekommen (in der ersten Ausbaustufe 32 GB), aber bei Supermicro scheint dies offiziell nur mit speziellen Modulen zu gehen, die je 16 GB um die 300€ kosten. Da hört meine Liebe dann auf.

Die SuperDOMs scheinen mir eine schöne (und teure) Idee zu sein, da alle normalen Ports theoretisch durch die Einschübe des Gehäuses belegt wären. Nur müsste ich da hoffen, dass die sich keinen Controller mit den SATA oder SAS-Anschlüssen teilen.


Starten wollte ich mit 2 SuperDOMs als Systemlaufwerk im Raid 1 (sofern möglich) und 6 oder 10 Speicherplatten im Raidz2.
Welches OS (Solaris, BSD, OMV,...), weiß ich bisher, ehrlich gesagt, noch nicht.

Mit ESXi habe ich bisher keine Berührungspunkte gehabt, soll aber laut einigen Beiträgen hier sinnvoll für Backup/ Restore des Host-Systems sein.
Außerdem bliebe so "Platz" für weitere Spielereien innerhalb von VMs - sofern ESXi etwas mit den Controllern auf dem Mainboard anfangen kann.
Zum Glück kenne ich 2 Personen, die mir da im Zweifelsfall unter die Arme greifen könnten.


So, nach dem ganzen Text (sorry): Wie sieht Eure Meinung zu dem System aus bzw. was sollte ich überdenken/ verbessern?

Vielen Dank schon einmal im Voraus.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
du hast im Chenbro RM41416 doch nen externen 3,5" (wo die FDD abgebildet ist) .... dafür gibts z.B. https://geizhals.de/enermax-emk3202-a1156475.html?hloc=at&hloc=de für 2 SSDs :)
.... nur wenn du die Superdoms nur wegen der Slots nimmst

bei den Platten sind für 16 Slots die Consumer NAS Platten grenzwertig (werden auch offiziell nur bis 8 Slots freigegeben) .... dies im Hinterkopf behalten

nur 2 Sachen, die mir auf die Schnelle eingefallen sind, ohne genau drüber zu gucken
 
du hast im Chenbro RM41416 doch nen externen 3,5" (wo die FDD abgebildet ist) .... dafür gibts z.B. https://geizhals.de/enermax-emk3202-a1156475.html?hloc=at&hloc=de für 2 SSDs :)
.... nur wenn du die Superdoms nur wegen der Slots nimmst

bei den Platten sind für 16 Slots die Consumer NAS Platten grenzwertig (werden auch offiziell nur bis 8 Slots freigegeben) .... dies im Hinterkopf behalten

nur 2 Sachen, die mir auf die Schnelle eingefallen sind, ohne genau drüber zu gucken


Danke für die Hinweise :)

Die SuperDOMs hatte ich eher vorgesehen, da das Mainboard "nur" genau 16 SATA-/ SAS-Ports zur Verfügung stellt (wie gesagt: in der Hoffnung, dass die SuperDOM-Ports separat sind und nicht irgendwie in den 8 SATA-Ports integriert sind).

Und die Festplatten... da kämpfe ich noch mit mir.
Einerseits habe ich auch hier schon große Systeme mit den normalen WD Reds gesehen, aber dass die eigentlich nur bis 8 Bays vorgesehen sind, ist mir bekannt.
Alle anderen Platten (für bis 16 Bays) sind aber gleich viel lauter und teils deutlich teurer :-/
 
Zuletzt bearbeitet:
die Doms sind auch SATA :) und gehen von den onboard 8 ab

auch ist ein RaidZ2 für spätere Erweiterbarkeit denkbar ungünstig (lieber nur Mirrors aus 2 Platten für einfache Erweiterung und Performance)

wenn du "leise" arbeiten magst würde ich mir das Vorhaben nochmal überlegen


btw hatte hier schonmal ein "relativ" ruhiges System gepostet für 8*3,5" und 6*2,5" (also z.B. 2 SSDs OS + 4*2,5" Pool1 + 8*3,5" Pool 2)
http://www.hardwareluxx.de/community/f101/dell-poweredge-t20-1031138-106.html#post24252652
 
Zuletzt bearbeitet:
Ja die aktuellen Red sind nur für bis zur 8 in einem Gehäuse vorgesehen, die alten Red waren sogar nur für bis zu 5 freigegeben. Es gibt eben auch da Unterschiede bei den Vibrationssensoren und Schutzmechanismen, eben die anspruchsvolleren oder kostengünstigeren Versionen. In der NAS Drive Selection Guide von Seagate ist eine schöne Übersicht dazu:
Die aus der Surveillance Reihe haben ab 4TB übrigens ebenfalls RV Sensoren und sind für mehr als 8 Platten im Gehäuse freigegeben und die Surveillance 8TB hat sogar eine UBER von 1:10^15 und ist mit 42,72€/TB gar nicht so teuer. Außerdem spart man Einbauplätze wenn man die großen HDDs nimmt, also auch Energie und kann am Ende ein größeres Storage mit den vorhandenen 16 Plätzen realisieren.
 
auch nicht 16 bay tauglich und durch 7.200 rpm noch schlimmer wenn er es "leise haben mag" und bei Empfindlichkeit im 19".... aber sonst super Platten

19" ist ein Mörder durch die Packdichte wenns um Vibrationen geht, drum rate ich auch davon ab im Heimbereich

schon 2008 gabs dazu ein tolles Video: https://www.youtube.com/watch?v=tDacjrSCeq4 (und ja, das geht immer noch)
 
Zuletzt bearbeitet:
Die typische ESXi AiO Konfiguration sieht ja so aus:
- Sata als Datastore für ESXi und optional als ESXi Bootplatte
- Der LSI HBA wird dann per pass-through an die ZFS Storage VM durchgereicht.
Damit werden dann ein oder zwei ZFS Pools (z.B. allgemeiner Filer und eventuell zusätzlich SSD Pool für ESXi VMs) angelegt

Da ESXi üblicherweise kein Raid-1 auf dem Mainboard Sata anlegt, fällt die Option weg.
Das ist aber kein Beinbruch wenn auf der Bootplatte nur ESXi und die Storage VM liegt.
Beides ist ohne besondere Konfiguration schnell wiederherstellbar. Alternativ eine zweite Bootplatte als Clone bereithalten.

Alle VMs die besondere Konfiguration braichen gehören auf ZFS.

zum Board
SM ist sicher ok, eine Alternative wäre das
ASRock Rack > EPC612D4U-2T8R

Bei den Platten bevorzuge ich HGST NAS Platten.
Die halten bei mir einfach am Längsten selbst in einem Case mit max 50 Platten mit all den Vibrationen.
 
Zuletzt bearbeitet:
gea ist hier ... und preist 16 Bay HGST Nas an ... natürlich per ZFS

ich muss weg (liegt natürlich nur daran, dass ich keine Ahnung habe und dem meister nicht widersprechen mag)

festhalten will ich aber das Zitat: " Die halten bei mir einfach am Längsten selbst in einem Case mit max 50 Platten mit all den Vibrationen. " (am längsten stimmt, aber nicht "lang" ) ... wobei es super Platten sind für 4-8 Bay

over and out
 
Zuletzt bearbeitet:
Vielen Dank für die Rückmeldungen.
Scheinbar ist die Auswahl/ Konfiguration doch noch nicht optimal, aber dafür habe ich ja nachgefragt :)

SuperDOMs
Ok, das ist natürlich schade. Also bräuchte ich ohnehin einen zusätzlichen HBA - wenn ich 9+ Bays für Storage nutzen will.
Dann wäre der Einwand von gea vermutlich gleich mit gelöst.

Raidz2 bzw. Plattenaufteilung
Reines Mirroring ist mir zu verschwenderisch/ teuer.
Eine derart starke Ausfallsicherung benötige ich nicht. Aber mit Raid 5 bei den jetzigen 5 Platten fühle ich mich wiederum zu unsicher.
Tatsächlich überlege ich aber noch, wie ich die Aufteilung anders gestalten kann.
Einerseits möchte ich mich gerne an optimale Anzahlen halten, aber scheinbar ist es auch nicht so dramatisch, wenn ich es nicht tue (ZFS RAIDZ stripe width, or: How I Learned to Stop Worrying and Love RAIDZ). Könnte zumindest für den Anfang etwas Geld sparen.
Die Pools selbst lassen sich doch einfach erweitern, im Gegensatz zu den VDEVs, oder?

Ich gebe mir gerade aber auch noch A Closer Look at ZFS, Vdevs and Performance. Vielleicht erledigen sich dann manche Überlegungen wieder (ZFS und Raidz erscheint mir immer anspruchsvoller, je mehr ich darüber lese :-[ ).

Aber eigentlich sehe ich für mich persönlich das beste Verhältnis von Ausfallsicherheit zu Kosten in Raidz2.
Das höchste der Gefühle wäre wohl Raidz1 mit je 2+1 (wobei ich dann 1 Bay übrig hätte)


Lautstärke
Dass 19" Racks nicht die erste Wahl für leise Systeme sind, konnte ich bereits aus diversen Themen herauslesen :d
Ich sehe es daher eher als sportliche Herausforderung das maximale an "silent" herauszuholen. Steht ja auch nicht im Schlaf- oder Wohnzimmer ;)


Festplatten
Die 8 TB Seagate Surveillance sieht auf den ersten Blick tatsächlich nicht so verkehrt aus. Muss ich mich noch einlesen.
Von HGST lese ich vornehmlich auch nur gutes. Aber da die Anzahl-technisch in der selben Liga wie die WD Reds spielen, würde ich beim Russisch Roulette vermutlich wirklich eher die Reds nehmen aufgrund der U/min.
Bei den geeigneteren Platten scheint die Constellation ES.3 noch mit am bezahlbarsten zu sein - Gibt es aber nur bis 4 TB.
 
seltsam... hier laufen 14 Seagate seit 3 Jahren ohne mucken (sogar desktop platten)

- - - Updated - - -

Raidz2 bzw. Plattenaufteilung
Reines Mirroring ist mir zu verschwenderisch/ teuer.
Eine derart starke Ausfallsicherung benötige ich nicht.

warum dann überhaupt ZFS (da es sehr stromintensiv ist)


ehrlich gesagt denke ich du hast dir nur was angelesen, aber ohne die nachteile zu sehen :)
 
Zuletzt bearbeitet:
Wer mit den Daten von Backblaze beruft, belegt nur wie polemtisch und oder ahnungslos er ist. Wenn man HGST HDDs verwenden will, denn eben die Enterprise Modell wie die UltraStar oder eben die Megascale wie Backblaze sie nutzt, denn das sind Enterprise HDD die da mit den biligsten Consumer Modellen von Seagate vergleichen werden, die für gerade mal 2400 Betriebsstunden pro Jahr ausgelegt sind.
 
Wer mit den Daten von Backblaze beruft, belegt nur wie polemtisch und oder ahnungslos er ist.

Wir haben ja ab und zu unterschiedliche Vorlieben, Wertungen und Einschätzungen.
Müssen jetzt aber persönliche Angriffe her, nur weil die derzeit umfassendste Ausfalluntersuchung belegt dass HGST momentan mit der zuverlässigste Hersteller ist, Seagate etwas zurückliegt und mit einer Serie absoluten Schrott produziert hat und das eventuell der eigenen Präferenz zuwiderläuft?

Die Frage inwieweit die Topmodelle besser sind als die Midrange (jeweils 25/7 NAS freigegeben) wurde bisher gar nicht angesprochen. Von reinen Desktop-platten hat hier niemand was gesagt oder die gar empfohlen.
 
also ich sehe nur, dass die von Backblaze getesteten HGST teilweise neu 5 Jahre Garantie und Dauerbetriebseignung aufweisen... Seagate hat 2 und ist 20€ billiger/TB. Irgendwie scheint mir das nicht ganz zusammenzupassen.
 
Tatsächlich überlege ich aber noch, wie ich die Aufteilung anders gestalten kann.
Einerseits möchte ich mich gerne an optimale Anzahlen halten, aber scheinbar ist es auch nicht so dramatisch, wenn ich es nicht tue (ZFS RAIDZ stripe width, or: How I Learned to Stop Worrying and Love RAIDZ).

Solange die Komprimierung aktiv ist (lz4 als Standard bei FreeNAS bspw.), ist die Anzahl der Platten irrelevant, gibt dort keine Speicherplatzverluste / Performanceverluste aufgrund unpassender Konstellationen.
 
So ein quark ... Die Amis verklagen alles, was nicht bei 3 auf dem Baum ist.

Die interessiert auch nicht der Gewinn sondern nur ein möglicher Vergleich um dem Pseudo Imageschaden klein zu halten.

Wer die Backblaze Story kennt der lacht nur über das

P.s. bei z.B. Mindfactory siehst du die RMA Quoten :)
 
Alleine die Tatsache, daß sich die Anwaltskanzlei auf Backblaze beruft disqualifiziert sie schon.
 
Ich mag stumpf abgestorbene Threads ohne Ergebnis nicht, daher werde ich auch noch (ehrliche) Rückmeldungen geben, wenn sich etwas nennenswertes tut.

Daher hier jetzt mein Update:
Das Board ist mittlerweile lieferbar, daher geht es mit kleinen Schritten weiter.

Folgendes hat sich zu meinem Eingangspost getan:
RAM: 2* 16 GB Samsung Ram 2133 ECC, ist mittlerweile in der QVL zum Board und hat auch jemand schon erfolgreich am laufen. Bezahlbar mit ca. 95€/ 16 GB.

CPU: Xeon 1230 statt 1225 - Ich habe übersehen, dass ich die Grafikeinheit nicht benötige (auf dem Board vorhanden) und der 1230 hat HT, absolutes Plus!

Festplatten:
Ich habe mich für das Russisch-Roulette entschieden - allerdings für die Seagate NAS-Platten. Schlicht und ergreifend aus dem Grund, dass die auf 10^15 laufen im Gegensatz du den meisten anderen. Ich habe bereits jetzt eine Ersatzplatte bereit.
Edith schreibt: Ich habe mich gegen die Surveilance entschieden, weil deren Software keine Korrektur-Methode enthält.

Neu: 2* Samsung 850 Pro für die VMs - Ich gestehe ich habe sie bestellt, bevor ich genau über die SW-Config nachgedacht habe. Zur not kann ich die 2. aber auch anderweitig nutzen.

Außerdem habe ich 2 USB-Sticks ggf. für den Hpervisor. Ansonsten werden die für etwas anderes genutzt.

Die 5 Industrie-Gebläse des Gehäuses habe ich durchgehend mit Silent Wings 2 ersetzt (nachdem ich das Gummi-Geraffel mit einem Cutter beschnitten habe, da sie ansonsten nicht in die Aufhängungen passen).


Weiter bin ich jetzt aber noch nicht, weil ich jetzt noch auf die Sachen warte, die ich vergessen habe:
- Gehäuseblende für das Netzteil (war ein redundantes 3er NT drin)
- Schrauben für die Laufwerk-Trays
- Diverse Kabel für die (für mein Empfinden) abartig umfangreiche Backplane.


Und ich habe pumuckels Einwände nicht vergessen.
Aber ich werde es jetzt einfach so versuchen. Wenn die Lautstärke nicht in den Griff zu bekommen sein sollte, tausche ich stumpf das Gehäuse. Aber ich möchte es dennoch versuchen.
Auch bei den Platten bin ich mir bewusst, dass das ganz gewaltig in die Hose gehen kann, aber auch hier lasse ich es einmal darauf ankommen, und warte auf die Rechnung mit dem Lehrgeld.

Ich werde übrigens Raidz1 mit 2+1 nutzen, das letzte vdev entweder auf 2*1+1 oder 2+2.


Und ja, ich werde sofort bescheid geben, sobald mir die Platten um die Ohren fliegen (oder sie erstaunlich lange laufen, für den Fall) oder die lautstärke wirklich nicht in den Griff zu bekommen ist.
Soviel Ehrlichkeit muss dann wohl sein, wenn sich schon Leute mit meiner Anfrage die Zeit um die Ohren geschlagen haben.

Vielen Dank an alle bis hier hin.
 
Zuletzt bearbeitet:
habe mich gegen die Surveilance entschieden, weil deren Software keine Korrektur-Methode enthält.
Auch wenn der Blödsinn immer wieder im Netz verbreitet wird, so bleibt es doch nur totaler Schwachsinn von Leuten die von HDDs keine Ahnung haben! Wäre es so, könnten die Platten nicht auch eine UBER von 1:10^14 bzw. für die 8TB sogar 1:10^15 haben! Der ganze Mist kommt von einem Missverständnis aus mangelndem Wissen, denn diese geringere Fehlerkorrektur gilt nur bei Verwendung der ATA Streaming Befehle die eben für Echtzeitvideoaufzeichnung von den entsprechenden Geräten genutzt werden, aber halt nicht normal unter Linux oder Windows Verwendung finden. Da bei Echtzeitvideoaufzeichnungen ein Bitfehler weit weniger schlimm ist als Aussetzer weil ganze Frames fehlen, kann man jedem Befehl dort seinen eigenen Timeout mitgeben und dann liefert die Platte im Zweifel bei Nutzung dieser Befehle auch nicht korrekte Daten innerhalb der Timeouts statt noch länger zu versuchen die korrekten Daten zu liefern oder zu schreiben. Aber wie gesagt werden diese Befehle nicht automatisch verwendet, nur weil die Platte sie auch unterstützt, sondern eben nur von den besonderen Geräte oder Anwendungen für Echtzeitvideoüberwachung.

Selbst die WD Re (nicht Red) als Enterprise Nearline HDD mit ebenfalls einer UBER von 1:10^15 unterstützt diese ATA Befehlserweiterung und liefert deswegen nicht einfach mal falsche Daten oder hätte keine Fehlerkorrektur, sonst würde sie sich auch nicht für die übrigen Einsatzzwecke eigenen die WD für sie vorsieht. Also vergesse den Schwachsinn wieder und wenn Dir das nächste mal jemand sowas erzählen will, denn vergiss alles andere was der erzählt oder schreibt auch gar schnell wieder, denn Ahnung hat der eben leider nicht von dem was er da von sich gibt. Leider schreiben solche Typen zuweilen sogar in Fachzeitschriften, da kann man nur hoffen das deren Kollegen die die anderen Bereiche betreuen wenigstens mehr Kompetenz haben.
 
So, wieder einmal ein Zwischenbericht (ich weiß, ich brauch ewig für alles).

Zu den Seagate NAS-Platten haben sich noch 3 HGST He6 gesellt - weil die sehr kurzzeitig für einen "mörder" Preis bei einem Händler zu haben waren.

Da ESXi nativ die X550 NICs nicht unterstützt ("No supported NIC found" oder so), habe ich Hyper-V ausprobiert.
Allerdings war ich nach langem hin und her nicht glücklich damit. Auch, weil es kein Passthrough von PCI-Devices erlaubt, ich hätte jede Platte einzelnd durchreichen müssen.

Nach einer neuen Suche habe ich auf der VMWare-Seite aktualisierte Treiber (mit VIB) für die intel 10GbE-NICs gefunden.
Damit konnte ich mir dann eine Custom-ISO anlegen und ESXi erfolgreich installieren.

Nun kopiere ich seit ein paar Stunden Daten von meiner Synology auf das neue ZFS-Share.
Und es stellt sich beim 19"-Gehäuse, wie von pumuckel immer wieder gesagt, tatsächlich Ernüchterung ein.

Nicht der Vibrationen wegen oder der Lautstärke: Die ist tatsächlich einigermaßen akzeptabel mit 6 Platten und den Silent Wings.
Mit einem Serverschrank wäre das auf eine echt geringe Lautstärke zu bringen (auch in Hinblick auf weitere Platten).

Durch die Silent Wings entsteht aber der tatsächliche Knackpunkt: Die Fördermenge reicht nicht, bzw. nur gerade so vielleicht.
Die Festplatten werden wärmer, als es mir lieb ist.
Nach 2 Stunden kopieren hatte die Platte, welche von 3 Seiten von wiederum Anderen umschlossen ist (Nr. 2), 48°C.
Ich habe mich darauf hin daran gemacht den Luftstrom zu verbessern, indem ich überflüssige Löftungslöcher in der Front geschlossen habe, trotzdem hat die Platte nach weiteren 2 Stunden noch immer 47°C.


Ich bin noch immer der Überzeugung, dass das alles mit einem guten 19" Schrank und Dämmung in den Griff zu bekommen ist.
Aber ich will ausnahmsweise vernünftig sein und abwägen:

Neues, leiseres Gehäuse: ~100 €
Serverschrank + Dämmung: ~600+ € + Risiko

Problem dabei: Ich habe keinen Raum zum ausweichen (die Küche empfinde ich nicht als geeigneten Serverraum). Selbst wenn ich die 19"-Variante weiter verfolge, kann ich nicht einfach sagen, dass der Server einfach woanders hin kommt.
Daher tendiere ich derzeit zu einem normalen Gehäuse, welches bis 8 Platten reicht. Bevor ich weitere Platten benötige, sollte ich schon wieder in eine andere Wohnung umgezogen sein, wo die Raum-Situation ggf. besser ist.


Wie auch immer: Ich bereue nichts :d Das Servergehäuse wird im Zweifelsfall ja nicht schlecht :)
Aber pumuckel hatte gewissermaßen recht.
 
mit einem gedämmten Serverschrank wird das Problem verlagert.
Die Serverschränke haben i.d.R. 220V Lüfter, die "ekelhaft" Brummen können und dabei gerne noch Dissonanzen erzeugen. Ich habe bei meinem Schrank erstmal die komplette Schranklüftung auf 12 V Lüfter umbauen müssen.
Die Schrankbelüftung muss auch Leistungsfähig genugt sein, die Warme Luft abzutransportieren, Leise Lüfter mit entsprechend wenig Luftdurchsatz kommen da auch schnell an die Grenzen.

Bei meinem Serverschrank ist jetzt die Tür auf, weil das das kleinere Übel ist - so bleiben die Platten bei erträglichem Geräuschpegel (19x 8TB) auch nach mehreren Stunden Dauerfeuer deutlich unter 50° (44-48°)
Vergiss bei dieser HDD-Packungsdichte Temperaturen unter 40° - es sei denn du setzt entsprechende Lüfter ein, die dann garantiert lauter als die HDDs sind.

zum Thema NAS im "normalen" Gehäuse als Anregung (verlinkt direkt zum entsprechendem Post)
http://www.hardwareluxx.de/communit...uide-april-2016-a-1114030-5.html#post24534978
 
Zuletzt bearbeitet:
Nun, man könnte es als "Nekro" verstehen, ich mag dennoch mal meine weiteren Erfahrungen mitteilen, da ich gerade jetzt (leider) viel feststellen/ lernen muss.

Das, meiner Meinung nach, wichtigste: Solange alles läuft, ist ein Selbstbau-NAS/ESXi-Server eine tolle Sache. Aber wehe wenn nicht.

Nachdem ich meinen Server nach meinem letzten Beitrag in ein Tower-Gehäuse habe umziehen lassen, lief er toll.
Na gut, manchmal war PLEX über FreeNAS etwas eigenbrödlerisch und ich habe es nicht geschafft auch nur eine Windows-VM zuverlässig mit Netzwerk zu versorgen, aber was solls.

Jetzt ist irgendetwas kaputt und mir sind so einige Sachen aufgefallen, leider etwas spät:
- Wenn man kein Profi ist, erweisen sich NMI Purple Screens als....schwierig.
- Viele Komponenten fest verdrahtet auf einem Board, insbesondere der HBA - ebenfalls schwierig.
- Teure Hardware, bei der man nicht von Freunden mal ein Ersatzteil zum testen ausleihen kann - macht die Sache zumindest nicht einfacher.
- Serverhardware ist nicht unkaputtbar.


Vermutlich ist mein Mainboard defekt, bzw. irgendeine der Komponenten darauf (nach ca. 5 Minuten Laufzeit löst der Watchdog aus oder das System friert ein, wenn er deaktiviert ist).

Da ich den Onboard-HBA verwendet habe, muss ich mir entweder das gleiche (teure) Boad wieder kaufen (ich gehe halt auch nicht davon aus, dass ich mich nach 2 Jahren noch auf die Garantie berufen kann), oder ein anderes Board + identischer HBA, um ohne Umwege das System wieder ans laufen zu bringen.

Natürlich habe ich wichtige Daten gesichert, aber mir ging es von Anfang an ja auch um Ausfallsicherheit.

Meine Lehren bisher daraus:
- Möglichst viele Einzelkomponenten machen die Fehlersuche einfacher und günstiger.
- Die Fehlersuche gestaltet sich bei Selbstbau aufwändiger (nunja, immerhin hat man überhaupt dadurch erst die Möglichkeit dazu). Eine Synology hätte ich einfach eingeschickt (bei 4 Jahren Garantie auch noch günstiger).
- Hätte ich Storage- und VM-System getrennt, könnten meine VMs über gesicherte VMFS' weiter laufen, so natürlich nicht.


Jetzt muss ich mir überlegen, ob ich bei dieser "Gelegenheit" nicht so manches umstricke, was im ersten Moment natürlich noch mehr Kosten erzeugt, als wenn ich einfach ein neues Mainboard kaufe.
Sehr ärgerlich, das alles.


Übrigens:
In der bisherigen Laufzeit hat sich nicht eine der Platten verabschiedet. Immerhin.
Allerdings werden die Seagate-Platten abartig warm/ heiß im Vergleich zu WD Reds oder anderen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh