[Kaufberatung] low power NAS mit ZFS?

ic3m4n2005

Enthusiast
Thread Starter
Mitglied seit
27.11.2004
Beiträge
3.488
Ort
Hamm
Hallo zusammen,

ich habe zu Hause ein Asustor 4Bay NAS mit 4x 3TB WD Reds. Mir ist nun zum weiten Mal in sicher schon 8-10 Jahren eine Platte im Raid 5 Verbund hops gegangen. Diesmal fing eine an zu pfeifen und eine rote Leuchte am Wechselschacht kan beim backup der Daten auch dazu (System sagt Datenübertragungsfehler, Smart und Health sagt aber HDD gut/gesund).
Mir stellt sich da halt die Frage wie sicher sind meine Daten bzw. was kann man verbessern. Ein Freund hat sich ein ZFS System angeschafft und die Vorteile klingen schon gut.

Meine Frage also, soll ich das vorhandene System einfach weiter benutzen oder ein ZFS NAS bauen?
Platz brauche ich ca. 8-10 TB, also mit den vorhandenen 4x3TB Raid5 komme ich aus, bzw. denke wenn man das vergrössert hat man nachher auch mehr Müll :)
Speed habe ich jetzt schreibend 90 MB/s lesend volle GBit Leistung, was ich ausreichend finde, da ich noch keinen schnelleren Switch habe.
Am wichtigsten ist mir der Stromverbrauch, das sollte so niedrig wie möglich sein.
Benutzt wird das System momentan nur zur Daten-/Medienverfügbarkeit, ich wollte mir in Zukunft mal Docker ansehen, mehr hab ich aber grad nicht aufem Schirm.

Bin relativ offen für alles, also mal raus mit Fragen und Vorschlägen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein Raid-5 bei dem nach Ausfall einer Platte ein einfacher Lesefehler auftritt ist in der Regel komplett verloren. ZFS ist da viel unproblematischer. Bei einem von der Redundanz vergleichbarem Z1 kann durch Prüfsummen und doppelte Metadaten das Problem meist auf eine defekte Datei begrenzt werden.

Unabhängig von ZFS würde ich alte Platten regelmäßig ersetzen. In dem Fall idealerweise durch ein 8-14TB Mirror. Die alten Platten sind für Backup nutzbar.

Performance ist abhängig von der Datengröße und gewünschter Sicherheit. Selbst wenn man sequentiell (Videodatei) 90 MB/s hat, bricht das bei vielen kleinen Dateien massiv ein. 20 MB/s statt 90 MB/s ist dann normal zumindest nach ein paar Sekunden wenn der Cache voll ist. Wenn man dann noch sicheres Schreiben möchte (kein Datenverlust oder defektes Raid/Dateisystem durch Absturz beim Schreiben) so landet ein langsamer Plattenpool gerne mal bei 3 MB/s und bei Raid-5 braucht man zusätzlich ein Hardwareraid mit BBU (ZFS kann das wegen Copy on Write auch mit Softwareraid ohne Batteriepufferung)

Smartwerte ist wie Blutdruck messen. Selbst wenn der Wert ok ist, kann man todkrank sein. Ist also sowas wie eine Vorhersage um Probleme frühzeitiger zu erkennen. Wenn ZFS aber Prüfsummenfehler meldet oder die Platte gar wegen too many errors offline setzt, dann ist sie sicher kaputt egel mit welchem Smartstatus. Dazu kommt dass Smart nichts über die Daten aussagt, nur Plattenwerte überprüft. Nur ZFS kann Fehler bei Daten und Metadaten durch Prüfsummen erkennen und "hot also online" reparieren (selbstheilendes Dateisystem).

ZFS braucht wenn man nicht auf sehr hohe Performance geht keine besonders schnelle CPU. Bei langsamen Platten ist aber ausreichend RAM als Schreib/Lesecache wichtig. Bei Solaris/OmniOS würde ich nicht unter 4GB gehen, bei Free-BSD und Linux nicht unter 8GB.
 
Zuletzt bearbeitet:
Ich hatte schon ein Auge auf Truenas geworfen, würde am liebsten was mit GUI zum steuern haben, eben wie ein richtiges NAS.
Jemand ne gute Hardwarekonfiguration für wenig Ernergieverbrauch? WakeOnLan wäre auch wichtig, aber ich nehme an das geht immer?
 
TrueNas wird doch über die GUI verwaltet.

Die GUI wird wie bei jedem anderen Nas auch über eine Webseite abgerufen.


Zusätzlich sind Festplatten auf 5 Jahre Laufzeit ausgelegt.

Danach ist es ein Glücksspiel.

Da hilft ZFS auch nicht unbedingt.
Ausfall mehrere Platten beim rebuild.

Normal kauft man neue und nimmt die alten für Backups.


Hardware / Festplatten mit einem Alter von 8-10 Jahren sind für produktiv Daten sehr abenteuerlich und sollte nur mit einem Backup betrieben werden.

(Sonst natürlich auch)

Der Standard wäre Dell T40, HPE Microserver Klasse.

Das Asustor wird wahrscheinlich auch kein ECC unterstützten. Also eher privater Storage mit Abstrichen.

Sicherheitsupdates gibts bestimmt auch nicht mehr.

Verbrauch mit mit 4x 3,5 Zoll Festplatten bei 25-35 Watt liegen.
 
@Hipiman
Daher ja Auge auf Truenas geworfen ;)
Sehe grad das du ja fast genau das als NAS System in der Signatur hast.
Irgendwas was du jetzt anders machen würdest am System? Braucht man 64GB Ram oder langen 32? Bin am überlegen anstatt Raid5/Raidz evtl nur Mirror zu machen mit zwei 8 oder mehr TB HDDS, Sollte ja beim Verbrauch etwas helfen, nur obs vom Speed reicht... ??
 
Irgendwas was du jetzt anders machen würdest am System? Braucht man 64GB Ram oder langen 32?
Ich habe 16 GB und keine Probleme. Wahrscheinlich würden bei mir auch 8 GB reichen...

Bin am überlegen anstatt Raid5/Raidz evtl nur Mirror zu machen mit zwei 8 oder mehr TB HDDS, Sollte ja beim Verbrauch etwas helfen, nur obs vom Speed reicht... ??
Ich habe mich bewusst für einen ZFS Mirror entschieden.

- Stromverbrauch (habe bei mir 2 x 12 TB im Mirror)
- Es gibt verschiedene Aussagen/Meinungen, dass ein Mirror sogar besser/vorzuziehen ist, z.B.
TrueNAS:
Es gibt Core (FreeBSD) und Scale (Linux).

Scale ist neu. Der Release ist für Februar geplant.
Ich nutze derzeit noch Core. Werde aber früher oder später voraussichtlich auf Scale umsteigen. Unter Linux kannst du z.B. PowerTOP nutzen, um den Stromverbrauch noch weiter runterzudrücken.
 
Also ich würde dir folgendes empfehlen:
  • Es gibt bei ebay-kleinanzeigen einen alten Dell T20 mit Xeon 1225v3 für ca. 75 - 100 Euro
  • Bau da mindestens 8GB ECC RAM rein, besser 16GB ECC RAM (DDR3, ich würde 4GB oder 8GB Riegel nehmen), kostet gebraucht ca. 25 - 50 Euro
  • Als Festplatten würde dir ein 10TB ZFS-Raid 1(Spiegelung) mit 2xSeagate Exos (7200rpm) oder Seagate Ironwolf NAS (5900rpm) empfehlen (ca. 520 Euro - 620 Euro - gebraucht weniger, aber das ist ein riskantes Spiel - siehe oben, Platten nie gebraucht kaufen...)
  • Betriebssystem: Truenas > 12
  • Als Backup-Platte eine verlässliche 10TB Platte mit USB3 Gehäuse, auch als ZFS eingerichtet
  • Für den Backup-Job ein zfs send einrichten

Ergebnis: Ein leiser Server inkl. Backup-Platte, der 25 - 30W im Idle braucht, einen Durchsatz von 104MB / s (sequenziell) hat und dabei max 25% CPU-LAST. Ich hab 2 davon (1 Prod, 1 Backup) und bin mega-zufrieden damit.

Einziger Nachteil: Man braucht recht viel Platz für den Trümmer - wenn du wenig Platz hast, kannst du einen HP Microserver G8 mit xeon kaufen, der ist etwas teurer als der Dell, aber deutlich kompakter.

Sowas ganz fancy neues ist für ein NAS meiner Ansicht nach übertrieben...



Hinweise:
  • 3 Platten brauchen mehr Strom als 2
  • Raid-Z / Raid5 ist recht riskant bei einem Plattenausfall (Raid ist ohnehin eher für Ausfallsicherheit statt für Datensicherheit)
  • Aktuell sind GUTE Server-Boards bei Ebay-kleinanzeigen kaum zu bekommen, neu auch nicht unbedingt besser (Chip-Shortage)
  • Die Backup-Platte ist dringend zu empfehlen, auch wenn du mit Raid1 bereits recht unwahrscheinlich einen Datenverlust riskierst
  • Von komplettem Selbstbau rate ich ab. Hab ich hinter mir - die Kosten sind immens viel höher und der Gewinn ist minimal für ein Home-Nas, z.B. Hot-Swap zahlst du teuer und brauchst es in einer Heim-Umgebung vermutlich eher nicht, weil du keine 99% uptime brauchst
  • Von einem Raspberry-PI NAS rate ich auch ab (kein ECC, schlechte Performance, Stromeinsparung rechnet sich nicht, Kosten sind höher als für einen Dell T20)
 
Zuletzt bearbeitet:
  • Von einem Raspberry-PI NAS rate ich auch ab (kein ECC, schlechte Performance, Stromeinsparung rechnet sich nicht, Kosten sind höher als für einen Dell T20)
Das größte Problem am Raspberry-PI sind die fehlenden S-ATA-Schnittstellen. Dann wird einem schlecht, wenn man die USB-Konstruktionen sieht (wobei USB-C nicht mehr so katastrophal ist). Es würde zwar die Möglichkeit für S-ATA via Compute-Module bestehen. Gibt es aber AFAIK nicht (abgesehen von evtl. Prototypen etc.).
Die Performance reicht für einen Filer locker, wenn man auf ECC-Ram verzichten kann.

Viele Leute schauen aber nicht rechts und links und greifen immer zum Raspberry Pi, obwohl es je nach Anwendungszweck manchmal bessere Alternativen gibt, wie z.B. den Odroid HC4 mit S-ATA (den auch der ein oder andere OMV-Benutzer hat): https://www.hardkernel.com/shop/odroid-hc4/
Das Gehäuse ist aber bescheuert. Wenn man so etwas hat, sollte man das modden bzw. die Platine in etwas einbauen, in dem die Platten stabil ohne Vibrationen stehen.
 
Das größte Problem am Raspberry-PI sind die fehlenden S-ATA-Schnittstellen.
Naja, ich finde, das größte Problem ist die Stabilität / Verlässlichkeit. Raspberries an sich sind klasse, wirklich. Ich hab 3 und man kann damit ne Menge machen. Aber wenn es um Performance und Datenintegrität geht und dann 80 Euro für einen Raspberry 4 mit 4GB RAM zahle, ohne Gehäuse, Sata, ECC, Netzteil, Lüfter und mit fragwürdiger Fileserver Performance, da muss man sich schon fragen, ob man sich wegen potenziell eingesparten 15W (real sind es vermutlich eher weniger) so eine Arbeit antun möchte...

Den Dell T20 klicke ich auf, stopfe 2 Platten rein, schließe sie an und er ist Einsatzbereit. Und wenn ich noch etwas Lust auf Leben am Limit habe, stelle ich mir im BIOS noch Intel AMT an und habe sogar noch Remote Adminstration, ohne dass das Gerät an ist.

Für einen Audioplayer oder einen Mediaplayer würde ich keinen T20 nehmen, sondern den Rapsberry. Für einen kleinen Home-Fileserver ist der T20 aber wie gemacht. Natürlich zähle ich hier alles dazu, was "RICHTIGE" Server oder Workstations sind - also Xeon mit ECC Support oder wahlweise halt Ryzen/EPIC mit ECC (wobei die meiner Ansicht nach für einen reinen Fileserver auch die sprichwörtlichen Kanonen auf Spatzen sind).
  • Dell T20/T30/T40 / T1700 / Precision Workstations, etc.
  • HP Microserver ab G8
  • FUJITSU PRIMERGY TX1310 M3 und ähnliche
  • Supermicro SuperServer
Kurz zusammengefasst: Wenn ein XEON und ECC reinpasst und unterstützt wird, ist es für einen Fileserver meistens ok, nur der Stromverbrauch ist dann noch relevant :-) Und der ist bei DELL und Fujitsu ziemlich niedrig und damit gut... und der T20 ist das lowest End, was bei "echtem" Server im Moment geht... ich bin umgefallen, als ich gesehen habe, das die aktuell 75 Euro und weniger bei ebay kosten.
 
Naja, ich finde, das größte Problem ist die Stabilität / Verlässlichkeit.
Deswegen der Hinweis mit USB. Wobei man da auch durchaus unterscheiden muss...

Aber wenn es um Performance und Datenintegrität geht und dann 80 Euro für einen Raspberry 4 mit 4GB RAM zahle, ohne Gehäuse, Sata, ECC, Netzteil, Lüfter und mit fragwürdiger Fileserver Performance, da muss man sich schon fragen, ob man sich wegen potenziell eingesparten 15W (real sind es vermutlich eher weniger) so eine Arbeit antun möchte...
Auch in der x86-Welt verzichten viele auf ECC-Ram. Mir ist ECC-Ram ebenfalls lieber. Aber wer darauf verzichten möchte, für den kann je nach Anwendungsfall ein SBC interessant sein (dann sollte man trotzdem oder gerade dann Btrfs (ARM/x86) oder ZFS (x86) nutzen)
Und dieser Hinweis mit der fragwürden Performance stimmt einfach nicht. Wenn du Gigabit haben möchtest und das ausgereizt wird, was ist dann daran langsam? Schon schwächere SBC als ein RPI4 konnten das.
Wenn ich das richtig in Erinnerung habe, hatten die bei Armbian und OMV jede Menge Optimierungen damals eingebaut, dass selbst so etwas wie ein Odroid HC2 ordentlicher performt: https://forum.armbian.com/topic/4983-odroid-hc1-hc2/

ODROID-HC2.jpg



ODROID HC2
  • Local storage performance with HC2 is up to 400 MB/s with a fast SSD (as every HDD out there is slower the HDD and not the USB/SATA interface is the bottleneck here)
  • Network performance with HC2 is up to 940 Mbits/sec in both directions (fully saturating Gigabit Ethernet)
  • As a result overall NAS performance is around 100 MB/s in both directions. If it's lower then usually the HDD is the bottleneck (with 2.5" HDD that are full of data the HDD itself slows down to way below 100 MB/s)

Und Arbeit? Zu der Zeit, als der HC2 angesagt war, gab es fertige Images. Arbeit ging gegen Null! Ich selber hattte allerdings nie einen HC2.

Und trotzdem haben viele damals aus Unwissenheit sich einen Raspberry Pi für NAS gekauft, obwoh dieser für NAS richtig grottig war und es für den Anwendungsfall deutlich besseres gab (siehe Beispiel oben). Erst mit dem 4er RPI ist es besser geworden. Viele wissen ja noch nichtmal, wo die Schwachstellen beim RPI liegen.

Mir ist auch ein System mit ECC-Ram etc. lieber ohne Rumgebastel etc. mit bewährter "NAS-Distribution". Aber hier haben einige einge falsche Vorstellung über SBCs (btw. man kann sich ja auch mal anschauen, was in manchen NAS zum Einsatz kam oder kommt von Synology und Co.).
Es kommt auf den Anwendungsfall an.

Ein RPI4 würde ich für NAS auch jetzt nicht nehmen. Mir ging es hier eher um das allgemeine Vorurteil, dass SBCs grundsätzlich lahm sind und nicht taugen...

Edit:
Gerade entdeckt (habe mich mit dem Thema SBC in der letzten Zeit auch nicht mehr beschäftigt).

ROCK Pi Penta SATA HAT is an addon HAT designed for ROCK Pi 4. It utilizes the high speed PCIe buses on ROCK Pi 4 and providing a complete NAS solution based on ROCK Pi 4.


---

Compute Module 4 Boards and Projects
 
Zuletzt bearbeitet:
Mir ging es hier eher um das allgemeine Vorurteil, dass SBCs grundsätzlich lahm sind und nicht taugen...
Deine Posts sind auch für mich lehrreich... mit Odroid HC2 oder HC4 hab ich mich noch kaum befasst. Ich weiß, dass "Low-Cost-Low-Energy" nicht automatich auch "Low-Performance" bedeutet und ich habe immer noch einen Odroid C2 hier, der damals der erste 4K Media-Player für unter 100 Euro war. Das Ding ist spitze. ARM ist ohnehin eine sehr interessante Plattform, insbesondere zukünftig.

Ich finde aber auch, dass viele "Ratgeber" bezüglich NAS einfach nicht bedarfsgerecht sind... Grade was Preis-Leistung und Zeit- und Wartungsaufwand angeht, sind diese komplett selbstgebauten Lösungen für Otto-Normalverbraucher aus meiner Sicht nicht konkurrenzfähig, wenn man schnell eine fertige Lösung braucht.

Viele wissen auch nicht, dass es die Fertig-Server der großen Hersteller echt in sich haben (niedriger Verbrauch, niedrige Lautstärke, niedriger Preis, gute Leistung) und etwas ältere Gebrauchtgeräte sind preislich ein Hammer mit immernoch hervorragender Leistung.

Zu Spezial-Lösungen wie den Odroid HC2 oder Odroid HC4 mag ich erstmal nix sagen, da hab ich keine Erfahrung mit - mein Gefühl sagt mir nur, dass der "Produktsupport" und Ersatzbeschaffung schon nach wenigen Jahren schwierig wird, während bei Marken wie Dell, HP und Fujitsu diese Probleme wohl später erst auftreten.

Zusammengefasst:

  • NAS von Supermicro als Blade in einem Rack => für die meisten Leute wohl übertrieben
  • NAS mit USB von der Fritzbox oder Raspberry PI => für die meisten Leute zu wenig und eher als Spielerei zu betrachten
  • NAS als Komplettselbstbau mit Workstation oder Server-Board => Leistung prima, aber zu kompliziert / aufwändig / teuer
  • NAS von Synology / QNAP und Konsorten => gut, aber immer noch zu teuer / eingeschränkt
  • NAS auf einem Fertig-Server / Workstation => aus meiner Sicht die beste Lösung, wenn man entsprechende Ansprüche und den Platz für so einen Trümmer hat
Von meiner Seite ist damit alles gesagt :-) Vielen Dank noch mal für den Tipp mit dem SBC, damit befasse ich mich bei Zeiten mal.
 
Zu Spezial-Lösungen wie den Odroid HC2 oder Odroid HC4 mag ich erstmal nix sagen, da hab ich keine Erfahrung mit - mein Gefühl sagt mir nur, dass der "Produktsupport" und Ersatzbeschaffung schon nach wenigen Jahren schwierig wird, während bei Marken wie Dell, HP und Fujitsu diese Probleme wohl später erst auftreten.

HC2: Das Ding hat damals glaube ich um die 50€ gekostet (genau weiss ich es nicht mehr).
Dann gab es hier wahrscheinlich Leute, die sich für mehrere 100€ einen Server ohne ECC-Ram zusammengebaut haben für einfache Anwendungszwecke, die im Endeffekt auch mit dem SBC gegangen wären (OMV als NAS-Distribution).
Ist natürlich nicht mit einem ausgewachsenen Server mit ECC-Ram & Co vergleichbar. Aber je nachdem was man wollte, hat es dann trotzdem seinen Zweck sehr stromsparend erfüllt.
 
Zuletzt bearbeitet:
Zum Thema SBC, denke das ich mit X86 an dieser Stelle etwas besser fahre was Docker angeht.
Das mit den T20 schaut interessant aus, was mich etwas stört ist das es ruhig kompakter sein darf, ich nenns mal NAS Größe und nicht unbedingt Optik alter PC sein muss :)
Außerdem wäre schon Geld für was neues da, soll ja auch wieder 10 Jahre plus halten.
 
Zum Thema SBC, denke das ich mit X86 an dieser Stelle etwas besser fahre was Docker angeht.
Ja, wahrscheinlich. Wir sind eben vom Thema abgekommen.

Problem aktuell ist, dass die Komponenten, die als stromsparend bekannt sind, häufig nicht mehr erhältlich sind.

Am wichtigsten ist mir der Stromverbrauch, das sollte so niedrig wie möglich sein.
Was derzeit noch lieferbar ist und voraussichtlich ziemlich stromsparend sein könnte:

Asus ROG Strix B550-I + ECC-Ram + passender AMD-APU (mit ECC-Ram Support) + effizientes Netzteil.
Das Board bietet 2.5GBe Netzwerk (Intel i225-V)

Zu dem System gibt es als Server leider mir keine bekannten Erfahrungen.
Unter Windows kann so ein System sehr sparsam sein:

Mit einem halbwegs aktuellen Linux (wie das kommende TrueNAS Scale) sollte das aber laufen (auch stromsparend => PowerTOP).
TrueNAS Core sollte ebenfalls laufen (wenn vermutlich auch mit etwas höherem Stromverbrauch).
 
  • NAS als Komplettselbstbau mit Workstation oder Server-Board => Leistung prima, aber zu kompliziert / aufwändig / teuer
Wer einen PC zusammenbauen kann bekommt auch das hin, da ist nix komplizierter dran.
Man hat halt weniger Auswahl bei den Komponenten (wenn man Remote KVM und ECC haben will)
  • NAS auf einem Fertig-Server / Workstation => aus meiner Sicht die beste Lösung, wenn man entsprechende Ansprüche und den Platz für so einen Trümmer hat
Das kostengünstigste Neugerät mit ECC dürfte derzeit der Dell T40 für rund 500 € sein, für den Preis baue ich eine kompaktere Lösung selbst

https://www.heise.de/preisvergleich/inter-tech-ipc-sc-4004-88887186-a1485329.html?hloc=at&hloc=de ca. 80 €
https://www.heise.de/preisvergleich...2-31-ssp-300sub-a1974411.html?hloc=at&hloc=de ca. 45 €
https://www.heise.de/preisvergleich...mbd-x11scl-if-b-a1942322.html?hloc=at&hloc=de ca 240 €
https://www.heise.de/preisvergleich...20-bx80684g5420-a2058227.html?hloc=at&hloc=de ca. 75 €
2x https://www.heise.de/preisvergleich/transcend-dimm-4gb-ts512mlh72v1h-a1354984.html?hloc=at&hloc=de ca. 90 €

Summe: 530€
(wobei ich gerade it erschrecken feststellen muß, daß die CPU-Preise für So1151v2 kräftig angzogen haben. Da wird wohl nicht mehr lange was gehen.)

Aktuellere Plattformen So1200 oder So1700 sind derzeit nur ungenügend geeignet
- keine miniITX Mainboards
- nach derzeitigem Stand unterstützen die kleinen Desktop CPUs( Celeron, Pentium und i3) kein ECC

Mit AMD (Ryzen) wird das noch etwas billiger, dann allerdings ohne iKVM/RemoteKVM.


Der Aufwand danach ist in beiden Fällen gleich:
- Nas Distri installieren und Konfigurieren / einrichten.
 
Zuletzt bearbeitet:
Vielen Dank für den Beitrag.
Witzig, dass du dir genau das raus gesucht hast. Hast du das Gehäuse mal in der Hand gehabt? :-) Ich habs hier und es ist sehr gewöhnungsbedürftig. Beim Zusammenbau habe ich mich geschnitten, weil die Kanten nicht entgratet sind und musste das Teil komplett zerlegen, um das Board einzubauen. Außerdem passt KEIN vernünftiger leiser Lüfter drauf, weil zu wenig Platz unter dem Bay ist...

  • Bau-Aufwand: Mindstens 2 Stunden voller Gefrickel und Notlösungen. Und ich würde mich nicht als Anfänger bezeichnen.
  • Lautstärke: Ohne Custom-Lösung jault das Teil wie eine Katze, weil kein guter Kühler mit Lüfter unter das Bay passt. Ich habe mit Heatpipes was eigenes konstruiert, damit gings sehr sehr gut - aber das war dann noch mal 2 Stunden Aufwand. Bei nem Stundenlohn von 10 Euro (haha) wären wir somit schon bei mindestens 30 Euro Aufpreis gegenüber nem Fertig-Server
  • Zusätzlich ist es noch teurer als der Dell T40 (das neueste Modell)...
Hättest du jetzt das Fractal Design Node 304 genommen, aber das muss man erstmal wissen... Nunja, aber hier zeigt sich schon die Problematik... die Komponentenauswahl ist kaum noch ohne Beratung zu bewerkstelligen und jeder hat eigene Vorlieben. Ich bin hier in dem Forum, weil mich die Leute hier wirklich perfekt unterstützen. Aber man kann eben nicht alles wissen.

Du hast natürlich Recht: Als Experte mag man mit einem Eigenbau zurecht kommen und auch etwas Geld sparen bzw. zumindest eine bessere Preis-/Leistung zu erziehlen. Aber als Amateur oder Laie wohl eher nicht... und die Fertig-Server sind halt fertig... kein Aufwand außer Platten rein.

Was auch geht: Gebraucht von einem Experten ein komplettes Custom NAS System kaufen :-) Gibt viele, die ihr wirklich ausgesucht gutes Zeug bei ebay kleinanzeigen fürn Appel und n Ei reinstellen.
Das du ein Experte bist, würde ich dir einfach mal unterstellen, denn ich lese deine Posts regelmäßig mit :-)
 
Zuletzt bearbeitet:
Das Board hatte ich überhaupt nicht mehr auf dem Schirm. Das scheint sogar recht sparsam zu sein, was sonst auf Supermicro-Boards nicht unbedingt zutrifft (u.a. wegen IPMI 2.0 (Fernwartung), die man aus Stromspargründen am besten weg lässt, sofern man die nicht zwingend benötigt).
Die c't hatte auf der Basis mal ein System zusammengestellt, das im IDLE glaube ich unter 15 Watt lag: https://www.heise.de/preisvergleich/?cat=WL-1682454&hocid=ct + https://www.heise.de/ratgeber/Bauvorschlag-Kompakter-Heimserver-2020-4868033.html
Mit besserem Netzteil kann man vermutlich noch das ein oder andere Watt rausholen.

@sandreas: Die c't hat das Fractal Design Node 304 verbaut.
 
Zuletzt bearbeitet:
Asus ROG Strix B550-I + ECC-Ram + passender AMD-APU (mit ECC-Ram Support) + effizientes Netzteil.
Das würde ich nehmen, wenn ich was neues kaufen müsste. Zusammen mit ner Pico PSU 150 und und dem Fractal Design Node 304

Supermicro sind Spitzen-Boards - aber ich hätte auch lieber einen Ryzen gehabt :-) Genauer den 4750er mit 8 Cores... Aber ich hatte eben noch ein Asrock C236 WSI da, was ich zuvor in dieses Inter-Tech Gehäuse gequetscht hatte. Siehe auch https://www.hardwareluxx.de/communi...k-c236-wsi-xeon-1225v5.1311572/#post-29044743
Zum Glück musste ich kein NAS mehr bauen, sondern nur einen Homeserver :-)

Ich komme auf ca 14 Watt im Idle mit nem Quad-Core Xeon E3-1225v5. Das langt mir - und ich müsste lange Strom sparen, um die Kosten für ein ganz neues System zu rechtfertigen - das ganze hat mich zusammen 200 Euro gekostet (gebrauchte CPU, gebrauchte 32GB RAM, Gebrauchtes Gehäuse)

Alternativ hätte ich noch das Gigabyte C246-WU2 genommen. Da schafft man 5W im Idle - aber das gabs nirgendwo.
 
Das würde ich nehmen, wenn ich was neues kaufen müsste. Zusammen mit ner Pico PSU 150 und und dem Fractal Design Node 304
Mit Pico PSU kenne ich mich nicht aus. Man muss aufpassen, dass man die Anlaufspannung von den HDDs nicht übersieht. Das können bei Enterprise-HDDs schon mal um die 40Watt sein.
Und bei sehr guten ATX-Netzteilen kommt man schon sehr nahe an Pico PSU (siehe z.B. obigen Thread aus dem Computerbase-Forum).

Das System Asus ROG Strix B550-I + ECC-Ram + passender AMD-APU (mit ECC-Ram Support) + effizientes Netzteil wäre eigentlich auch mein Favorit.
Ich benötige nicht zwingend Fernwartung (niederiger Stromverbrauch ist mir wichtiger) und die Anzahl der S-Ata-Anschlüsse reicht mir. Viel Power (wahrscheinlich schon zuviel für einen Heimserver), die CPU hat weniger Hardware-Macken (Spectre & Co grüßen) und auch als Desktop-System interessant (falls mal eine andere Nutzung geplant ist).

ABER:
Das ist IMHO nicht die "sichere" Lösung. Es gibt wenig Erfahrungsberichte in Serverszenarien, so dass es ggf. noch unschöne Überraschungen geben könnte (aber nicht muss).
Und 2.5GBe finde ich eigentlich sehr gut aber mir ist nicht klar, wie gut (oder schlecht) der Intel i225-V in der Praxis läuft und unterstützt wird.

Das obige c't-System bzw. eine Abwandlung davon ist die "sicherere" Lösung.

Die Boards für Intel-Systeme, die als sehr stromsparend gelten (z.B. von Gigabyte und Fujitsu) bekommt man derzeit leider nicht mehr.
 
Zuletzt bearbeitet:
Hallo zusammen,

ich habe zu Hause ein Asustor 4Bay NAS mit 4x 3TB WD Reds. Mir ist nun zum weiten Mal in sicher schon 8-10 Jahren eine Platte im Raid 5 Verbund hops gegangen. Diesmal fing eine an zu pfeifen und eine rote Leuchte am Wechselschacht kan beim backup der Daten auch dazu (System sagt Datenübertragungsfehler, Smart und Health sagt aber HDD gut/gesund).
Letzlich hat dich das RAID vor einen Systemausfall beschützt. Ist doch schon was.
Ein Backup solltest Du ohnehin haben.
Mir stellt sich da halt die Frage wie sicher sind meine Daten bzw. was kann man verbessern. Ein Freund hat sich ein ZFS System angeschafft und die Vorteile klingen schon gut.
Hat aber auch seinen Preis, da man einerseits viel RAM und andererseits zuverlässigen RAM benötigt. Die Preise haben sich zwar entspannt, aber ECC-RAM ist praktisch Pflicht. Günstige Systeme mit voller ECC-Unterstützung gibt es nicht.
Meine Frage also, soll ich das vorhandene System einfach weiter benutzen oder ein ZFS NAS bauen?
Klassische NAS-Festplatten sind auf eine Lebenszeit von 5 Jahren ausgelegt. Mit vermehrten Ausfällen nach dieser Zeit sollte man rechnen.
Platz brauche ich ca. 8-10 TB, also mit den vorhandenen 4x3TB Raid5 komme ich aus, bzw. denke wenn man das vergrössert hat man nachher auch mehr Müll :)
Speed habe ich jetzt schreibend 90 MB/s lesend volle GBit Leistung, was ich ausreichend finde, da ich noch keinen schnelleren Switch habe.
Am wichtigsten ist mir der Stromverbrauch, das sollte so niedrig wie möglich sein.
Benutzt wird das System momentan nur zur Daten-/Medienverfügbarkeit, ich wollte mir in Zukunft mal Docker ansehen, mehr hab ich aber grad nicht aufem Schirm.

Bin relativ offen für alles, also mal raus mit Fragen und Vorschlägen.
Für 8-10 TB mit niedrigem Stromverbrauch würde ich heute überlegen, ob ein All-Flash-NAS nicht das Mittel der Wahl ist.
Damit hat man viele Vorteile:
  • Äußerst sparsam
  • Lautlose Datenträger
  • Datenträger haben keine Anlaufzeiten
  • Hohe Datenübertragungsraten
  • Kleine Datenzugriffszeiten
  • Kleine Formfaktoren
  • Keine Mechanik und damit deutlich bessere Haltbarkeit. Das geht meiner Meinung nach so weit, dass ein einzelner simpler SSD-Datenträger in der Summe weniger Anfällig gegen Probleme ist, als komplizierte Verfahren zur parallelen Nutzung mehrerer Datenträger.
  • Zusätzliche aufwendige Beschleunigungsverfahren durch Parallelisierung können ggf. entfallen (RAID, ZFS), wenn die Performance ausreichend ist.
  • Schnelle PCIe basierte Anschlüsse können verwendet werden
Im Grunde ein Nobrainer, wenn der Aufpreis nicht wäre.

Es gibt bereits Geräte, die speziell für dieses Setup designed sind:
QNAP TBS-464 NVMe SSD NAS Review – Storage Done Differently?
QNAP TBS-464 im Kurztest: 4x NVMe-SSD im NASBook sind sehr schnell

Im Prinzip kann man so etwas aber auch kostengrünstiger sebst bauen, speziell, wenn man aus Kostengründen auch SATA SSDs noch verwenden möchte.

Z.B. NUC basiert: Intel NUC: Systeme » Barebones mit Hersteller: Intel, CPU-Serie Intel: Core i-11000, 2.5" intern: ab 1x, Storage: M.2 (PCIe), M.2 M-Key (PCIe) gesamt: ab 1x, M.2 (SATA) gesamt: ab 1x, Anschlüsse: 2.5GBase-T (2.5Gb LAN), Besonderheiten: geeignet für Dauerbetrieb
mit einer Samsung SSD 870 QVO 8TB, SATA. Die ist zwar bekannt dafür, dass ihr bei >20GB der Cache ausgeht, aber für den Hausgebrauch ist das OK.
2,5 GB Intel NIC ist dabei, sowie reichlich schnelle externe Anschlüsse für Backup oder andere Erweiterungen.
1000€ für ein 8TB-All-Flash-NAS ist doch schon was.
Mindfactory hat gerade 8TB Corsair MP400 M.2 PCIe 3.0 x4 3D-NAND QLC (CSSD-F8000GBMP400) für 999€. Also da ist was in Bewegung. All-Flash wird immer attraktiver werden.
Vielleicht sei noch angemerkt, dass die NUC Lüfter nicht unbedingt leise sind. Also silent ist das System nicht.

Das nur als Anregung. Vielleicht kennt ja jemand eine bessere bezahlbare Platform für ein All-Flash-Home-NAS, wo man ggf. auch SATA SSDs und Nvme SSDs verwenden kann.
 
Hat aber auch seinen Preis, da man einerseits viel RAM und andererseits zuverlässigen RAM benötigt. Die Preise haben sich zwar entspannt, aber ECC-RAM ist praktisch Pflicht. Günstige Systeme mit voller ECC-Unterstützung gibt es nicht.
Das ist ein Mythos, der glaube ich im TrueNAS-Forum verbreitet wurde. ECC-Ram ist allgemein besser und vorzuziehen. Bei jedem Filesystem und nicht nur bei ZFS.


matthew_ahrens schrieb:
There's nothing special about ZFS that requires/encourages the use of ECC RAM more so than any other filesystem. If you use UFS, EXT, NTFS, btrfs, etc without ECC RAM, you are just as much at risk as if you used ZFS without ECC RAM. Actually, ZFS can mitigate this risk to some degree if you enable the unsupported ZFS_DEBUG_MODIFY flag (zfs_flags=0x10). This will checksum the data while at rest in memory, and verify it before writing to disk, thus reducing the window of vulnerability from a memory error.

I would simply say: if you love your data, use ECC RAM. Additionally, use a filesystem that checksums your data, such as ZFS.

  • Zusätzliche aufwendige Beschleunigungsverfahren durch Parallelisierung können ggf. entfallen (RAID, ZFS), wenn die Performance ausreichend ist.
Wer ZFS (und ähnliche Filesysteme) einsetzt, dem geht es in erster Linie um Features wie Datenintegrität. Dazu braucht es sinnvollerweise mind. zwei Storage Devices (auch bei SSDs).

Btw.
OpenZFS 3.0 und SSD:
ZFS co-creator Matt Ahrens kicked things off as usual, including touching on future work and possible expectations for OpenZFS 3.0. Given the annual major release cadence, OpenZFS 3.0 is up next for the project that currently has support for Linux and FreeBSD systems. Some of the possible features expressed for OpenZFS 3.0 include macOS support, DirectIO, RAIDZ expansion, Linux namespaces, ZFS on object store, FIEMAP, VDEV properties, async DMU, and more. We'll see though next year ultimately what pans out for the next ZFS release.
 
Zuletzt bearbeitet:
An ein SSD NAS hatte ich auch schon gedacht aber bei min 8TB Nutzkapazität wird's glaub ich noch echt teuer.

Das AMD System sieht auch echt spitze aus mit Verbrauch.... ich halte mal fest wie es bei mir gedanklich so aussieht.

Case: Fractal 304 ca. 90 € oder Intertech SC-4004 ca. 80 €
Board: ASUS ROG Strix B550-I Gaming ca. 200 € oder Supermicro X11SCL-IF ca. 245 €
CPU: Ryzen 5 4650 PRO ca. 190 € oder i3-9100 ca. 120 €
RAM: 16 GB ECC ca. 100 € (Marke und Speed sollte ja relativ egal sein denk ich)
Netzteil: Bequiet 400W für 50€ für Fractal oder Seasonic o. silverstone für SC-4004 (300 oder 350W ausreichend? Höhere Effizienzen sind meist mehr Watt, da das Teil aber nichts verbraucht komm ich ja wieder in den "schlechten" Bereich der NTs)
 
Das ist ein Mythos, der glaube ich im TrueNAS-Forum verbreitet wurde. ECC-Ram ist allgemein besser und vorzuziehen. Bei jedem Filesystem und nicht nur bei ZFS.
Ja ECC ist grundsätzlich besser. Nur hat der Meister der Marktsegmentierung - aka Intel - da leider eine schönen Kostensprung eingebaut, sobald ich das haben will. Folglich muss ich mir überlegen, wo ich es OK finde ohne ECC zu arbeiten und wo nicht. Da kann jeder selbst eine Risikoeinschätzung treffen. Meine Empfehlung wäre ECC immer dann einzusetzen, wenn ich große Mengen an Daten durch das RAM schiebe. Schlicht weil die Fehlerwahrscheinlichkeit mit der Anzahl der Speicheroperationen steigt.
Wer ZFS (und ähnliche Filesysteme) einsetzt, dem geht es in erster Linie um Features wie Datenintegrität. Dazu braucht es sinnvollerweise mind. zwei Storage Devices (auch bei SSDs).
Ich kann die Datenintegrität auch auf einem Datenträger steigern, indem ich die Daten redundant mehrfach speichere.
Wenn ich die Ausfallsicherheit erhöhen will, dann komme ich ohne ein zweites Gerät nicht weiter. Aber in Heiminstallationen ist das im Normalfall kein Thema.
 
ach ja natürlich brauch ich noch ne M2 Systemplatte und HDDs, 7200 Touren würd ich nur ungern verwenden, da lauter und mehr Verbrauch. Grad mal bei Geizhals geguckt und die Toshiba Enterprice sind preisgünstig sogar bis 18TB hoch und Verbrauch ist auch nicht schlecht....wo ist der Haken?
Nebenbei macht ein PicoPSU hier Sinn?
 
Intertech SC-4004 ca. 80 €
Von mir kannste das für 35 Euro haben :-) Aber ich würde eher davon abraten, bei der Konfiguration.
Das Fractal 304 ist aber vermutlich gut (ich habs selbst noch nicht gehabt, aber meine bisherige Fractal Erfahrung war sehr gut)
Der 4750er hat noch 2 Kerne mehr...
Marke und Speed sollte ja relativ egal sein denk ich
Jain, bei Ryzen nicht so. Da würde ich den schnellsten unterstützten kaufen.

Bequiet 400W für 50€
Schau mal, ob du ein Corsair RM550x bekommst. Siehe hier: https://gutt.it/corsair-rm550x-550w-netzteil-vs-picopsu-90/

Ich versteh immer noch nicht, warum du für ein simples NAS so eine Höllen-Maschine anschaffen willst... das ist, als würdest du nen Rasenmähertraktor für 10qm Wiese kaufen.
 
Soweit so gut
Case: Fractal 304 ca. 90 €
Board: ASUS ROG Strix B550-I Gaming ca. 200 € oder Supermicro X11SCL-IF ca. 245 €
CPU: Ryzen 5 4650 PRO ca. 190 € oder i3-9100 ca. 120 €
RAM: 16 GB ECC ca. 100 €
Netzteil: Corsair rm550x
SSD: ma schaun was grad günstig zu haben ist
Kühler: Stock oder gibt's was leises was ins case passt?
HDD: 2x for Mirror, wie oben schon gefragt was spricht gegen die Toshibas? Laut,schlecht oder sonst was ?

Ich tendiere grad zum AMD da sich preislich nicht viel tut, oder ist der Intel für Linux/Truenas besser geeignet?
 
HDD: 2x for Mirror, wie oben schon gefragt was spricht gegen die Toshibas? Laut,schlecht oder sonst was ?
Auf Garantie achten.
Du kannst auch z.B. 1xSeagate und 1xToshiba nehmen. Dadurch reduzierst du ggf. das Risiko ein wenig, dass du z.B. zweimal eine Platte aus einer schlechten Charge etc. erhälst.

Ich tendiere grad zum AMD da sich preislich nicht viel tut, oder ist der Intel für Linux/Truenas besser geeignet?
Siehe mein Post #19.
Das Intel-System ist im Server-Umfeld das bewährtere System, da dies von vielen Usern in einem solchen Umfeld genutzt wird. Sofern du nicht Pech hast und z.B. ein Ram-Riegel kaufst der mit dem Board inkompatibel ist oder einfach Pech mit einem defekten Teil hast, wird das laufen. Das AMD-System wahrscheinlich auch aber da kann es eher zu unschönen Überraschungen kommen. Haben halt nicht so viele in dem Umfeld, wie z.B. TrueNAS.
 
Kann man mittlerweile 4k Platten nutzen oder brauchts noch die 512 Emulation?
 
Ist komplett egal.

ZFS erkennt auch die 512e Platten automatisch als physical 4k und setzt ashift=12, nutzt also den 4k Modus (man sollte übrigens auch bei alten 512B Platten ashift=12 setzen damit man die problemlos mit aktuellen Platten ersetzen kann). Auch setzt das vdev remove Feature vorraus dass alle vdevs im Pool gleichen ashift haben
 
Vielen Dank für den Beitrag.
Witzig, dass du dir genau das raus gesucht hast. Hast du das Gehäuse mal in der Hand gehabt? :-) Ich habs hier und es ist sehr gewöhnungsbedürftig. Beim Zusammenbau habe ich mich geschnitten, weil die Kanten nicht entgratet sind und musste das Teil komplett zerlegen, um das Board einzubauen. Außerdem passt KEIN vernünftiger leiser Lüfter drauf, weil zu wenig Platz unter dem Bay ist...
Nein!
Es sieht demnach nicht nur billig aus :-)
Es wäre halt das preisgünstigste (und kleinste) Gehäuse.
Solider sieht das https://www.heise.de/preisvergleich...-cse-721tq-250b-a1288406.html?hloc=at&hloc=de aus, ist aber leider mittlerweile nicht mehr verfügbar - jedenfalls lt. GH.

Fakt ist scheinbar, daß viele "sinnvolle" Gehäuse eingestellt werden zu Gunsten von "Bling-Bling" Effektgehäusen für RGB-Setups - jedenfalls mein Eindruck.

  • Bau-Aufwand: Mindstens 2 Stunden voller Gefrickel und Notlösungen. Und ich würde mich nicht als Anfänger bezeichnen.
  • Lautstärke: Ohne Custom-Lösung jault das Teil wie eine Katze, weil kein guter Kühler mit Lüfter unter das Bay passt. Ich habe mit Heatpipes was eigenes konstruiert, damit gings sehr sehr gut - aber das war dann noch mal 2 Stunden Aufwand. Bei nem Stundenlohn von 10 Euro (haha) wären wir somit schon bei mindestens 30 Euro Aufpreis gegenüber nem Fertig-Server
  • Zusätzlich ist es noch teurer als der Dell T40 (das neueste Modell)...
Es gibt doch relativ flache CPU-Kühler, die trotzdem leise sind?
z.B. https://www.heise.de/preisvergleich....html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk

Hättest du jetzt das Fractal Design Node 304 genommen, aber das muss man erstmal wissen... Nunja, aber hier zeigt sich schon die Problematik... die Komponentenauswahl ist kaum noch ohne Beratung zu bewerkstelligen und jeder hat eigene Vorlieben. Ich bin hier in dem Forum, weil mich die Leute hier wirklich perfekt unterstützen. Aber man kann eben nicht alles wissen.
Die "Stimmgabel"-Aufhängung der HDDs kann hier durchaus zu unliebsamer Geräuschentwicklung führen....

Du hast natürlich Recht: Als Experte mag man mit einem Eigenbau zurecht kommen und auch etwas Geld sparen bzw. zumindest eine bessere Preis-/Leistung zu erziehlen. Aber als Amateur oder Laie wohl eher nicht... und die Fertig-Server sind halt fertig... kein Aufwand außer Platten rein.

Was auch geht: Gebraucht von einem Experten ein komplettes Custom NAS System kaufen :-) Gibt viele, die ihr wirklich ausgesucht gutes Zeug bei ebay kleinanzeigen fürn Appel und n Ei reinstellen.
Das du ein Experte bist, würde ich dir einfach mal unterstellen, denn ich lese deine Posts regelmäßig mit :-)
Die Entscheidung muß jeder selbst treffen.
Ich habe auch für einen Kunden ein NAS auf Basis des T40 aufgebaut - nie wieder!
Bis man das iAMT für Remote KVM am Laufen hat muß man erstmal einiges lesen, installieren und Konfigurieren. iKVM via ASPEED2400/2500 funktioniert dagegen einfach.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh