[Kaufberatung] NAS Eigenbau für den Heimbetrieb

Was haben Storage-Grundlagenfragen mit professionellen/teuren Herstellern von Storage zu tun?

Wobei ich hier normalerweise einfach nur "was gescheites" empfehle wenn es um Daten geht- im gehobenen SoHo Bereich angesiedelt. NetApp, Solaris, Nexenta Pro oder professionelle BSD Systeme habe ich hier noch nie jemand aus dem SoHo Bereich empfohlen.

Wenn dann jemand statt einem kleinen Server aus professionellen Komponenten und sei es ein HP Microserver für 200 Euro lieber was einfacheres nimmt, habe ich kein Problem damit - aber auch nicht wenn er eine NetApp zu Hause hat.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Meiner Ansicht nach sollte man die drei Storage Probleme "Silent Data Error/ Datenrost", Schreibfehler durch Speicherfehler ohne ECC und die theoretische Zunahme von Speicherfehlern bei Systemen mit Prüfsummenkorrektur wie btrfs, ReFS oder ZFS ohne ECC separat betrachten.

- Silent Data Errors entstehen rein zufällig und statistisch auf Platten und haben nichts mit ECC oder ZFS zu tun. ZFS kann die aber reparieren.
- Datenfehler durch Speicherfehler beim Schreiben ohne ECC sind nicht ZFS spezifisch und können auch von ZFS nicht repariert werden.
- Die Zunahme von Speicherfehlern durch die Prüfsummenkorrektur von ZFS ist theoretisch möglich. Die Relevanz ist aber nirgends belegt. Man könnte das Problem durch Abschalten der Prüfsummen reduzieren, könnte dann aber keine silent data errors mehr erkennen und reparieren. Die sind aber viel häufiger da die Platte viel größer ist als der Ram - wenn man eine ähnliche Wahrscheinlichkeit annimmt.

Fazit.
RAM ohne ECC und Terabyte Storage vor allem ohne ZFS (oder btrfs, ReFS) ist keine sehr gute Kombination, besonders mit viel RAM da dadurch RAM-Fehler wahrscheinlicher werden.
ZFS kann viel mehr Fehler reparieren als Systeme ohne ZFS, kann aber eventuell ohne ECC auch Fehler hinzufügen

Einfach bei Neukauf nicht auf ECC verzichten ist die richtige Lösung und das egal bei welchen Dateisystemen, ansonsten nehmen was man hat und auch dann hat ZFS extrem mehr Vorteile als Nachteile.

Es ist doch eigentlich irrelevant, wodurch Daten Korrumpiert werden, ob durch Datenrot oder durch nicht korrigiertem Speicherfehler.
In irgendeinem Thread hatten wir da vor längerem eine Ausführliche Grundsatzdiskussion, warum non-ECC Speicher eigentlich nicht mehr gewählt werrden sollte.
 
.. macht doch was ihr mögt :)

10000000 user von synology NAS machen dann was falsch
 
Wieviel Speicher haben die Synos noch ? 512 MByte? Das ist 1/8 von 4GB >> daraus folgt, daß die Wahrscheinlichkeit eines ECC Speicherfehlers mindestens um den Faktor 8 geringer ist als bei einem System mit 4 GByte (16 bei 8 GByte, 32 bei 16 Gbyte)

Silent Data corruption ist halt noch ein anderes Thema, die bemerkt man vermutlich in 99,9 % nicht mal, aber irgendwann ist eine wichtige Datei betroffen, die sich nicht mehr öffnen lässt.
Bei AV Daten wird man eine Fehler i.d.R. nichtmal sehen/hören. wenn aber in einer Datenbank irgendwo ein Datensatz verändert wurde, kann das unbemerkt bleiben, aber weitreichende Folgen haben (oder der Wert in einer Tabelle).
Oder man nehme den Lebenslauf für Bewerbungen, bei dem sich ein einzelner Buchstabe geändert hat, du wirst vermutlich nie erfahren, daß deine Bewerbung wegen dieses Schreibfehlers abgelehnt wurde...

Es muß jeder für sich entscheiden! Wenn die Daten so unwichtig sind, brauch man sie auch nicht zu sichern.
Man muss ich darüber im Klaren sein:
- je mehr Arbeitsspeicher desto grösser die Wahrscheinlichkeit eines ECC-Fehlers
- je grösser die zu speichernde Datenmenge desto grösser die Wahrscheinlichkeit von Datenrot

Ich für meinen Teil habe mich dazu entschieden dieses Risko nicht einzugehen, die Mehrkosten sind überschaubar:
- ca. 20 - 30 € /16 GB ECC Speicher
- ca. 100-150 € Mainboard
- Einschränkung bei der CPU-Wahl und Mehrkosten wenn's ein Xeon sein muß - was für reine Speichersysteme / NASen nicht erforderlich ist!
 
Zuletzt bearbeitet:
.. macht doch was ihr mögt :)
 
.. macht doch was ihr mögt :)

10000000 user von synology NAS machen dann was falsch

Männer liebt Männer -
5 Milliarden Frauen können nicht irren....

Wobei Synology jetzt ja auch btrfs anbietet und Qnap ZFS
QNAP at CES: A M.2 SSD NAS, Dual-Xeon ZFS NAS and More
Es geht mit den aktuellen Storagegrößen einfach nicht ohne neuere Dateisysteme.

MultiTerabyte und ext4/NTFS oder 16-32 GB RAM ohne ECC ist einfach Murks.
Das wird nicht besser dadurch dass es fast jeder noch nutzt.
 
Für einen reinen Mediaserver macht es tatsächlich keinen Unterschied auch wenn die Datenrate auf 20-40 MB/s absinken sollte. Und dafür ist ja ein Backupmechanismus wie Snapraid ausgelegt.

Wenn aber mehrere Personen sich den Speicher teilen oder aber eine Applikation mehrere Dateien lädt, dann wird der Unterschied schon spürbar da dann wahlfreie Zugriffe da sind und da zählt dann iops und die erhält man durch SSDs oder z.B. durch Raid -10

Auch möchte man ab und an Daten innerhalb des NAS umkopieren/ sichern. Wenn es sich dann um mehrere Terabyte handelt, ist schon ein Unterschied ob das 1 Tag oder 10 Tage dauert.

Last not least. Gottseidank sind die Tage von 1G langsam gezählt. Netzwerke sollten so schnell wie lokale Platten sein und da sind wir aktuell bei 1000MB/s+ mit NVMe - ziemlich genau so schnell wie ein 10Gbit Netzwerk und das kommt gerade auf breiter Front.
 
Da hast du recht, aber 10g ist immo noch sehr teuer.
Derzeit lese oder schreibe ich bei meiner Filmkiste am anschlag mit 115mb/sek mit Snapraid und aufs Pooling. Für mich gibt es derzeit keinen Grund da auf 10g zu wechseln.

Klar bei musik oder Privaten Daten ist die Übertragung richtung 30-60mb/sek. aber ich denk nicht das sich hier ein Raid 5/6, oder ein 10g Netzwerk positiv auswirken kann.
 
Sollte 10gbit endlich massentauglich (sprich: erschwinglich) werden, bieten sich halt ganz andere Einsatzmöglichkeiten rund um zentrales Storage in Richtung Thin-Clients zu Hause bis hin zu performanten Replikations- und Backup Lösungen von der Stange (an Stelle von QNAP und Synology würde ich da schon dran werkeln, eine "Mainframe/ThinClient" Struktur clicki-bunti über GUI hinzustellen).
 
nur dass die meisten Leute eher mehr mobile Devices nutzen und Thinclient am Laptop in verschiedenen Netzen ist doch eher aufwendiger (ohne Mitarbeit des OS) ;)
 
Auch wieder wahr. Ich bin wohl halt so'n aussterbender Typ mit "oldschool Festinstallationen" als Basis. :)
 
@Joogie: Und der "Anschlag" von 110MB/S hatte mich z.B. stets genervt :)
Also 10G, und schon ist der nächste Flaschenhals the Rip-Machine, in der nur eine SSD auf SATA2 angebunden war -> 230MB/S.
Also Board ausgetauscht, Sata3 lässt grüßen, jetzt gehts auch mit 400mb/s. Und als nächstes muss ne NVMe rein, dann dürfte der Server wieder zu langsam schreiben. usw.
Ja, ein Teufelskreis. Ja, da kann man Geld versenken.

Den Ansatz von Thin-Clients hatte ich mal kurz mit ISCSI ausprobiert und das lief nicht schlecht. Da in meinen Alt-Rechnern keine moderne SSD steckt, hat der Umstieg auf ISCSI/1G -> Server 10G tatsächlich 110MB Lesen+Schreiben für den Altrechner gebracht, bei ziemlich guten Zugriffsraten (SSD im Server). Nur: eine 120G SSD kostet noch 40+€. Dafür ist der Aufwand einer ISCSI-Installation schon zu hoch. Ich prüfe derzeit, ob der Server=NAS nicht auch als DomänenController herhalten sollte, damit ein einheitliches Login+Desktop je User realisierbar wäre. Mal sehen.
 
Vor einer Domäne/AD habe ich (ein Laie) noch einen Höllenrespekt. Überlege momentan das einmal ausschließlich auf Ebene der bzw. für die Windows-Server (dafür dann mit quasi nur einem "Account") auszuprobieren, da die Administration (nur) in der Arbeitsgruppe häufig doch recht umständlich ist. Die Client-PCs würde ich da noch raushalten, bei quasi individualisierten Geräten (1 Gerät = 1 Nutzer) lohnt sich das doch nur für die paar Windowsfreigaben wohl eher nicht.
 
Eine Domäne zuhause kann ganz praktisch sein, gerade wenn man mehrere PC's verwendet.
Der Gedanke der zentralen Datenlagerung/Synchronisierung zwischen Clients kann zwar auch mit Cloud-Lösungen erreicht werden, ich finde es aber weit aus weniger edel.
Zudem ist die Trennung zwischen den diversen Accounts und Daten (wenn mehrere User im Haus sind) bei richtiger Verwendung einer Domäne relativ komfortabel.

Oder sagen wir mal du möchtest die Telemetrie von Windows 10 besser im Griff haben, du kannst auf allen PC's die gefühlt 1000 Sicherheitseinstellungen manuell vornehmen - oder auf dem Domaincontroller per Gruppenrichtlinien festlegen wie das ganze aussehen soll. Das geht noch für praktisch jede weitere Einstellung.

Wenn man sich ernsthaft Gedanken macht ist das eine sinnvolle Umsetzung. Wen es nicht kümmert sollte es lieber lassen.
Windows 10 Pro ist übrigens die Mindestanforderung für den Domainjoin.
 
Zuletzt bearbeitet:
Hm. Mal eine Frage: Der G4400 unterstützt ECC. Aber mit den neuen Chipsätzen...? Klar sitzt der Speichercontroller auf der CPU, aber die MB-Hersteller verweisen bei ihren Boards immer darauf: supports ECC only in non-ECC-mode.
Muss man den G4400 auf einem C23x-Board betreiben für ECC??
 
Hm. Mal eine Frage: Der G4400 unterstützt ECC. Aber mit den neuen Chipsätzen...? Klar sitzt der Speichercontroller auf der CPU, aber die MB-Hersteller verweisen bei ihren Boards immer darauf: supports ECC only in non-ECC-mode.
Muss man den G4400 auf einem C23x-Board betreiben für ECC??

Ja. Für ECC-Nutzung müssen CPU und Chipsatz und RAM ECC-Unterstützung bieten.
 
Hm. Mal eine Frage: Der G4400 unterstützt ECC. Aber mit den neuen Chipsätzen...? Klar sitzt der Speichercontroller auf der CPU, aber die MB-Hersteller verweisen bei ihren Boards immer darauf: supports ECC only in non-ECC-mode.
Muss man den G4400 auf einem C23x-Board betreiben für ECC??

Ja. Für ECC-Nutzung müssen CPU und Chipsatz und RAM ECC-Unterstützung bieten.


Da ja die Diskussion über ECC bzw. ZFS zur Reduktion der Datenfehler ordentlich entfacht ist, habe ich zumindest mal über ein ECC Setup nachgedacht.
Hierbei bin ich mal auf folgende Komponenten gestoßen:

1 x Intel Pentium G4400, 2x 3.30GHz, boxed (BX80662G4400)
1 x ASUS P10S-I (90SB05E0-M0UAY0)
2 x Crucial DIMM 4GB, DDR4-2133, CL15-15-15, ECC (CT4G4WFS8213)

Wie ich sehe verfügt das Board über einen mini-SAS HD Anschluss über welchen man dann 4 Festplatten zusätzlich zu den 2 über die SATA Anschlüsse anschließen kann.
Um die Festplatten anzuschließen bräuchte ich dann so ein Kabel oder?
1 x DeLOCK Kabel Mini SAS HD x4 SFF 8643 Stecker > 4x SATA 7 Pin Buchse, 0.5m (83392)

Ich werde mit den 6 SATA Anschlüssen wohl erstmal auskommen. Ich könnte mir einen SÁTA Anschluss sparen, sofern ich eine M.2/M-Key über PCIe anbinde, da dann kein SATA Anschluss belegt wird. Allerdings passen nur M.2 2242 auf das Board (also mit 42 mm Länge) und ich habe kein so kleines M.2 Modul mit PCIe gefunden. Daher habe ich mal ne relativ große und günstige SSD rausgesucht (wie von pumuckel empfohlen):
1 x Crucial BX200 240GB, SATA (CT240BX200SSD1)
 
Ja. Für ECC-Nutzung müssen CPU und Chipsatz und RAM ECC-Unterstützung bieten.
Der Cipsatz eigentlich gar nicht mehr, da der Memorycontroller in der CPU sitzt, aber das Mainboard muss die entsprechenden Leiterbahnen haben.

Nochmal die Frage: was soll auf die SSD rauf?
 
Zuletzt bearbeitet:
Was ist denn mit Asrock C226 WS? Hätte 10 SATA Ports. Oder muss es ITX sein?
Ich habe allerdings auch nicht sonderlich viel Ahnung, sondern lese mich gerade ein.
 
die Nachteile von ZFS habt ihr schon genannt ?

teure HW, schlechte Erweiterbarkeit, hoher Stromverbrauch ... and so on (interessiert naturlich ein Unternehmen weniger, aber Daheim ist es ein Punkt)
 
Zuletzt bearbeitet:
Was ist denn mit Asrock C226 WS? Hätte 10 SATA Ports. Oder muss es ITX sein?
Ich habe allerdings auch nicht sonderlich viel Ahnung, sondern lese mich gerade ein.
Da das gewählte Gehäuse nur itx kann, JA.
man könnte natürlich auch mit diesem Board ein System aufbauen, müsste daafür aber ein deutlich grösseres Gehäuse nehmen.

- - - Updated - - -

die Nachteile von ZFS habt ihr schon genannt ?

teure HW

CPU, Mainboard und Ram sind etwa 100-150 € teurer - wieviel sind einem Daten Wert?

schlechte Erweiterbarkeit
Was ist denn das für ein Hirngespinnst?
Man kann jederzeit den Pool durch weitwere VDEVs erweitern - oder weitere Pools anlegen, limitieren tut hier einzig die Anzahl der Festplattenanschlüsse - wie in jedem anderem Sytem auch!
Was im Gegsatz zu richtigen Hardware-Raids nicht klappt ist OCE (Online Capacity Expansion) durch das Zufügen einer zusätzlichen Platte. Im Gegensatz zu richtigen Hardware-Raids kann man aber wiederum nacheinander die Platten durch grössere ersetzen mit jeweiligem Resilver dazwischen und hat dann die grössere Kapazität zur Verfügung.
Man solte aber darauf hinweisen, daß keine dieser Vorgehensweisen zu empfehlen sind und grundsätzlich durch ein vollständige Datensicherung abzusichern sind

hoher Stromverbrauch ... and so on (interessiert naturlich ein Unternehmen weniger, aber Daheim ist es ein Punkt)
Korrekt: Im Gegensatz zu OMV müssen immer alle Platten eines Pools laufen wobei der Spindown nicht empfoheln wird!
Funzte bei meinen NASen aber einwandfrei, bin aber mitlerweiel wieder davon ab, da es insbesondere bei meinem grossen NAS zu lange dauert bis alle Platten laufen (staggered Spinup)
 
... lies evtl mal nach...

zeigt mir aber du hast noch kein ZFS betrieben
 
Zuletzt bearbeitet:
Hallo

Zuerst mal muss ich zugeben, ich hab nicht einen jeden Beitrag genau gelesen(nur überflogen)!

Wenn wirklich nur Daten abgespeichert werden, warum so ein "großes" System?

Ich verwend einen AMD Athlon 5150 auf einem ASRock AM1B-ITX mit 4 GB Ram, 4 HDD´s , einer System SSD, einer PCIe Karte für mehr SATA-Anschlüsse, einem alten 90W Laptopnetzteil und Openmediavault als NAS.
Stromverbrauch ca.20-30 Watt im Betrieb =>hängt davon ab, wieviele Platten laufen.(hab aber keine Probleme wegen zu hohem Anlaufstrom=> schon mit 7 3,5' Platten probiert). HDD´s sind als EXT4 formatiert => Win-PC´s greifen eh nur mit Freigaben drauf zu... . Und Backup läuft mit einem Plugin auch perfekt :)
DLNA, iSCSI, CIFS, WOL sind bei mir aktiv (zusätzlich ein paar andre Dingen) - alles läuft einwandfrei!
..und uptodate ist das ding auch immer, weil das OS auf Debian Wheezy aufbaut. Speicher fürs OS werden ca. 5 GB max verwendet und die Weboberfläche ist aufgeräumt, macht aber alle Spielerein mit. UNd billig war das Ding auch (200€ ohne Platten, Netzteil hatte ich schon -> muss nur 19 Volt bereitstellen)

Eigene meinung: warum mit speziellen Formatierungen herumtun, wenn EXT4 von Linux auch reicht?! Freigaben funktionieren auch so. Dann fällt die Diskussion ECC auch weg
Alles so einfach wie möglich...is nur ein NAS/Homeserver.Und mit Backup kein Problem.
 
Zuletzt bearbeitet:
Eigene meinung: warum mit speziellen Formatierungen herumtun, wenn EXT4 von Linux auch reicht?! Freigaben funktionieren auch so. Dann fällt die Diskussion ECC auch weg
Alles so einfach wie möglich...is nur ein NAS/Homeserver.Und mit Backup kein Problem.

ECC hat nichts mit Formatierung oder Dateisystem zu tun.
Speicherfehler sind eine Tatsache und treten mit einer statistischen Wahrscheinlichkeit auf -
je mehr RAM desto häufiger. Bei aktuellen Speichergrößen ist ECC daher sehr zu empfehlen.

Natürlich reicht ext4 für Freigaben aus, das ging aber auch schon mit FAT16 unter Windows 3
Unschön ist halt, dass auch auf Platten statistische Fehler auftreten (je größer die Platten desto mehr)
und alte Dateisysteme diese Fehler weder entdecken noch reparieren können, dazu kommt Crashsicherheit durch CopyOnWrite (ext4 oder ntfs können nach einem Absturz korrupt sein, auch da hat man keine Möglichkeit das tatsächlich zu entdecken oder zu reparieren), dazu kommt Versionierung/ alte Dateistände.

Eigentlich gehören ext4, ntfs etc bei heutigen Plattengrößen auf den Altenteil.
 
Zuletzt bearbeitet:
.. der Sinn einer Unterhaltung endet dann, wenn Fakten nicht mehr wichtig sind und nur noch Vorlieben zählen...

bin weg
 
Vorliebe ist Photoshop auf OSX oder Windows bzw
SAMBA auf BSD, Linux oder Solaris.

Ext4/ntfs oder btrfs/ReFS/ZFS ist ein Technologiesprung.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh