Netzwerkspeicher als NAS oder Miniserver

bin aktuell an genau dem gleichen Thema dran wie "jurke" und verfolge den Thread deshalb mit großem Interesse. Habe mich schon fast für den HP Gen8 entschieden bin mir beim OS aber noch total unsicher. In der Windows-Umgebung kenne ich mich bereits sehr gut aus habe von Linux allerdings keinen Plan bzw. bisher nur Knoppix benutzt =). Würde quasi kostenlos mit Dreamspark an ne Windows Server 2012 Lizenz kommen. Kann ich damit die gewünschten Anforderungen von "jurke" erfüllen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
geht schon, wenn man aber keine windows-spezifischen dienste braucht, wüßte ich nicht warum man sich das antun möchte...
 
mawel, über das Thema wird seitenweise im Nez gestritten, ich will mich da nicht beteiligen, sondern nur die Risiken aufzeigen.

Der einzige Vorteil kein ECC RAM zu verwenden ist der Preis, darüber sind sich zumindest alle soweit einig. Wer deswegen also trotz der Risiken, die jeder für sich selbst bewerten muss, dann kein ECC RAM verwendet, so ist es seine Entscheidung, es sind ja auch seine Daten. Nur hinterher sollte man dann nicht sagen man haben es nicht gewusst und die Schuld sonstwo suchen, sondern sich klar an die eigene Nase fassen und eingestehen, dass man das Risiko falsch eingeschätzt und Pech gehabt hat.

flxmmr, 2 Bays reichen für ein RAID 1 ja aus und bei einem RAID 0 oder JBOD (also keinen echten RAID die ja Redundanz haben, dafür steht das R in RAID) kann man sowieso ohne Prüfsummen nichts mehr korrigieren. Bei echten RAIDs kann auch ein md-SW-RAID beim Scrubbing Fehler erkennen, dabei werden ja alle Daten und die Parity gelesen und vergleichen, beim normalen Lesen werden die Paritydaten dagegen nicht geprüft. Was passiert wenn nun Bitfehler auftreten und damit die Parity nicht zu den Daten passt, müsste man sich im Quellcode ansehen. Welche Daten verfläscht sind, weiß man ja bei RAM Fehlern nie, es kann also beides sein.

Wenn man Glück hat, werden dann die Parity Daten erneuert berechnet, die simmt dann nicht mehr für die Daten, aber solnage keine Platte ausfällt oder dort einen Lesefehler erzeugt, macht das erstmal nichts, die Parity wird ja nicht mit gelesen. Wahrscheinlich landen die Daten des Strips beim nächsten Scrubbing dann in einem anderen RAM Bereich der keinen Fehler hat und dann werden wieder korrekte Paritydaten geschrieben, womöglich bekommt ein anderes Strip dann den RAM Fehler ab und damit falsche Paritydaten verpasst. So würde ich es erwarten, ein md-RAID ist ja nicht zur Korrektur von Bit-Rot gemacht, aber ich habe mir den Quellcode davon nicht nicht angesehen. Aber mdadm kann ja eben nicht wissen welche Daten falsch sind und sollte daher die Userdaten in Ruhe lassen und nur seine eigenen Paritydaten anpassen.

Normal ist ein Scrubing ja auch dafür die Lesefehler der Platten zu finden, bevor dann mehr als eine Platten im RAID 1/5 bzw. mehr als 2 im RAID 6 an den gleichen Stellen (Strips) Lesefehler melden statt die Daten zu senden. Dann ist die Sache auch klar, dann werden die Paritydaten genommen und damit wird rekonstruiert welche Daten die Platten hätte liefern sollen und die werden dann wieder auf die Platte geschrieben, die dafür dann ggf. einen Reservesektor nutzt.

Was gtrfs und ZFS in der Situation machen, wenn die die Datei und die Prüfsumme nicht zusammenpassen, müsste man ebenfalls im Sourcecode nachsehen, aber meines Wissens ist die Pholosophie dort, dass man den Prüfummen mehr traut als den Daten und die Daten dann entsprechend den Prüfsummen korrigiert. Waren die Prüfsummen aber wegen eines RAM Fehler falsch, dann werden die Dateien kaupttkorrigiert. Dann frisst sich das wie ein Krebs durch den Pool und davon gibt es auch genug Berichte im Netz und ich bin ja auch nicht der Einzige der das schreibt:
Meistens merken die Leute es aber eben erst, wenn sie selbst betroffen sind und das geht nicht immer so gut aus wie in diesem Fall, wo der Snapshot die Rettung der meisten Daten ermöglicht hat:

jurke, ja die Seagate Surveillance HDDs kannst Du nehmen, diese HDDs für Videoaufzeichnung sind wie NAS HDDs mit der Erweiterung um die ATA Streming Befehle für die Echtzeitvideoaufzeichnung und nur bei Verwendung dieser Befehlen sind sie dann auch fehlertoleranter, sonst nicht.

- - - Updated - - -

Also werden da die Daten selbst manipuliert, was dann eben zu der Datenkoirrpution bei RAM Fehler führt und dieser Punkt wird eben immer von den Verfechtern der Idee man könne solche Filesysteme mit Prüfsummen ohne ECC RAM nutzen, unterlagen. Deshalb greift er hier auch zu kurz:
Natürlich könne die Daten jederzeit, vor dem ersten Schreiben und Erstellen der Prüfsumme oder eben nach der Korrektur jederzeit durch RAM Fehler korrupt werden, aber weil diese Prüfsummen eben die Fehler bei den Daten versuchen zu korrigieren, verändern sie diese und das führt eben bei RAM Fehlern dazu, dass die Daten die eigentlich korrekt auf den Platten stehne, danach korrupt sind. Eben weil es durch RAM dazu kommen kann, dass dort Fehler erkannt werden die es nicht gibt, nur weil die Daten im RAM nicht mehr so stehen wie sie dort geschrieben wurden und auf der Platte stehen und dann setzt eine Korrektur ein, die ein normales Filesystem oder auch md-raid nicht macht und die Daten werden dann verändert.
Das stimmt, ohne ECC RAM gibt es den wichtigsten Beustein gegen Datenkorruption einfach nicht im Syste, genau das sage ich ja die ganze Zeit. Nur brauchen Filesystem mit Prüfsummen das noch viel mehr als andere, weil sie bei Fehlern die Daten manipulieren um vermeindlich aufgetretenen Bit-Rot zu beheben.
Das ist auch ein Risiko, ob es das häufigste ist, kann man schwer sagen, denn diese Fehler fallen bei dem Filesystem nicht auf und erst wenn der User die Datei liest und die nicht mehr stimmt, dann merkt er es. Aber wenn es auch nur einen normalen PC ohne ECC RAM hat, dann der Fehler auch dort aufgetreten sein.

RAM Fehler sind eben so gemein, weil sie immer und überall zuschlagen können und ohne ECC RAM nicht erkennbar sind, außer an ihren Folgen. Daher ist auch der einzig gut Rat:
Nur leider kostet das Teil ein klein wenig mehr und für einen i3-3220 mit 4GB ECC RAM ist das schon ein stolzer Preis.
 
Nachdem deinen Ausführungen wenig hinzuzufügen ist, was die Einflüsse des Arbeitsspeichers angeht: was in der ganzen Diskussion etwas untergeht ist, dass ZFS einfach nicht für "Billig"-Hardware angedacht war.

Und darin liegt meiner Ansicht nach auch eines der größten Probleme: alles ist darauf optimiert, den Ausfall von Verschleißteilen (Festplatten) zu verkraften und dabei den Betrieb aufrecht zu erhalten; damit zieht man aber dann eben einen Rattenschwanz an Grundvoraussetzungen hinterher: RAID/ECC/RAM. Außerdem ist in der Umgebung anscheinen Downtime=Ende, weswegen man sich nicht mal mehr Gedanken macht, ein Recoverytool zu machen, in der Zeit spielt man gleich das Backup ein...
Kommt dann mal jemand daher, der nur auf "Nimm ZFS, um deine Daten zu schützen" anspringt und sich nicht mit dem Rest befasst, ist dann eigentlich das Desaster in jedem Fall vorprogrammiert, da es auch neben dem ECC noch genügend Möglichkeiten gibt, Fehler zu machen... – das Problem beim fehlerhaften RAM (es liegt wahrscheinlich noch nicht mal mehr am fehlenden ECC, sondern einfach am Ausfall einiger Zellen → schlechte Qualität) ist nur, dass es da gar keinen Ausweg mehr gibt, weil sich ZFS, wenn man es dann merkt, schon verabschiedet hat, weil es (ganz im Sinne der Hochverfügbarkeit...) alles versucht hat Konsistenz wiederherzustellen und daher die Nutzung des (sicher vorhandenen) Backups empfiehlt.
Die Frage, die man sich dann stellen kann ist die, ob man die ganze Hochverfügbarkeit überhaupt braucht – meiner Meinung nach "reicht" es im Privatbereich auch durchaus aus, seine Dateien auf dem NAS in einfacher Ausführung vorzuhalten und regelmäßig extern zu sichern, sofern man das NAS nicht als einfaches "Online"-Backup verwendet, wo man die ganze Redundanz sowieso nicht braucht (da man eh alle Daten auf den PCs hat und einmal im Monat eine USB-Platte ranhängt). Natürlich ist es dann auch ganz nett, keinen Bit-Rot zu haben – da kann man ja dann auch btrfs verwenden, dass im Einzelplattenmodus einfach nur auf Fehler hinweist (dann kann man sich auch um die betroffenen Daten kümmern, ich wüsste beim besten Willen nicht, warum man um die Datenintegrität zu gewährleisten nicht einfach "per Hand" einmal im Monat die betroffenen Files aus einem alten Backup suchen könnte...).

EDIT: zur Empfehlung: naja, das sind wohl nur Mediendateien, die nicht unersetzlich sein werden → Klein-NAS, ansonsten kann man ja auch einfach eine USB3-Platte an den HTPC hängen; speicherst du noch irgendwie was anderes/brauchst du viel mehr Speicher ist der Microserver ob mit oder ohne FreeNAS wohl immer nicht zu schlagen.
 
Zuletzt bearbeitet:
Nachdem deinen Ausführungen wenig hinzuzufügen ist, was die Einflüsse des Arbeitsspeichers angeht: was in der ganzen Diskussion etwas untergeht ist, dass ZFS einfach nicht für "Billig"-Hardware angedacht war.

Eigentlich komplett falscher Ansatz.
Egal welches der neuen Dateisysteme btrfs, ReFS oder ZFS man betrachtet, das geht auf jeder Gurke auf der das jeweilige OS läuft. Oracle sagt zu Solaris z.B. 2 GB RAM als Minimum, irgendeine 64bit Intel oder AMD CPU und Sata. Von ECC als weiteres (sehr sinnvolles) Sicherheitsfeature ist da zunächst keine Rede. Auch die Frage ob und welches Raid man benutzt hat nichts mit dem Dateisystem zu tun. Natürlich war ZFS und andere CopyOnWrite Systeme bisher Profitechnik egal ob auf NetApp oder mit OpenSource ZFS. In zwei Jahren gibts aber nichts anderes mehr weil ext4, ntfs etc einfach nicht auf aktuelle Storagegrößen ausgelegt sind sondern noch aus Zeiten stammen, wo ein Server RAM in Megabytes und Platten in Gigabytes hatte.

Die Situation ist ähnlich zu Techniken wie ABS und ESP. Das gabs zuerst nur bei Autos in der Oberklasse. Da es aber eine essentielle Sicherheitsverbesserung darstellt ist das heute praktisch überall drin. Auch wenn ich in 40 Jahren noch keinen Unfall hatte, bei dem dies mir was gebracht hätte, so war das doch bei meinem letzten Auto die wichtigste Vorraussetzung und zwar nicht nur das eine Feauture ABS sondern auch das andere Feature ESP. So sehe ich das auch bei ZFS und ECC. Hat direkt nichts miteinander zu tun (ok nicht ganz, kein ESP ohne ABS), man sollte aber beides haben.
 
Zuletzt bearbeitet:
flxmmr, eben nur nutzen eben viele ZFS einfach so auf HW von der die Entwickler wohl nie erwartet haben, dass dort jemals ZFS betrieben würde.

gea, dass Oracle nicht klar schreibt, dass ECC-RAM Voraussetzung für ZFS ist, verstehe ich auch nicht. Entweder ist das für die Server gewohnten Leute einfach so selbstverständlich, dass es gar nicht mehr erwähnt wird oder man möchte der Verbreitung des Filesystem nicht mit zu hohenn Hürden im Wege stehen. Letzteres würde ich zumindest bei btrfs und ReFS durchaus unterstellen. Das sollte aber offene kommuniziert werden, denn die meisten begreifen die Risiken gar nicht, die sich ohne ECC RAM mit den Filesystemen mit ihrer Fehlerkorrektur sonst eingehen.

Aber der Vergleich mit ABS und EPS ist gar nicht so schlecht, das ABS mit seinen Sensoren für die Raddrehzahl, den Druckmodulator und der Pumpe um wieder Bremsdruck auszubauen (sonst würde das Pedal durchfallen) ist die Voraussetzung für ESP. Man stelle sich vor das ESP versucht ein Auto in einer heiklen Situation einzufangen und das ABS würde dabei versargen, also das Rad blockieren oder gar keinen Bremsdruck aufbauen. Das wäre nicht so hilfreich und ich habe schon mal mein ESP gebraucht, das war bei einer Autobahnauffahrt die nur einen kurzen Beschleunigungsstreifen hat und wo bei leichten Regen wohl genau in der Kurve ein Ölfilm war, jedenfalls ging mir ganz kurz das Heck meines Hecktrieblers nach außen und wurde sofort wieder vom ESP eingefangen.

Da weiß man sofort wie gut es ist die Technik zu haben, auch wenn ich früher bei meinen Autos das Heck schon öfter selbst eingefangen habe, aber hatte ich auch einfach Glück. Aber nur wer ECC RAM und auch noch das passende OS hat, kann überhaupt mal auslesen ob es zu Singlebit-Fehlern gekommen ist, alles anderen erfahren ja nie etwas davon. Und RAM kann nun einmal auch mit der Zeit kaputt gehen, die google Studie zeigt es ja und ob das nun bei guten Marken so viel seltener passiert? Ich habe es bei meinem alten Notebook mit Kingston Riegeln mit original Hynix Chips drauf, welches sonst auch immer fehlerfrei lief und nun hat ein Riegel doch plötzlich Bitfehler.
 
gea, dass Oracle nicht klar schreibt, dass ECC-RAM Voraussetzung für ZFS ist, verstehe ich auch nicht. Entweder ist das für die Server gewohnten Leute einfach so selbstverständlich, dass es gar nicht mehr erwähnt wird oder man möchte der Verbreitung des Filesystem nicht mit zu hohenn Hürden im Wege stehen. Letzteres würde ich zumindest bei btrfs und ReFS durchaus unterstellen. Das sollte aber offene kommuniziert werden, denn die meisten begreifen die Risiken gar nicht, die sich ohne ECC RAM mit den Filesystemen mit ihrer Fehlerkorrektur sonst eingehen.

Oracle fordert das nicht weil ECC eben keine Grundvorraussetzung für ZFS ist sondern ein allgemein wichtiges Sicherheitsfeature. Viele haben Systeme die eben bereits vorhanden waren und nutzen das mt ZFS ohne ECC. Mir ist auch kein Fall bekannt in dem massive Probleme belegt wurden. Das wird sicher mit daran liegen, dass diese Fehler eben auch von ZFS nicht erkannt und gemeldet werden. Mein Backupserver at home hat ein altes Desktop AMD Board ohne ECC und das ist für mich dafür ausreichend. Mein Hauptsystem hat ECC und das ist das wichtigere. Neu kaufen würde ich aber niemals ohne ECC. Letztlich dreht es sich um die Frage ob einem die allgemeinen Vorteile von ZFS auch auf einem Altsystem wichtig sind. Mir ist es das. Wenn einem dann das "Risiko" wegen der Prüfsummenberechnung zu groß erscheint, der kann das ausschalten. ZFS hat dann immer noch alle anderen Vorteile kann aber keine Dateifehler mehr erkennen sowenig wie ext4 oder ntfs. Das wäre für mich aber der größere Verlust.

Letztlich überwiegen die ZFS Vorteile auch ohne ECC bei Weitem und diese ganze ECC Diskussion - so wichtig das Feature ist - dient vielen nur dazu um zu belegen, wie aufwändig und teuer die neuen Dateisysteme sind und dass man mit den alten Sachen doch genausogut aber billiger wegkommt oder um zu vertuschen, dass es heutzutage ein tatsächliches Makel ist, die nicht zu haben.

Auch Synology (btrfs) und Qnap (ZFS) gehen bei ihren besseren Systemen dazu über. Deren Lowcost Systeme sind aber tatsächlich nicht leistungsfähig genug. Ist aber kein Wunder, wenn ein mittleres Handy leistungsstärker ist als deren Einfach-Nasen.

Dass ECC bei Einsteigersystemen fehlt liegt an den BWL Menschen bei Intel und deren Monopol, die das künstich auf teure Pro Systeme reduzieren. Ist ja schon lustig wenn man ein billiges 1151 Board mit einem billigen Celeron ECC fähigen G4400 und ECC RAM betreiben kann, bei dem aber die ECC Fehlerkorrektur auf dem Board abgschaltet ist obwohl das da null Aufwand bedeutet. Ist halt gewinnträchtig wenn man dafür dann 50 Euro Aufpreis für eine C-Klasse (Serverchipsatz) nehmen kann.
 
Zuletzt bearbeitet:
@gea: ist schon klar, dass ZFS auch ohne ECC läuft, wie jedes andere Dateisystem, sagt ja sogar der Entwickler ;). Der Punkt ist eben der, dass ZFS quasi automatisch RAID und RAM-Cache erfordert, was beides jetzt nicht so die klassischen Home-Use-Szenarien sind und dann auch etwas andere Anforderungen an das Gesamtsystem (HW + Bediener) stellt. Die Horrorstories im FreeNAS "USE ECC"-Thread sind da recht bezeichnend, wo Leute auftauchen, die halt einfach irgend etwas falsch gemacht haben und Pech gehabt haben (kann genauso gut an der Verwendung von 4 WD Greens liegen, von denen 2 in einer Nacht sterben) – der einzige Nachteil ist eben, dass derartige Fehler dann bei ZFS vom Backup korrigiert werden sollen, allerdings meint ein nicht geringer Personensatz RAID=Backup (eine Meinung, die auch dadurch gefördert wird, dass sie für 2-3TB Speicherplatz 3-4 Platten dieser Größe kaufen dürfen).

In dem Sinne finde ich (nachdem ich mich jetzt etwas damit beschäftigt habe – Statistiken habt ihr ja auch keine) das Gesamtkonzept von btrfs besser, dass einfach einen anderen Anspruch hat (Standardlinux-Dateisystem → 20MB - 2TB RAM, Speicher ähnlich ) und kein RAID braucht, um die durchaus sinnvollen Prüfsummen als "Überwachungsmaßnahme" zu verwenden. Klar kann es hier auch ohne ECC, wenn der Checksumtree korrumpiert wird, zu massiven Problemen kommen (wie auch bei allen anderen Dateisystemen), allerdings wird zumindest versucht, Tools anzubieten, die in dem Fall helfen – wenn der Checksumtree einen Knacks hat, ist ZFS ja sogar komplett weg? Die Szenarien, dass wegen (Einzel!)Bitfehlern der ganze Pool an Daten zerstört wird, halte ich für nicht wirklich realistisch, da müssen ja schon wirklich Fehler in einer Menge auftreten, dass ECC auch nix mehr bringt – außerdem betrifft das dann vmtl. auch den Checksumtree. Hier sind halt "alte" Dateisystem auch insofern fehlertoleranter, als dass man erst mal nicht merkt, dass man Einzelbitfehler hat.

Zum Thema Hardware (das interessiert ja den TE): beim Preis der HPs würde ich für mehr als ein-zwei Platten (ob RAID, btrfs, ZFS, etc.) einfach kein NAS mehr nehmen, die Vorteile des HP sind dann irgendwann wirklich größer, als der Stromverbrauch und die Einrichtungskosten – solange du kein XPeonology nimmst, sollte die ganze Plattform dann auch besser als ein Synology sein ;).

EDIT: btrfs scheint gar nicht bei jedem Read die Prüfsummen zu verifizieren (?!) (weder im Metadatentree, noch bei Datenblocks), was heißt, dass es im "Normalbetrieb" gar keine Vor/Nachteil gegenüber klassischen Dateisystem hat, man aber "offline" durch einen Scrub einfach eine Möglichkeit hat, das System auf Integrität zu überprüfen.
 
Zuletzt bearbeitet:
Oracle fordert das nicht weil ECC eben keine Grundvorraussetzung für ZFS ist sondern ein allgemein wichtiges Sicherheitsfeature.
Eben, ECC RAM sollte meiner Meinung nach jede HW haben und mein nächster PC wird es auch bekommen, beim jetzigen habe ich noch darauf verzichtet, weil ich damals ein Board mit einem M.2 Slot mir PCIe 3.0 x4 Anbindung haben wollte und da gab es damals auch nur die ASRock Z97 Extreme 6 und Extreme 9 für die Mainstream Sockel.
Viele haben Systeme die eben bereits vorhanden waren und nutzen das mt ZFS ohne ECC.
Aber gnau da liegt das Risiko, die Leute nutzen es um die Sicherheit ihrer Daten zu erhöhen, gehen aber in Wahrheit ein größeres Risiko ein als vorher.
Mir ist auch kein Fall bekannt in dem massive Probleme belegt wurden.
Dabei habe ich doch sogar einen zitiert und das Netz ist voll mit solche Berichten, die haben auch fast alle erwähnt, erst danach auf ECC RAM und eine dafür geeignete Plattform ungestiegen zu sein, geanu im von mir zitierten Fall. Wenn Dir also kein Fall bekannt ist, dann verdrängst Du diese Berichte und hast vielleicht im Bekanntenkreis noch niemanden gehabt, aber von wie vielen reden wir da? Das nicht jeder RAM Fehler bekommt und kein System absolut unsicher ist, sollte ja inzwischen klar geworden sein, ebenso das das Risiko eben höher ist. Wäre ein System absolout unsicher, würde alle Datei immer korrupt werden, sowas würde keine mehr kaufen und nutzen.
Das wird sicher mit daran liegen, dass diese Fehler eben auch von ZFS nicht erkannt und gemeldet werden.
Eben, von aufgetretenen RAM Fehlern erfahren nur Leute mit ECC RAM (passendem Board und Prozessor sowieso) und dem passenden OS, welches auch die nötige SW hat um solche Fehler auslesen zu können. Alle anderen werden allenfalls die Auswirkungen sehen, ohne dass da je direkt RAM Fehler dabei steht, dass man dann nur nachträglich mehr oder weniger sicher schlußfolgern.
Mein Backupserver at home hat ein altes Desktop AMD Board ohne ECC und das ist für mich dafür ausreichend.
Wenn es nur ein Backupsystem ist, kann das ja auch ausreichend sein, dann hat man die Daten ja auch noch woanders und im Zweifel sind auch die aktuellsten Daten dann ja auch dort und nicht im Backup.
Mein Hauptsystem hat ECC und das ist das wichtigere.
Dann scheint Dir doch die Wichtigkeit von ECC RAM nicht so ganz unbekannt zu sein. Wieso Du dann überhaupt ein Fertig-NAS welches kein ECC RAM hat für jemanden in Betracht ziehst der einen Server als hauptsächlichen Speicherort mit guter Sicherheit vor Datenkorruption sucht, also nicht nur wie bei Dir als Backupserver, verstehe ich nicht.

Wer einfach ein NAS will, der kann sich sowas gerne kaufen, aber wenn jemand mehr Sicherheit vor Datenkorruption wünscht als die übliche Consumer-HW eben so bietet, dann führt am ECC RAM kein Weg vorbei.
Letztlich dreht es sich um die Frage ob einem die allgemeinen Vorteile von ZFS auch auf einem Altsystem wichtig sind. Mir ist es das.
Sind Dir denn die zusätzlichen Risiken die so ein Filesystem mit Korrektur bei RAM Fehlern erzeugt, bewusst (gewesen)? Die werden ja leider immer verwschwiegen, auch von dem Mitentwickler von ZFS, der ja sagt es würde keine besonderen Grund geben bei ZFS ECC RAM zu verwenden, den es bei anderen Filesystemen nicht auch gäbe. Was aber eben nicht wirklich stimmt, denn natürlich riskiert man dann in jedem Fall Datenkorruption und wenn Metadaten betroffen sind, auch den Totalverlust des Filesystems. Aber andere Filesysteme korrigieren dann keine Daten kaputt und für die meisten anderen Filesysteme gibt es Recoverytools.
Wenn einem dann das "Risiko" wegen der Prüfsummenberechnung zu groß erscheint, der kann das ausschalten. ZFS hat dann immer noch alle anderen Vorteile kann aber keine Dateifehler mehr erkennen sowenig wie ext4 oder ntfs. Das wäre für mich aber der größere Verlust.
Genau die Prüfsummen und die Korrektur sind aber der Punkt wo ein Extra Risiko bei RAM Fehlern entsteht, ob der Rest dann noch genau Vorteile bringt, muss sich jeder selbst überlegen. Meiner Meinung nach sollte jeder der sich Sorgen macht, einfach zuerst auf ECC RAM setzen, damit erreicht er bzgl. Sicherheit am Meisten. Genau das sagt der Matt Ahren ja auch:
Und dann eben obendrauf das Filesystem mit Prüfsummen und nicht umgekehrt!

Letztlich überwiegen die ZFS Vorteile auch ohne ECC bei Weitem und diese ganze ECC Diskussion - so wichtig das Feature ist - dient vielen nur dazu um zu belegen, wie aufwändig und teuer die neuen Dateisysteme sind
Blödsinn, es geht darum die Leute vor Fehlern zu warnen, eben damit sie ihre Daten nicht in falscher Sicherheit wähnen und dann vor einem Scherbenhaufen stehen. Wenn das öfter passiert, würde es dem Ansehen von solchen modernen Filesystemen viel mehr schaden, weil dann der Eindruck entstehen würde, sie wäre ja viel unsicherer, was sie ja eben ohne ECC RAM leider auch sind.
und dass man mit den alten Sachen doch genausogut aber billiger wegkommt oder um zu vertuschen, dass es heutzutage ein tatsächliches Makel ist, die nicht zu haben.
Man kommt mit den alten Filesystemen auch genauso gut weg, die werden noch massenweise in Enterprise Storages mit vielen TB verwendet ohne Probleme zu machen. Da läuft es aber auch auf der passenden HW und keinen alten Desktop-PCs. Der Wunsch nach mehr Sicherheit dürfte oft eine fehlerhaften Vorstellung über die Ursachen von den beobachteten Probleme entspringen. Was zeigt auch die Cern Studie, die leider nahelegt, dass dort nur auf 1300 der 3000 untersuchten Rechner überhaupt ECC RAM und bei allen nur einfach Desktopplatten (1:10^14er UBER) zum Einsatz kamen. Da nun zu erwarten alleine mit einem besseren Filesystem alle Probleme zu lösen, ist einfach totaler Blödsinn und wird nicht funktionieren. Für eine echte Lösung muss man nun einmal an den wahren Problemursachen anfangen und dazu muss man diese zuerst einmal bestimmen, was dort in der Studie eben leider viel zu kurz gekommen ist.

Auch Synology (btrfs) und Qnap (ZFS) gehen bei ihren besseren Systemen dazu über. Deren Lowcost Systeme sind aber tatsächlich nicht leistungsfähig genug.
Aber genau die haben leider auch meist kein ECC-RAM und damit ist das ganze eben gefährlich und es wird den Leute für viel Geld (die Modelle kosten mehr als die vergleichbaren ohne diese Features) eine Pseudo-Sicherheit verkauft, die nicht geliefert wird. Da wird ebenfalls die Aussage von dem Matt Ahren umgedreht, was eben nicht zu empfehlen ist. Richtig daneben finde ich, dass solche Modelle dann auch noch für Enterprise beworben werden und teilweise stecken da sogar Atom C2xxx Rangeley SoCs drin die ECC RAM unterstützen, aber das wird dann einfach nicht verbaut, wohl im den teuren Modellen keine Konkurrenz zu machen, denn NAS mit ECC liegen meist in der Preisregion über 1000€.
Dass ECC bei Einsteigersystemen fehlt liegt an den BWL Menschen bei Intel und deren Monopol, die das künstich auf teure Pro Systeme reduzieren.
Nein, hier hat Intel keine Schuld, die Rangeley C2xxx Atoms stehen bei Intel ab 43$ in der Preisliste. Das WD My Cloud DL4100 Business hat den Atom C2338, der kostet 60$, verbaut aber nur 8 RAM Chips und ebenso das WD DL2100 mit seinem 43$ Atom C2350, wo man auch nur 8 RAM Chips auf der Platine sieht, mit einen großen Platz in der Mitte von ihnen. Ebenso stecken die ECC-fähigen Rangeley SoCs ohne ECC RAM auch in den NAS anderer Anbieter, wie z.B. im Synology DS415+.

Da wird einfach der 9. RAM Chip gespart, die Schuld liegt hier klar bei den NAS Herstellern, Intel listet seine ECC RAM fähigen SoCs sogar günstiger als etwa die meist anderen in den NAS verbauten SoC, wie die Celeon N28xx oder N3050/N3150, etc. die stehen nämlich fast alle mit 107$ in der Preisliste, also teuer als die Rangeley mit 2 oder 4 Kernen, nur die 8 Kern Rangeley kosten 150 bzw 171$.
Ist ja schon lustig wenn man ein billiges 1151 Board mit einem billigen Celeron ECC fähigen G4400 und ECC RAM betreiben kann, bei dem aber die ECC Fehlerkorrektur auf dem Board abgschaltet ist obwohl das da null Aufwand bedeutet.
Ja das sollte sich endlich mal ändern und alle CPUs und Boards sollten anfangen ECC RAM zu unterstützen.
Ist halt gewinnträchtig wenn man dafür dann 50 Euro Aufpreis für eine C-Klasse (Serverchipsatz) nehmen kann.
Auch das die C Chipsätze von Intel teurer sind ist falsch, der C232 steht mit 34$, der C236 mit 49$ in der Liste, der Z170 ist mit 47$ gerade mal 2$ billiger und der H170 kostet auch 32$. Da langt nicht Intel zu, sondern die Boardhersteller, genau wie bei den NAS eben nicht Intel die Schuld trägt, sondern die NAS Hersteller, die teils einfach nur deswegen ein ECC RAM bieten, weil sie nur 8 statt 9 RAM Chips verbaut haben.

Man muss schon die richtigen Schuldigen ausmachen und das anprangern, zumal gerade die NAS Hersteller nun auch noch das Thema Schutz vor Silent Data Corruption entdeckt haben und vermarkten, ohne diesen wirklich zu bieten. Würden sie da einen einfachen Rangeley und ECC RAM verbauen, hätte ich kein Problem damit, aber so ist das Verarschung und die klassichen Serverhersteller wie HP (es gab ja auch mal ähnliche Microserver von Dell und Fujitsu, aber ich glaube die wurden eingestellt), sind daher die viel besser Empfehlung, weil es bei denen eben selbstverständlich auch in einer 200€ Kiste ECC RAM gibt. Da stecken auch Mainbaords mit Server Chipsätzen drin, dazu dazu gibt es CPU, RAM, Gehäuse, Netzeil, Kühler und den Zusamenbau für einen Preis, wie er nicht selten alleine für das Board verlangt wird, was zeigt wie dreist die Boardhersteller da abkassieren.
 
Zuletzt bearbeitet:
Freunde, es ist doch inzwischen dazu fast alles gesagt bzw. geschrieben. Diejenigen, die sich dafür interessieren, haben die wesentlichen Aspekte gelesen, auch verstanden (man merkt bei den Hauptbeitragenden ja nun schon, dass alle Ahnung haben) und treffen eine eigene Bewertung der Risiko-/Nutzenanalyse und darauf basierend ggf. am Ende eine Entscheidung für/gegen ZFS oder was auch immer mit oder ohne ECC.

Im Ergebnis glaube ich sogar, dass Ihr total nah beieinander seid, immerhin jedenfalls Einigkeit über die Faktenlage besteht, die Empfehlungen im Grundsatz auch in die absolut gleiche Richtung gehen und jetzt eben nur die Frage ist, welche Schlüsse man (für sich) für bestimmte "Nuancen" bzw. Sonderkonstellationen daraus zieht. Bis ins letzte Detail sind sich doch zwei Personen nie einig... :)

100%ige Sicherheit gibbet nicht, und wenn meine CPU 'nen Bug im Rechenwerk hat (solls ja bisweilen geben), oder - was weiss ich - zum Beispiel auf einer der Leitungen auf'm Mainboard so ein angeschwebtes Teilchen für (zugegeben sehr kleinen) Krautsalat sorgt, dann hilft mir ECC auch nicht und die Daten sind am Ende auch Müll. Oleole. Das Leben ist mit gewissen Risiken verbunden, sicher ist (noch) nur der Tod.
 
Zuletzt bearbeitet:
Hallo zusammen,

ein paar Tage sind vergangen únd ein HP Microserver Gen8 kam zu mir ins Haus.
Das Gerät steht mittlerweile bei uns im Wohnzimmer. Die Lautstärke ist für Serverhardware angenehm leise.
Laut ILo dreht der Lüfter bei 10%.
Nichtsdestotrotz ist er deutlich wahrnehmbar, ganz im Gegensatz zu dem HTPC.
Die nächsten Tage werden zeigen ob er bleiben darf.

Als OS habe ich mir bis jetzt OMV und Freenas angeschaut. Sind beide für mich i.O.
Habe mich rein subjektiv für OMV + ZFS-Flugin entschieden.
Kopiere gerade meine Mediendateien mit ca. 104 MB/s durch GB-LAN.
ZFS läuft ohne Deduplizierung, Kompression und Verschlüsselung.
Speicherverbrauch wird mir mit 59 % von 3,83 GB angezeigt. CPU-Last beim kopieren liegt grob zwischen 50 - 75 %.

Im Zuge der ganzen Diskussion welches Dateisystem, Speicher und OS gibt es, wie von vielen Seiten angemerkt, keine binäre Lösung. So suche auch ich das Optimum für mich.

Ob es jetzt ZFS sein muss oder doch nur ein Snapraid oder JBOD ist für mich noch nicht klar.
Der Gedanke mit dem kleinen Gen8 hier servertaugliches Material zu haben gefällt mir aber, trotz höheren Kosten, Lautstärke und Platzbedarf ganz gut.
 
Höhere Kosten ist nun wirklich relativ, denn ein Selbstbau wird meist teurer, wenn man nicht auf viele bestehende Komponenten zurückgreifen kann und die handvoll 4-Bay Fertig-NAS die weniger kosten haben wenig RAM und schwache ARM CPUs, die werden kaum eine ähnliche Performance liefern können, von der fehlenden ECC-RAM Funktion ganz abgesehen. Außerdem relativieren sich die Kosten des NAS/Microserver schnell, wenn man dann sieht was man für die Platten ausgibt die dann da rein kommen.
 
Zuletzt bearbeitet:
Genau wie du schreibst, Kosten sind relativ. Ich beziehe mich auf meinen konkreten Fall, in dem ein Austausch der 4TB-Platte gegen eine bspw. 8TB-Platte im HTPC die günstigste Variante gewesen wäre (null Zusatzkosten für weitere Hardware).

Jetzt werde ich mich erst mal einrichten und dann schauen, ob meine Anforderungen erfüllt sind. OMV bietet ja eine recht große Anzahl an Plugins.

Gibt es von eurer Seite noch Einwände?
Ist das Raid-Z1 der richtige Weg für unsere Heimdaten?
Wie schätzt Ihr die RAM-Anforderungen ein? Wie gesagt werden aktuell ca. 60 % genutzt, aber Freenas schreibt ja immer von min. 8GB.
 
Oracle gibt als Minimum 2 GB für Solaris an und dafür wurde ZFS mal entwickelt.
Aber auch da würde ich etwas mehr RAM als Lesecache geben.
 
ich bin an einer gleichen Lösung interessiert aber ich möchte mehr auf aktuelle Hardware setzen.
Der Micro Gen 8 ist schon OK aber leider alte Hardware, ich möchte für die nächsten jahre was sicheres und die möglichkeit es zu erweitern.
der einziegste kompromis ist mein gehäuse, den es soll das von meinem Acer h340 sein.
Dort muss alles rein :-)
Dieses Board habe ich mir ausgesucht:
ASRock Rack C236 WSI ASRock Rack C236 WSI - ComputerBase
das ist die vorlage
NAS Advanced 2.0 mit Skylake Pentium Prozessor und 6x SATA - Technikaffe.de

als system möchte ich windows server 2012 R2 nehmen, da ich es schon habe.
was drauf soll:
Ownloud,Apple-Itunes,Plex-Media-Server. E-mail Archiv von meinen Postfächern. Webserver für Test Umgebung.
Ob ich alles direkt im server installiere oder ESXi baue bin ich mir noch nicht sicher, da ich zwar den vorteil von einzelnen maschinen sehe aber das ist wohl eher auch die frage warum alles extra wenn ich auch alles im win server 2012r2 laufen lassen kann.

wie seht ihr das ?
 
Zuletzt bearbeitet:
OK, wenn ich die Veröffentlichung aus 2009 einfach mal frei auf das hier und jetzt interpretiere, bekommen wir mit RAID5 (RaidZ1) keinen hinreichenden Schutz mehr. (Auch wenn die fehlende y-Achsenbeschriftung bei einigen Graphen als rein qualitative Aussage gilt).

Wie oft scheitern denn Rebuild bei 3x4TB Raid5? Kennt jemand dazu Daten (Wahrscheinlichkeiten) oder hat eigene Erfahrungen?
Denn wenn das "nix" bringt, kann ich auch ohne Paritäten arbeiten und habe ein größeres nutzbares Volumme.
Datensicherheit habe ich ja eh über das Backup.

Wenn ich meine Frage von oben erweitere, wäre anstatt RadiZ1 ein einfaches Volume + einfache Sicherung (+extra Sicherung für sensible Daten) für Heimanwendungen wie meine die bessere Lösung?
 
der einziegste kompromis ist mein gehäuse, den es soll das von meinem Acer h340 sein.
Reichen Dir denn die 4 Platten aus?
Dort muss alles rein :-)
Wenn das so ist, Mini-ITX Boards passen aber und das Netzteil reicht auch für ein normales ATX Board und hat die passenden Anschlüsse? Wenn nicht, wie wäre es mit dem SilverStone DS380, Mini-ITX (SST-DS380B) und dazu dem SilverStone Strider Series 300W SFX12V (SST-ST30SF)? Dann kannst Du auch alle 8 SATA Ports des Board nutzen und das alte Acer NAS komplett verkaufen.
Dann nimm aber ECC RAM und eine passende CPU (Celeron, Pentium, i3 oder Xeon E3), sonst lohnt sich das teure Xeon Board ja gar nicht.

Wenn es eine größere CPU werden soll, wäre vielleicht das Supermicro X10SDV-4C-TLN2F retail (MBD-X10SDV-4C-TLN2F-O) ab € 536,69 eine Alternative, da ist ein Xeon-D 1520 mit 4 Broadwellkernen @2.2GHz (Turbo 2.6GHz) drauf und 2 10GBase Ethernet Ports hat es auch, aber leider nur 6 SATA Ports. Windows Server2012 R2 und ESXi steht auch in der OS Kompatibilitätsliste, sollte also problemlos laufen.

OK, wenn ich die Veröffentlichung aus 2009 einfach mal frei auf das hier und jetzt interpretiere, bekommen wir mit RAID5 (RaidZ1) keinen hinreichenden Schutz mehr. (Auch wenn die fehlende y-Achsenbeschriftung bei einigen Graphen als rein qualitative Aussage gilt).
Das hängt mal zuerst von der UBER der verwendeten Platten ab, bei denen mit 1:10^15 sollte es kein Thema sein, sofern diese innerhalb der Spezifikationen betrieben werden und nicht schon viel zu alt sind. Die Skalen der X-Achsen dürften auch für die Tonne sein, weil 2009 noch sehr optimistische Projektionen über das Wachstum der Kapazität von HDDs abgegeben wurden, die sich so nicht erfüllt haben.

Wie oft scheitern denn Rebuild bei 3x4TB Raid5?
Mit welchen HDDs? Dann vergiss nicht, dass RAID keine Backups ersetzen und auch wenn ein Backup kaum immer die aktuellsten Daten enthält, so kann man auf von einem RAID welche Degraded ist, diese noch runterziehen und damit hat man dann auch in dem Fall eines Scheiterns des Rebuild keinen Datenverlust. Ohne ein Backup risikiert man hingegen ständig sein Daten zu verlieren, damit können diese also gar nicht wichtig sein und man braucht sich auch keine Gedanken zu machen ob man die Daten beim Rebuild vielleicht verlieren könnte.
Denn wenn das "nix" bringt, kann ich auch ohne Paritäten arbeiten und habe ein größeres nutzbares Volumme.
Nichts würde ich selbst dann nicht sagen, wenn die Chance auf ein erfolgreiches Rebuild extrem klein ist, denn schon schwebender Sektor auf einer Platte und bei Deinem RAID 0 ist mindestens mal eine Datei unlesbar, wenn es Metadaten des Filesystem trifft kann es auch mehr bis alles sein. Bei einem RAID 5 passiert da gar nichts, solange eben nicht eine zweite Platten an der gleichen Stelle auch ein Problem hat oder eben ganz ausgefallen ist. Dann kannst Du wie gesagt auch bei Ausfall einer Platte immer noch eine Menge davon Lesen und sicher/retten, nur wenn nicht mehr alles lesbar ist was für ein Rebuild ja wichtig ist, hast Du dabei dann ein Problem, aber es besteht eben ein gute Chance vorher noch an die Dateian zu kommen die noch nicht im Backup stehen, ein Full-Backup sollte man sich natürlich verkneifen.
 
Danke Holt für deine Hilfe.
Dann werde ich das jetzt erst mal so lassen wie es ist.

Hat eventuell noch jemand 4 GB des original verbauten ECC-RAM des Gen8 übrig?
Dann würde ich auf 8 GB aufrüsten und müsste mir erst mal keine Gedanken mehr um die Hardware machen.
 
Den Sammelthread zum Gen8 kenne ich natürlich und habe mir die kompatiblen RAM auch schon angeschaut.
Meine Frage zielt eher auf einen ressourcenschonenden Umgang bei gleichzeitiger maximaler Kompatibilität. Es gab ja einige die auf 16 GB aufgerüstet haben und dabei ggf. 4 GB übrig blieben.
Wenn jemand 4 GB aus einem HP Microserver Gen8 übrig hat, kann mir gern eine PN schicken.

Edit
@Janero unter mir: Kein Problem ein Gesuch zu erstellen, wenn der Handel per PN nicht gern gesehen wird.
Anbei meine Anfrage.
http://www.hardwareluxx.de/community/f108/1-x-4gb-unbuffered-ecc-ram-1107554.html#post24306094
 
Zuletzt bearbeitet:
Bitte keine PN Deals nicht das später wieder Gejammer kommt. Schau dich doch mal im Marktplatz um vielleicht wirst du ja dort fündig bzw. kannst du dort auch ein Gesuch eröffnen. Was dann auch die richtig stelle für deine Suche wäre.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh