[Kaufberatung] Nas mit Ecc Ram

daschmidt94

Neuling
Thread Starter
Mitglied seit
13.06.2024
Beiträge
13
Hallo,

möchte meine Ds923+ durch ein eigenbau NAS ersetzen. Die 4x4TB sind vorhanden. Es sollte nextcloud aio für 4 benutzer laufen und für 3-4 Benutzer SMB bzw NFS für Backups von meinem Proxmox server.
Als Betriebssystem würde mir Openmediavault gefallen mit dem ZFS plugin.

Hättet ihr da eine Hardware die für die Anwendung nicht owlverpowerd ist?

MFG
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hab nur overpowered Konfigurationen im Angebot.
 
Nicht ZFS ist overpowered, sondern der Kram von besterino.
Mann kann ZFS auch "normal" bauen ohne dass man 128C und 1TB RAM verbaut.
Im wesentlichen würde ich nach FSC S1151 MBs schauen. Die Plattform ist zwar schon älter, aber stromsparend und manchmal günstig zu bekommen.
(das D3417 MB kam mal ~130EUR, wird heute stellenweise für 440EUR verkauft :stupid: , ggf. hat man Glück.
Ansonsten hier in GB SchnäppchenMB Threads schauen.
Das ITX EPYC MB hat 8x SATA (reicht also auch für Erweiterung) und hat M.2.
Der IPMI BMC bietet Fernwartung, verbraucht aber auch seinen Strom.
Preislich sicherlich attraktiv, die Stromkosten sind aber auf jeden Fall größer als bei dem FSC-Ansatz oben.
ECC ist dann bei beiden Plattformen möglich. (beim S1151 halt aufpassen, nicht in jeder Kombi)
 
möchte meine Ds923+ durch ein eigenbau NAS ersetzen
Was ist denn die Motivation dazu? Dann kann man vielleicht besser etwas empfehlen.
Weil so bietet dir die DS923+ eigentlich ja alles was du willst, oder?
 
@daschmidt94 Überleg dir genau, ob du wirklich ECC brauchst. ECC erhöht die Verfügbarkeit eines Systems sonst nichts. Für ZFS braucht man ECC nicht.
 
ECC erhöht im Kontext ZFS die Datenintegrität (wie eigentlich auch in vielen anderen Usecases), das würde ich noch höher einstufen als die Verfügbarkeit.
Dass ECC nur die Verfügbarkeit erhöht, stimmt so also nicht.

Klar geht ZFS auch ohne ECC, es ist aber schon von Vorteil sowas zu haben, zumal ECC RAM nicht immer der riesige Kostentreiber ist.
 
Vorsicht, keine Sachen vermischen.
Das ist kein Missverständnis.
Das Missverständnis war, dass man ECC angeblich BRAUCHT. Das ist freilich nicht so.
Es ist dennoch sinnvoll.

ZFS braucht zwingend ECC = falsch (das war das anfängliche Missverständnis)
ZFS lebt besser mit ECC = richtig (das ist kein Missverständnis)

EDIT:
Das betrifft, wie bereits oben schon geschrieben, generell das Thema Server.
Kein Server braucht ECC RAM, das geht auch alles ohne.
Solange aber viel Daten im RAM gehändelt werden, ist ECC von Vorteil.
Daher hat sich das in Servern durchgesetzt.
@home betreiben viele Leute Server ohne ECC (halt normale Userrechner am Ende) und die laufen auch ziemlich schmerzfrei. Nur hat man noch immer ein Restrisiko. Das kann man mit ECC mindern, nicht eliminieren. Also macht man, in Abwägung, eben ECC RAM.

So ist das auch im ZFS Kontext. Selbst NAS-Hersteller bieten im default nonECC RAM in ZFS-NAS an.
Das geht halt auch, nur mit ist eben besser als ohne.
 
Zuletzt bearbeitet:
Das Risiko, dass im RAM Daten korrupt werden, besteht nicht?
Interessante Aussage, hast du dazu neue wissenschaftliche Erkenntnisse?

EDIT:
Ich kenne keine aktuellen wissenschaftliche Erkenntnisse dazu.
Eher ist das Gegenteil der Fall. Es hat schon einen Grund, warum man im DDR5 ECC rudimentär eingebaut hat.
Warum? Weil die Strukturen mittlerweile so anfällig für Datenkorruption sind, dass man ECC zwingend braucht.
D.h. im Umkehrschluss, dass das Risiko selbst für nonServer-Wendungen so beachtlich ist, dass sogar die RAM-Normung ECC (in Auszügen) mandatory setzt. Allein das sollte einem klar machen, dass ECC schon seine Berechtigung hat. Ob man das machen muss oder will, dass muss man freilich selber bewerten und entscheiden.

2ndEDIT:
Ich betreibe einen ESX-Server seit über 10 Jahren 24/7. Der rennt ganz ohne ECC RAM und hat auch mehr RAM als die Plattform so erlaubt. Und der packt das.
Alle paar zig Monate wird der mal neugestartet.
Ist das nun ein Musterbeispiel? Womöglich. Kann man auf ECC RAM verzichten? Selbstverständlich. Ist das auf jeden Fall übertragbar? Nein. Muss man das also anhand vieler Parameter selber bewerten ob so oder so? Ja, willkommen in der IT.

3rdEDIT:
ECC heißt nicht, dass garkeine Korruption mehr auftritt oder das ZFS plötzlich 1000%ig über jeden Zweifel erhaben ist. Aber es mindert eben das Risiko, welches nunmal vorhanden ist. Das ist einfach so.
Ist wie mit dem Sicherheitsgurt im Auto. Brauchen fürs Fahren tut man den nicht. Er hilft aber in viele n Situationen zu schützt Leben. Leider gibt es noch immer Unfälle, wo der Gurt auch nichts mehr hilft.
Übertragen würdest du also sagen, dass es keinen Gurt braucht, weil es gibt ja angeblich keine Autounfälle.
Wenn man es sich also leisten kann, nimmt man lieber den Gurt. (leider ist der ECC RAM inkl. Plattform im Vergleich zum Gesamtsystem eben kein Pfennigartikel wie es der Sicherheitsgurt im Auto ist)
 
Zuletzt bearbeitet:
@underclocker2k4 Hast du denn wissenschaftliche Erkenntnisse dazu, dass das Risiko besteht?

Es ist so, dass im RAM viel häufiger und länger Programmdaten und nicht Nutzdaten liegen. Daraus kann man schließen, dass RAM-Fehler in erster Linie Programmdaten betreffen und zu einem instabilen System führen. Weiter ist es so, dass RAM-Fehler, wenn überhaupt, bei defekten Modulen auftreten und sehr, sehr selten zufällig. Damit Nutzdaten betroffen sind, muss also entweder ein defektes Modul zwar Fehler erzeugen, aber aus unerfindlichen Gründen nie Programmdaten betreffen. Das ist sehr unwahrscheinlich. Alternativ müsste ein nicht defektes Modul zufällig einen Fehler aufweisen und dabei ausgerechnet den (kurzen) Zeitraum treffen, in dem Nutzdaten in genau den betroffenen Bits liegen. Und dabei muss der Fehler die Daten tatsächlich korrumpieren, was vom Datenformat abhängt.

Daraus schließe ich, dass es praktisch ausgeschlossen ist, dass ein System sich normal verhält und stabil läuft, während im Hintergrund unerkannt Nutzdaten verändert werden.

ECC ist sehr nützlich, wenn man ein stabiles System haben will, weil es einen Absturz verhindert und man zusätzlich die Info bekommt, dass Fehler auftreten, sodass man den RAM tauschen kann.
 
@craxity Hör doch mal bitte auf, hier deine Meinung und so einen Unsinn als absolute Wahrheit zu verkaufen.

Übertakte nur mal deinen RAM ein wenig, lass Karhu laufen und Du wirst feststellen, dass Du hunderte RAM-Fehler erzeugen kannst, ohne dass irgendwas abschmiert.

An alle: einfach bitte den Quatsch ignorieren. Richtig ist, dass man auch ohne ECC völlig problemlos durchs digitale Leben kommen kann. Richtig ist aber auch, dass sich das Risiko defekter Daten ohne ECC RAM erhöht - die Details zum „wieviel“ hängen von vielen Details ab (insb. Häufigkeit der Verwendung/Bewegung der Nutzdaten) und lassen sich kaum ernsthaft genau ermitteln. Also bleibt einem ganz individuell nur die leider recht unpräzise Frage wieviel einem die Daten bzw. die Minimierung des Risikos wert ist. Das muss dann im Privatumfeld jeder für sich entscheiden. Witzigerweise entscheiden das fast alle Unternehmen für FAST alle Einsatzgebiete im RZ zugunsten von ECC.

Davon ab: Programmdaten machen so gut wie nie den Großteil der Daten im RAM aus. Das mag vielleicht mal bei wissenschaftlichen Berechnungen sein, aber bei Datenbanken, ML und ganz vielen anderen typischen Aufgaben liegen große Mengen Nutzdaten dauerhaft im RAM.
 
danke für euren Input, ist aber irgendwie überall was man so liest über ECC kompletter konträr von den Meinungen.


Bei z.b. Synology mit einem Raid 5 und ext4 ohne ECC ist hier das Risiko gleich hoch wie bei ZFS ohne ECC Ram?
 
Es ist so, dass im RAM viel häufiger und länger Programmdaten und nicht Nutzdaten liegen.
Das ist ein Trugschluss.
Im Storagekontext, und dabei handelt es sich sowohl bei ZFS uns NAS wohl unweigerlich (oder bist du da anderer Meinung?), konvergiert der Begriff "Programmdaten" zu "Nutzerdaten". Denn die wesentliche Aufgabe dieser gearteten Programm ist das Halten und Verarbeiten von Nutzerdaten.

Weiterhin ist es bei weitem nicht so, dass Programme unweigerlich abstürzen, nur weil im RAM Bitweise Fehlerauftreten. Vielmehr ist es so, dass Ergebnisse verfälscht werden. A+B=C soll gerechnet werden.
3+4=7 wäre die normale Antwort. Bei einem RAM Fehler ist dann 3+4=5. Da Standardprogramme keine Plausibilitätsprüfung machen, wird das auch so hingenommen. (nicht umsonst gibt es z.B. im Mainframebereich oder anders wo entsprechende Multiausführungen von solchen Rechnungen, damit dabei keine Fehler passieren. Dabei geht es dann nicht nur um Fehler im RAM.
Natürlich kann es passieren, dass bei zu vielen Fehler dann Programm oder ganze Systeme abstürzen, weil dann einfach komplett andere Werte rauskommen, die dann selber zu Fehler führen. Einfaches Beispiel "div 0".

@underclocker2k4 Hast du denn wissenschaftliche Erkenntnisse dazu, dass das Risiko besteht?
Ansonsten selbstverständlich, das ist ja nicht so, als wenn das eine neue Erkenntnis wäre.

Wenn es etwas detaillierter werden soll:

Um das mal abzuschließen.
Was du meinst zu glauben, ist relativ uninteressant. Wer glauben will, geht in dir Kirche.
Fakt ist, dass der wissenschaftliche Konsens der ist, dass RAM unweigerlich zu Fehlern neigt. (daher auch der Aufwand bei DDR5)
Es gibt Parameter, die das begünstigen oder eben das Gegenteil bewirken.
Am Ende des Tages neigt jede Komponente, die beim Verarbeiten von Bits in der IT (und da meine ich einen sehr sehr großen Bereich, nicht nur Server/Rechner) beteiligt ist, immer mit dem Problem von Fehlern zu kämpfen hat.
Manche Bereiche mehr, manche weniger.
Beim RAM ist es so, dass die Auftretenshäufigkeit durch die kleinen Strukturen (Fertigung), die hohen Frequenzen, die großen RAM-Mengen, die RAM-Nutzung und den Preiskampf massiv nach oben getrieben wird.

Es ist also so wie es ist. RAM neigt zu Fehlern. Wer anderes behauptet hat entweder entsprechende Untersuchung und damit Beweise oder aber betreibt das Spiel der "alternativen Fakten" und disqualifiziert sich komplett bezüglich jedweder weiteren Diskussion, weil diese nicht auf Fakten, sondern auf meinen und glauben beruht. Und ja, diesen Vorwurf muss du dir gefallen lassen.
Man kann gerne anderer Meinung sein, man muss diese aber auch mit Fakten untermauern.

Ob man nun glaubt, dass einen diese RAM-Fehler (die es also unweigerlich gibt) maßgeblich betreffen oder nicht, das muss man für sich abwägen. Dass man davon unweigerlich betroffen ist, ist klar. Nur was es mit "einem" macht, dass muss man für sich bewerten.
Beitrag automatisch zusammengeführt:

danke für euren Input, ist aber irgendwie überall was man so liest über ECC kompletter konträr von den Meinungen.
Faktisch gibt es bei ECC keine konträren Meinungen. (anderes sind Verschwörungstheorien)
Fakt ist, dass normaler RAM mit mehr Fehler als ECC RAM zu kämpfen hat. (auch ECC RAM ist kein Garant für 100% Fehlerfreiheit)
Das einzige, wo man konträr unterwegs sein kann, ob man das als Problem für einen erachtet oder eben nicht.
Unternehmen entscheiden sich zu 99% für ECC RAM, weil der einfach kein Geld kostet, im Vergleich zur Gesamtinvestition und im Vergleich zum "wenn mal passierts, dann kostets" auch nichts kostet.

Die entscheidende Frage ist also, was ist es einem Wert.
Dabei muss man auch beim Usecase aufpassen.
Wer nen Videostreamingserver hat, hat halt was anderes als nen Realtimetradingsystem oder als jemand der Daten hortet. Und Daten horten ist nicht gleich Daten horten.
Man sollte schon unterscheiden ob man Y*oporn.com offline verfügbar gemacht hat oder ob das die private Bilder- und Dokumentensammlung ist.
Weiterhin sollte man auch bedenken, ob man eine x-fache Backupstrategie fährt. (wobei das auch nur die halbe Wahrheit ist)
Die IT macht vieles möglich. Das Thema Daten hingegen ist eine Baustelle, die man nicht verachten sollte.
Man will auch noch in 50 Jahren die Bilder der Kinder haben. Mindestens um den Enkeln mal zu zeigen wie deren Elter in ihrem Alter waren. Da man Bilder aber mittlerweile nicht mehr im Schuhkarton hortet, muss man der digitalen Welt anders begegnen.

Es ist also eine Abwägung zwischen Nutzen und Kosten/Aufwand. Oder mit anderen Worten, was sind mir meine Daten wert.
Und ich denke, dass wir mittlerweile in einer Welt leben, wo man ECC relativ günstig bekommen kann. Das war vor 20Jahren noch anders. Heute kann man sich ECC Systeme für 50EUR Mehrpreis bauen. Für mich ist und wäre das ein nobrainer. Leider ist es aktuell so, wenn man alles neu haben muss, dieser Mehrpreis nicht abbilden lässt. Das liegt an der Produktpolitik der Hersteller.
Dennoch sind die angesprochenen Gigabytesysteme hier auf der 1. Seite eigentlich ideal für sowas und eigentlich ein nobrainer. Auch wenn die an der ein oder anderen Stelle Nachteile haben. Aber bezogen auf "einfach nur ein NAS/Storage mit ECC" sind die eigentlich ideal.
Bei z.b. Synology mit einem Raid 5 und ext4 ohne ECC ist hier das Risiko gleich hoch wie bei ZFS ohne ECC Ram?
ZFS ist gegenüber RAID grundsätzlich im Vorteil, was die Datenintegrität angeht. Das wird besonders im multi10TB Bereich interessant. RAID neigt bei sehr großen Verbunden (und da kommt man mit 20TB HDDs sehr schnell hin) zu statistischen Fehler, allein im Bereich der Platten an sich)
ZFS ist da moderner unterwegs und geht das Problem ganz gezielt an.
Evtl. hat @gea da ein paar schnelle links zur Hand.
D.h. also dass man mit ZFS schon besser unterwegs ist. Und sofern man die Möglichkeiten hat, man auch versuchen sollte, das zu machen.

Ob nun ZFS ohne ECC gegenüber RAID ohne ECC bezogen auf RAM-Verhalten besser oder schlechter ist, weiß ich nicht. Kann gea ggf. was zu sagen.
Ich persönlich glaube, das RAID da besser wäre, weil beim RAID nicht so viel im RAM passiert, was das Datenhandling an sich angeht. Das sieht beim SoftwareRAID wie im NAS anders aus. Da wird auch alles im RAM gedreht. In dem Fall würde ich sagen gleich kacke oder gut, wie man es sehen will. Da würde ich dann ZFS wieder im Vorteil wegen der ZFS-Eigenheiten selber.
 
Zuletzt bearbeitet:
Manchmal wünscht man sich echt eine Downvote Funktion, einfach damit der geneigte spätere Leser, der auf sowas stößt, sehen kann, wenn eine große Anzahl von Personen Aussagen ablehnen.
 
Bei z.b. Synology mit einem Raid 5 und ext4 ohne ECC ist hier das Risiko gleich hoch wie bei ZFS ohne ECC Ram?
Dein Synology hat aber ECC und bietet BTRFS, also wäre das der naheliegendere Vergleich, oder?
Da sehe ich nämlich wenig Handlungsbedarf.
 
Übertakte nur mal deinen RAM ein wenig, lass Karhu laufen und Du wirst feststellen, dass Du hunderte RAM-Fehler erzeugen kannst, ohne dass irgendwas abschmiert.
Das stimmt so nicht. Wenn man RAM übertaktet und der RAM vom OS gentutzt wird, ist die Wahrscheinlichkeit hoch, dass es zu einem Absturz kommt. Wenn der RAM nicht genutzt wird, passiert natürlich nichts. Aber die Wahrscheinlichkeit, dass Nutzdaten verfälscht und dann unbemerkt auf dem Datenträger gesichert werden, ist äußerst gering.

An alle: einfach bitte den Quatsch ignorieren. Richtig ist, dass man auch ohne ECC völlig problemlos durchs digitale Leben kommen kann.
Nur weil etwas nicht deiner Meinung entspricht, ist es nicht gleich Quatsch. Es gibt buchstäblich Milliarden von Geräten, die ständig laufen und kein ECC haben. Darunter auch alle Geräte auf denen die zu schützenden Nutzdaten erstellt, bearbeitet, genutzt und verbreitet werden.
Richtig ist aber auch, dass sich das Risiko defekter Daten ohne ECC RAM erhöht - die Details zum „wieviel“ hängen von vielen Details ab (insb. Häufigkeit der Verwendung/Bewegung der Nutzdaten) und lassen sich kaum ernsthaft genau ermitteln.
Wenn du sagst, dass man das Risiko nicht abschätzen kann, warum gibst du dann Tipps als ob du das könntest? Ich feiere und teile ja deinen Enthusiasmus für Hardware, aber Enthusiasmus ist meistens kein guter Berater für andere.

Also bleibt einem ganz individuell nur die leider recht unpräzise Frage wieviel einem die Daten bzw. die Minimierung des Risikos wert ist. Das muss dann im Privatumfeld jeder für sich entscheiden.
Witzigerweise entscheiden das fast alle Unternehmen für FAST alle Einsatzgebiete im RZ zugunsten von ECC.
Was ist daran witizg? In Unternehmen sind viele Systeme kritisch und müssen verfügbar sein, damit keine Schäden entstehen. Wenn die Produktion stillsteht, kommt man schnell ins Schwitzen. Da macht ECC natürlich Sinn. Ebenso wie RAID, SLAs, Redundanz etc. Für das Privatumfeld macht vieles davon keinen Sinn.

Davon ab: Programmdaten machen so gut wie nie den Großteil der Daten im RAM aus. Das mag vielleicht mal bei wissenschaftlichen Berechnungen sein, aber bei Datenbanken, ML und ganz vielen anderen typischen Aufgaben liegen große Mengen Nutzdaten dauerhaft im RAM.
Darüber lässt sich sicher streiten. Ehrlicherweise wird man sagen müssen, dass bei "tgypischen Aufgaben" eines NAS der RAM nicht sehr intensiv genutzt wird. Bei Datenbanken kommt es darauf an, was zum Datenbanksystem gehört und was die Nutzdaten sind. Aber im privaten Bereich werden die Nutzdaten selten überwiegen.
 
Ich würdige Deinen Beiträgen keine Antworten mehr.
 
Im Storagekontext, und dabei handelt es sich sowohl bei ZFS uns NAS wohl unweigerlich (oder bist du da anderer Meinung?), konvergiert der Begriff "Programmdaten" zu "Nutzerdaten". Denn die wesentliche Aufgabe dieser gearteten Programm ist das Halten und Verarbeiten von Nutzerdaten.
Das sehe ich anders. Wenn man das Gesamtsystem betrachtet kann man Verfügbarkeit und Datensicherheit nicht unterscheiden. Das sind aber unterschiedliche Probleme mit unterschiedlicher Relevanz und unterschiedlichen Lösungen. Ich finde, dass ECC hauptsächlich der Verfügbarkeit dient, die bei Privatnutzern nicht so wichtig ist.

Weiterhin ist es bei weitem nicht so, dass Programme unweigerlich abstürzen, nur weil im RAM Bitweise Fehlerauftreten. Vielmehr ist es so, dass Ergebnisse verfälscht werden. A+B=C soll gerechnet werden.
3+4=7 wäre die normale Antwort. Bei einem RAM Fehler ist dann 3+4=5. Da Standardprogramme keine Plausibilitätsprüfung machen, wird das auch so hingenommen. (nicht umsonst gibt es z.B. im Mainframebereich oder anders wo entsprechende Multiausführungen von solchen Rechnungen, damit dabei keine Fehler passieren. Dabei geht es dann nicht nur um Fehler im RAM.
Natürlich kann es passieren, dass bei zu vielen Fehler dann Programm oder ganze Systeme abstürzen, weil dann einfach komplett andere Werte rauskommen, die dann selber zu Fehler führen. Einfaches Beispiel "div 0".
Aus dem Paper von Bianca Schroeder ergibt sich aber, dass Fehler überwiegend durch defekte Hardware ausgelöst werden. Die Fehler treten dann auch wiederholt auf. Es ist daher sehr fernliegend anzunehmen, dass ein System stabil läuft und unerkannt RAM-Fehler auftreten, die Nutzdaten beschädigen. Auch wenn nicht jeder RAM-Fehler zum Absturz führt, kenne ich kein System, dass RAM-Fehler aufwies und dann stabil genug war, um Daten zu beschädigen.

Ansonsten selbstverständlich, das ist ja nicht so, als wenn das eine neue Erkenntnis wäre.


Wenn es etwas detaillierter werden soll:
Bis auf den Werbetext von hectronic ist das natürlich bekannt. Aber ich kann da beim besten Willen nicht rauslesen, dass RAM-Fehler Nutzdaten betreffen. Dass die Erkenntnisse auf Privatnutzer übertragbar sind, steht auch ausdrücklich drin.
Um das mal abzuschließen.
Was du meinst zu glauben, ist relativ uninteressant. Wer glauben will, geht in dir Kirche.
Es geht nicht im Glauben, sondern um rationale, unvoreingenommene Ratschläge. Leider erhöht ECC die Kosten und schränkt die Auswahl ein, weshalb es nicht immer die rationale Lösung ist. Ich nutze selbst noch das eher veraltete D3417, weil es keine guten Alternativen gibt. Man könnte dem Ratsuchenden ja auch statt ECC mal ordentlichen RAM mit moderaten Taktraten und einen ausgiebigen Test empfehlen.
Fakt ist, dass der wissenschaftliche Konsens der ist, dass RAM unweigerlich zu Fehlern neigt. (daher auch der Aufwand bei DDR5)
Es gibt Parameter, die das begünstigen oder eben das Gegenteil bewirken.
Am Ende des Tages neigt jede Komponente, die beim Verarbeiten von Bits in der IT (und da meine ich einen sehr sehr großen Bereich, nicht nur Server/Rechner) beteiligt ist, immer mit dem Problem von Fehlern zu kämpfen hat.
Manche Bereiche mehr, manche weniger.
Beim RAM ist es so, dass die Auftretenshäufigkeit durch die kleinen Strukturen (Fertigung), die hohen Frequenzen, die großen RAM-Mengen, die RAM-Nutzung und den Preiskampf massiv nach oben getrieben wird.

Es ist also so wie es ist. RAM neigt zu Fehlern. Wer anderes behauptet hat entweder entsprechende Untersuchung und damit Beweise oder aber betreibt das Spiel der "alternativen Fakten" und disqualifiziert sich komplett bezüglich jedweder weiteren Diskussion, weil diese nicht auf Fakten, sondern auf meinen und glauben beruht. Und ja, diesen Vorwurf muss du dir gefallen lassen.
Man kann gerne anderer Meinung sein, man muss diese aber auch mit Fakten untermauern.
Es hat doch niemand behauptet, dass es kein RAM-Fehler gibt. Aber die sind bei "Heimgebrauch" sehr selten und führen zur Instabilität (ohne ECC) und nicht zur Beschädigung von Nutzdaten.

Unternehmen entscheiden sich zu 99% für ECC RAM, weil der einfach kein Geld kostet, im Vergleich zur Gesamtinvestition und im Vergleich zum "wenn mal passierts, dann kostets" auch nichts kostet.
Natürlich entscheiden sich Unternehmen für ECC. Aber hauptsächlich wegen der Verfügbarkeit. Mal abgesehen davon, dass die Auslastung der System in Unternehmen eine ganz andere ist.
 
ECC ist auch Privat sehr wichtig.
 
Zuletzt bearbeitet:
Preisfrage. Der normale Endkunde schaut als erstes auf den Preis, kennt sich mit den Details nicht aus und in der Regel passiert nichts, was der Kunde merkt.

Wenn mal nen Bit kippt, ist die betroffene Datei ja auch nicht sofort zwingend unbrauchbar. Wenn da nur Mediendateien drauf liegen, interessiert das ja auch keinen - selbst wenn mal ein File verloren wäre. Blöder könnte schon sein, wenn‘s der PW-Manager oder auch nur ein darin enthaltenes Passwort wäre. Schlimmer wirds nur, wenn man kaputten RAM lange unbemerkt benutzt, dadurch die Daten in größerem Stile fehlerhaft werden und man davon kein Backup hat oder das Backup sogar schon die defekten Daten enthält. Gerade auch um den Ärger bei letzterem zu vermeiden, nutzen eben viele ECC sogar zu Hause für das zentrale Storage (und ggf. Backup-System).

Das alles gilt unabhängig von ZFS.
 
Auch bei medienfiles ist es blöd, wenn du teilweise medienfiles hast die es nicht mehr gibt. Qnap/Synology bietet es nicht an, weil die meisten fertig Nas von der CPU her kein ECC können. Bitfehler ist den scheißegal im Consumer Bereich. Sprich deine Daten sind nie sicher vor Bitfehlern, solange kein ECC Ram verbaut ist. Deswegen finde ich bei Synology BTRFS ohne ECC auch recht nutzlos. Was bringen einen Prüfsummen und eine Bitrot Erkennung wenn das Nas nicht mal weiß ob die Daten überhaupt richtig geschrieben wurden.
 
Rauchen schadet der Gesundheit?
Glaub ich nicht, Altkanzler Helmut Schmidt war Kettenraucher und wurde älter als andere

Erwärmt sich die Erde?
Glaub ich nicht, gerade ist es richtig kalt draußen für Juni.

Das sind Meinungen die nicht den Stand der wissenschaftlichen Erkenntnis widerspiegeln. Praktisch kein renomierten Wissenschaftler würden diesen Aussagen widersprechen. Es gibt aber genügend die aufgrund von Einzelereignissen diesen Aussagen keinen Glauben schenken wollen statt sich Gedanken über statistische Häufigkeit zu machen. Wenn eben ein Jahrhunderthochwasser alle 5 Jahre stattfindet oder die 10 heißesten Jahre seit Beginn der Aufzeichnungen praktisch im letzten Jahrzehnt stattgefunden haben, so wird schnell klar dass statistische Aussagen nicht nur theoretische Mathematik ist sondern gelebte Wirklichkeit.

Genau so ist es mit ECC. RAM ist wie alles auf dieser Welt nicht fehlerfrei. Man kann mit einer Wahrscheinlichkeit abschätzen wie oft Fehler auftreten ohne dass RAM defekt ist. Die Wahrscheinlichkeit mag niedrig sein aber proportional zum RAM und ausreichend Wartezeit passiert garantiert ein RAM Fehler der mit einer bestimmten Häufigkeit zu einem Absturz oder verfälschten Daten führt. Ob man das als relevant ansieht kann jeder selber entscheiden, genau wie jeder Rauchen darf soviel er will. Wenn man Risiken vermeiden möchte die mit einer gewissen Wahrscheinlichkeit einen vermeidbaren Schaden zur Folge haben, sollte man weder Rauchen noch auf ECC RAM verzichten. Bei ZFS ist ECC eigentlich nur deshalb besonders erwähnenswert weil ZFS per Design alle Datenverluste die nicht durch technische Defekte verursacht wurden, vermeiden soll. Fehlendes ECC hebelt diesen Anspruch aus, da damit auch unter ZFS Datenkorruption möglich wird.

Dass billige NASen kein ECC haben liegt nicht daran, dass die Hersteller glauben dass damit kein Vorteil verbunden wäre, sondern allein daran dass das Geld kostet und die meisten Kunden kein technisches Verständnis haben. Ohne ECC ist das NAS billiger und der Gewinn dennoch höher. Dass ein bestimmter Hersteller btrfs als Riesenfortschritt in der Datensicherheit bewirbt und dabei gleichzeitig verschweigt dass die beiden Hauptvorteile neuer Dateisysteme Prüfsummen mit Autorepair und unkaputtbares Raid durch Copy on Write auf Einzelplatten weggelassen wurden um höhere oder besondere Raid Level zu ermöglichen. Auch da ist genau wie bei ECC Marketing wichtiger als technische Fähigkeiten auf dem Stand der Technik.
 
Zuletzt bearbeitet:
Wenn man das Gesamtsystem betrachtet kann man Verfügbarkeit und Datensicherheit nicht unterscheiden.
...
Ich finde, dass ECC hauptsächlich der Verfügbarkeit dient,


Auch wenn nicht jeder RAM-Fehler zum Absturz führt, kenne ich kein System, dass RAM-Fehler aufwies und dann stabil genug war, um Daten zu beschädigen.


Aber ich kann da beim besten Willen nicht rauslesen, dass RAM-Fehler Nutzdaten betreffen. Dass die Erkenntnisse auf Privatnutzer übertragbar sind, steht auch ausdrücklich drin.
Halten wir also fest, dass du nicht im entferntesten verstanden hast, worüber wir hier reden.
Grundsätzlich hast du recht, dass bei normalen PCs die Wirkung eher auf Verfügbarkeit/Stabilität/Programmdaten denn auf Nutzerdatenintegrität realisiert.
Du erkennst aber scheinbar nicht, worüber wir hier reden.
Wir reden hier von Servern bzw. NAS Systemen. Deren Hauptaufgabe das Handling von Nutzerdaten ist.
D.h. dass 99% der Daten, die durch RAM und co. fließen, Nutzerdaten sind.
Das ist das, was ich oben mit "Programmdaten konvergiert in dem Usecase nach Nutzerdaten" geschrieben habe.
Wenn wir über OfficePCs im allg. Anwendungskontext sprechen, sind wir auf einer Linie.
Tatsächlich ist es bei mir so, dass meine OfficePCs meist ECC Systeme sind, eben weil ich Abstürze minimieren will.
In diesem Kontext (ggf. nochmal den Eingangspost lesen, da ist von NAS die Sprache) hier ist die Sache aber anders. Hier werden nahezu ausschließlich Nutzerdaten gehandelt. D.h. dass 99% der RAM Fehler statisch auf Nutzerdaten und nicht auf Programmdaten wirken. Dieser Anteil wird im Wesentlichen dadurch bestimmt, wie die Nutzdaten auf dem System gehandelt werden. Liegen die Dateien wie bei einem Windowsfileserver einfach so auf der Platte, ist das ein ganz anderes Problem als bei modernen Dateisystemen, wo man mit den Daten, auch wenn sie nur so rumliegen und vom Nutzer gerade nicht benötigt werden, ganz anders gearbeitet wird. Die werden quasi ständig bearbeitet. D.h. auch wenn die Daten "cold" sind, sind im Sinne des Systems aber hot. D.h. der RAM ist hier "ständig" mit den Nutzdaten beschäftigt.

Daher ist die Aussage, dass fast ausschließlich Programmdaten und nahezu keine Nutzerdaten betroffen sind, schlicht falsch. Das solltest auch du erkennen.
Es geht nicht im Glauben, sondern um rationale, unvoreingenommene Ratschläge. Leider erhöht ECC die Kosten und schränkt die Auswahl ein, weshalb es nicht immer die rationale Lösung ist. Ich nutze selbst noch das eher veraltete D3417, weil es keine guten Alternativen gibt. Man könnte dem Ratsuchenden ja auch statt ECC mal ordentlichen RAM mit moderaten Taktraten und einen ausgiebigen Test empfehlen.
Und rationaler und unvoreingenommener Ratschläge wäre, wenn man bei den Fakten bleibt. Und der Fakt ist, dass ECC besser ist. D.h. man sollte zu ECC Systemen raten. Zur Wahrheit gehört auch, dass manche ECC Systeme mit entsprechenden Kosten verbunden sind. Nur weil manche Systeme mehr kosten, heißt das nicht, dass andere Systeme dies auch tun. D.h. auch, dass man, wenn man ein günstiges ECC System findet, diesem eher den Vorzug geben sollte, auch dann, wenn es minimal teurer als nonECC ist.
Ich habe Beispiele für günstige, wenn nicht sogar sehr günstige, Systeme genannt. Ich weiß nicht, warum man z.B. bei dem MiniITX EPYC Gigabyte MB der Meinung sein sollte, dass man das wegen ECC nicht einfach nimmt. Es mag andere Entscheidungsgründe dagegen geben, z.B. PCIe Slot, dann gäbe es ggf. noch das AM4 MB. In jedem Fall aber sind das sehr günstige Möglichkeiten für ECC. Da sind N100 MBs teuer und die können dann natürlich kein ECC. Man kann also festhalten, dass in diesem speziellen Fall ein ECC-System sogar günstiger als nen nonECC System ist. Daher ist die pauschale Aussage, dass ECC die Kosten erhöht sogar komplett falsch.
Dass für deinen Fall des D3417 keine günstigen, modernen Alternativen existieren ist zwar doof, heißt aber nicht, dass das in allen Fällen der Fall ist. Entsprechend Gegenteiliges habe ich grade dargelegt.
Und damit wir uns nicht falsch verstehen. Ich habe auch 1/2 Dutzend D3417 im Einsatz. Daneben noch weitere nonECC Plattformen aus der Zeit, aber auch eine Generation weiter, wieder mit ECC. Allen gemein ist, dass sie nicht mehr die modernsten Plattformen sind, aber preislich in der Anschaffung noch "normal" waren und ein Upgrade in der Breite mit vielfachen Kosten der ursprünglichen Systeme verbunden ist (ganz unabhängig der Inflation). Solange die Performance ausreicht, werde ich auch dabei bleiben.
Nur weil du also bei einem Ersatzsystem, mit ECC, für dein D3417 mit extremen Mehrkosten zu rechnen hast, ist das nicht zu verallgemeinern. Insbesondere dann nicht, wenn man es schafft ein D3417 als Gebrauchtsystem für einen moderaten Preis (was auch schwierig geworden ist) für ein NAS zu bekommen.
Lasse dich daher bei einem D3417 Upgradeproblem nicht für andere Usecases fehlleiten. Es gibt, gerade im Moment, sehr günstige Alternativen für ECC.
Natürlich entscheiden sich Unternehmen für ECC. Aber hauptsächlich wegen der Verfügbarkeit. Mal abgesehen davon, dass die Auslastung der System in Unternehmen eine ganz andere ist.
Das ist falsch. Ich planen, unter anderem, bei uns die VM, Server und Storageinfrastruktur. In allen Systemen ist das Problem "Verfügbarkeit" freilich immer eine wichtiger Punkt. Der Punkt der Datenintegrität der tatsächlichen Nutzdaten ist aber genauso wichtig, wenn nicht sogar wichtiger.
99% der Systeme sind redundant, sogar mehrfach redundante. Es wäre also sogar verkraftbar, wenn ein System mal abstützt. Die Applikation würde dennoch kurz husten, geht aber weiter. Besser wäre schon ohne.
Das sieht bei der Datenintegrität aber anders aus. Die Daten müssen schon passen, weil die Folgekosten von Abweichungen schon schlecht wären. Freilich nicht wie im Bankensektor, die einen ganz anderen Aufwand treiben müssen.
Beim Storage wird dieses Problem potenziert. Man will bei etlichen PBs kein Risiko eingehen.
Die pauschale Aussage, dass man ECC in Unternehmen hauptsächlich wegen Verfügbarkeit macht ist also auch falsch. Gerade große Unternehmen, die viel mit wichtigen Daten (als nicht nur irgendwelche Exchangeserver) zu tun haben, legen da einen ganz anderen Fokus.
Beitrag automatisch zusammengeführt:

Verstehe nicht warum nicht die meisten Qnap/Synology/Selbstbaulösungen von haus aus eingebaut haben.
Es wurde ja schon gesagt, dass das eine Preisfrage ist.
Nur nur auf den RAM selber, sondern schon bei der Plattform, sprich CPU/Chipsatz.
Die ganz günstigen NAS haben kleine ARMs. Die können kein ECC.
Die etwas höherpreisigen NAS haben Celeron, die können das auch nicht.
Hier müsste man also schon einen ganz anderen Unterbau nehmen, der mehr kostet.
Aber selbst bei noch teureren NAS, die schon ECC-fähige Plattformen haben, wird im Default noch nonECC eingesetzt. Eben weil es hier zum einen ankommt, dass man 50EUR spart, damit man das gegen vergleichbare NAS positionieren kann und zweitens weil nahezu alle Kunde gar nicht verstehen, dass ein 50EUR teureres ECC NAS eigentlich die günstigere Variante (Kosten/Nutzen) wäre.
Bei solchen Systeme ist dann leider so, dass man den RAM gegen ECC RAM austauschen muss. Zum Glück kann man das, weil es das NAS grundsätzlich unterstützt.

Beim Selbstbau ist es ähnlich. SelbstbauNAS sind mit ECC oftmals sehr teuer, im Vergleich zu nonECC, weil das ein Problem der Produktpolitik ist, sowohl CPU als auch MB-Hersteller. Intel hat die Chipsätze und CPUs so angeordnet, dass bei einer günstigen CPU das MB extrem teuer wird.
Das macht das Vorhaben unattraktiv. Bei AMD hingegen sieht es etwas besser aus. Da ist das etwas verwirrend, welche CPU mit welchem MB nun was kann und was nicht.
Daher sind ja die angesprochenen Gigabyte MBs (siehe die aktuellen Threads hier) so interessant. Die sind so günstig, dass man die fast im dutzend kaufen muss. Das gepaart mit ECC Support bietet genau das, was man will, ECC System und das für wenig Geld. Die passen freilich nicht für alle Usecase, siehe z.B. das MiniITX MB mit den ganzen spezialadaptern, aber für einfache Anwendungen für NAS ist das dennoch ausreichend.
Daher auch der Hinweis, wenn es sich abbilden lässt, dass ich eher auf das MiniITX EPYC Gigabyte-System setzen würde als auf ein N100, außer dass der stromverbraucht extrem wichtig ist. (da ist der N100 im Vergleich unschlagbar)
 
Zuletzt bearbeitet:
Ne. Er meint dieses:


Und/oder dieses (mATX):

 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh