Verstehe nicht warum nicht die meisten Qnap/Synology/Selbstbaulösungen von haus aus eingebaut haben.
Die nutzen ECC nicht, weil die passenden CPUs kein ECC unterstützen. Und die CPUs unterstützen kein ECC, weil dadurch das ganze System günstiger wird und es auch ohne ECC geht. Ich kann mich auch nicht entsinnen, jemals gehört oder gelesen zu haben, dass es wegen fehlendem ECC Probleme gegeben hätte. Die NAS-Hersteller können die Systeme aber viel besser testen und abstimmen, als man es beim Eigenbau kann.
Es gibt ja auch Milliarden anderer Systeme, die wunderbar ohne ECC laufen: Smartphones, Tablets, (die meisten) Notebooks, Router, Konsolen etc.
Der normale Endkunde schaut als erstes auf den Preis, kennt sich mit den Details nicht aus und in der Regel passiert nichts, was der Kunde merkt.
Dieses "was der Kunde merkt" impliziert für mich, dass du glaubst, das etwas schlimmes passiert, was unbemerkt bleibt.
Schlimmer wirds nur, wenn man kaputten RAM lange unbemerkt benutzt, dadurch die Daten in größerem Stile fehlerhaft werden und man davon kein Backup hat oder das Backup sogar schon die defekten Daten enthält.
Genau das kann nicht passieren. Dass der RAM defekt ist, aber das System weiter stabil läuft, klappt nicht. Jeder, der schonmal defekten RAM hatte, weiß, dass der nicht lange unentdeckt bleibt.
Rauchen schadet der Gesundheit?
Erwärmt sich die Erde?
Das sind völlig unsinnige Vergleiche. Die kenne ich sonst nur von Versicherungsvertretern.
RAM ist wie alles auf dieser Welt nicht fehlerfrei. Man kann mit einer Wahrscheinlichkeit abschätzen wie oft Fehler auftreten ohne dass RAM defekt ist.
In dem heise-Artikel aus 2009(!) geht es doch darum, dass solche "Soft Errors" viel seltener auftreten, als man früher dachte. Bist du auf dem Kenntnisstand von vor 2009?
Die Wahrscheinlichkeit mag niedrig sein aber proportional zum RAM und ausreichend Wartezeit passiert garantiert ein RAM Fehler der mit einer bestimmten Häufigkeit zu einem Absturz oder verfälschten Daten führt.
Die Frage ist doch, wie lange man warten müsste. Die Erkenntnisse zu solchen Fehlern stammen aus Rechenzentren. Wenn man deren RAM-Menge und die Intensität der Nutzung auf ein NAS herunterbricht, kommen astronomische Wartezeiten raus.
Ob man das als relevant ansieht kann jeder selber entscheiden, genau wie jeder Rauchen darf soviel er will. Wenn man Risiken vermeiden möchte die mit einer gewissen Wahrscheinlichkeit einen vermeidbaren Schaden zur Folge haben, sollte man weder Rauchen noch auf ECC RAM verzichten.
Wie hoch schätzt du denn diese "gewisse[] Wahrscheinlichkeit" ein? Nachdem man Jahre auf das gekippte Bit gewartet hat, muss ja auch ein wichtiges Bit betroffen sein. Der RAM eines NAS hat Dutzende bis Hunderte Milliarden Bits. Mir ist klar, dass es nicht einfach ist, sich solche Zahlen vorzustellen, aber das ist kein Grund in Panik zu verfallen.
Dass billige NASen kein ECC haben liegt nicht daran, dass die Hersteller glauben dass damit kein Vorteil verbunden wäre, sondern allein daran dass das Geld kostet und die meisten Kunden kein technisches Verständnis haben.
Was hat denn das technische Verständnis der Kunden mit dem Risiko zu tun? Wenn die Kunden keine Probleme haben, gibt es vielleicht kein Problem. Oder glaubst du auch, dass in Wirklichkeit Daten beschädigt werden, aber es die Kunden nicht merken? Das klang bei besterino schon so an.
Halten wir also fest, dass du nicht im entferntesten verstanden hast, worüber wir hier reden.
Ich glaube wir haben einfach sehr unterschiedliche Vorstellungen von Heimservern und NASen. Für dich scheinen es hochfrequentierte Systeme mit hoher Auslastung zu sein. Für mich sind es Kisten, die die meiste Zeit im idle vor sich hindümpeln.
Wir reden hier von Servern bzw. NAS Systemen. Deren Hauptaufgabe das Handling von Nutzerdaten ist.
D.h. dass 99% der Daten, die durch RAM und co. fließen, Nutzerdaten sind.
Das ist das, was ich oben mit "Programmdaten konvergiert in dem Usecase nach Nutzerdaten" geschrieben habe.
Diese Systeme haben 90% der Zeit nichts zu tun und warten auf den Nutzer. In der Zeit ist nur das OS mit seinen Diensten im RAM. Gelegentlich werden Nutzdaten abgerufen und gelegentlich (eher seltener) werden Nutzdaten empfangen, verarbeitet und gespeichert
In diesem Kontext (ggf. nochmal den Eingangspost lesen, da ist von NAS die Sprache) hier ist die Sache aber anders. Hier werden nahezu ausschließlich Nutzerdaten gehandelt. D.h. dass 99% der RAM Fehler statisch auf Nutzerdaten und nicht auf Programmdaten wirken. Dieser Anteil wird im Wesentlichen dadurch bestimmt, wie die Nutzdaten auf dem System gehandelt werden.
Wie werden denn die daten da "gehandelt"? Ich weiß nicht, was du dir da vorstellst.
Liegen die Dateien wie bei einem Windowsfileserver einfach so auf der Platte, ist das ein ganz anderes Problem als bei modernen Dateisystemen, wo man mit den Daten, auch wenn sie nur so rumliegen und vom Nutzer gerade nicht benötigt werden, ganz anders gearbeitet wird. Die werden quasi ständig bearbeitet. D.h. auch wenn die Daten "cold" sind, sind im Sinne des Systems aber hot. D.h. der RAM ist hier "ständig" mit den Nutzdaten beschäftigt.
Ich habe ehrlich gesagt keine Vorstellung davon, was du hier meinst. Welches OS und welche Anwendungen meinst du, die mit den Nutzdaten ständig autonom "arbeiten" und die Nutzdaten dann anscheinend nach der Bearbeitung in veränderter Form schreiben?
Daher ist die Aussage, dass fast ausschließlich Programmdaten und nahezu keine Nutzerdaten betroffen sind, schlicht falsch. Das solltest auch du erkennen.
Ich erkenne es beim besten Willen nicht. Aber ich lasse mich gerne überzeugen. Vielleicht entgeht mir ja etwas.
Und rationaler und unvoreingenommener Ratschläge wäre, wenn man bei den Fakten bleibt. Und der Fakt ist, dass ECC besser ist. D.h. man sollte zu ECC Systemen raten.
Das sind keine Fakten, weil sie auf deiner persönlichen Risikoeinschätzung beruhen. Wenn die technischen Vorteile von ECC keine praktischen Vorteile für den Nutzer bringen, aber Kosten erhöhen, oder andere Einschränkungen bewirken, ist ECC gerade nicht "besser" und man muss nicht zu ECC raten. Aber du bist voreingenommen. Für dich ist ECC immer gesetzt. Egal ob es etwas bringt und egal, ob man nur zwei komische Boards günstig bekommen kann.
Ich habe Beispiele für günstige, wenn nicht sogar sehr günstige, Systeme genannt. Ich weiß nicht, warum man z.B. bei dem MiniITX EPYC Gigabyte MB der Meinung sein sollte, dass man das wegen ECC nicht einfach nimmt. Es mag andere Entscheidungsgründe dagegen geben, z.B. PCIe Slot, dann gäbe es ggf. noch das AM4 MB. In jedem Fall aber sind das sehr günstige Möglichkeiten für ECC. Da sind N100 MBs teuer und die können dann natürlich kein ECC. Man kann also festhalten, dass in diesem speziellen Fall ein ECC-System sogar günstiger als nen nonECC System ist. Daher ist die pauschale Aussage, dass ECC die Kosten erhöht sogar komplett falsch.
Die Kosten sind nur ein Punkt, der gegen ECC spricht. Und zu den Kosten gehört auch der Stromverbrauch, den du irgendwie ausklammerst.
Es gibt, gerade im Moment, sehr günstige Alternativen für ECC.
Wie schon gesagt, gilt das "sehr günstig" nur, wenn man den Stromverbrauch ignoriert. Ich habe auch AM4-Systeme mit ECC da, aber die können beim Stromverbrauch leider nicht mit dem D3417 mithalten.
Das ist falsch. Ich planen, unter anderem, bei uns die VM, Server und Storageinfrastruktur. In allen Systemen ist das Problem "Verfügbarkeit" freilich immer eine wichtiger Punkt. Der Punkt der Datenintegrität der tatsächlichen Nutzdaten ist aber genauso wichtig, wenn nicht sogar wichtiger.
99% der Systeme sind redundant, sogar mehrfach redundante. Es wäre also sogar verkraftbar, wenn ein System mal abstützt. Die Applikation würde dennoch kurz husten, geht aber weiter. Besser wäre schon ohne.
Das sieht bei der Datenintegrität aber anders aus. Die Daten müssen schon passen, weil die Folgekosten von Abweichungen schon schlecht wären. Freilich nicht wie im Bankensektor, die einen ganz anderen Aufwand treiben müssen.
Beim Storage wird dieses Problem potenziert. Man will bei etlichen PBs kein Risiko eingehen.
Das Argument halte ich für einen Zirkelschluss. Du stützt deine Meinung auf Tatsachen, die du mitgestaltet hast, ergo auf deiner Meinung beruhen.
Die pauschale Aussage, dass man ECC in Unternehmen hauptsächlich wegen Verfügbarkeit macht ist also auch falsch. Gerade große Unternehmen, die viel mit wichtigen Daten (als nicht nur irgendwelche Exchangeserver) zu tun haben, legen da einen ganz anderen Fokus.
Mit geht es darum, dass Unternehmen schon wegen der Anforderungen an die Verfügbarkeit nicht auf ECC verzichten können. Deshalb ist es m.E. schwierig aus der Tatsache, dass Unternehmen Systeme mit ECC nutzen auf Privatnutzer zu schließen.