Da verkaufen die für viel Geld so ne DS918+ ohne ecc. Und werben damit für Firmen, und mit Datensicherheit. Ist ja dann alles Mist!
Das die Hardware bei den Fertig-NAS, gerade denen der beiden bekantesten Hersteller, überzogen teuer ist, sollte jedem klar sein. Hier bezahlt man für die schicken Gehäuse die man so für DIY nicht zu kaufen bekommt und vor allem für den Support und ggf. weniger Arbeit bei der Einrichtung, sollte man sich damit nicht so auskennen. Und für die vielen Sonderfunktionen und Apps. Sowas ist eben auch allenfalls was für kleine Firmen die eben keine eigenen Fachleute haben und denen ein richtiger Server mit Support durch ein Systemhaus zu teuer ist. Es ist eben auch immer eine Frage des (finanziellen) Aufwandes den man betreiben kann oder will und wie schwere die Schäden sein könnten, wenn es schief geht, wobei letzteres oft schwer abzuschätzen ist.
Ich würde mir da nicht so ein kopf drum machen. Auf meinen ECC Windows Server hatte ich keine Probleme mit korrupten Dateien und mit der Disksation sind auch noch alle Photos und Video File i.o und das über Jahre.
Nur bei Windows Systemen ohne ECC hatte ich bis jetzt das mal einige photos korrupt warn und bei Videos zu 99% .mkv Datein.
Wenn man die CPU übertaktet betreibt, es steht ja "Geköpfte i7 8700k 1,2v 5,0 Ghz" in Deiner Signatur und womöglich auch das RAM übertaktet, der muss sich nicht wundern wenn er RAM Fehler hat. Von Microsoft gibt es eine Analyse zu Hardwarefehlern:
Man sieht also, dass wenig CPU Takt hilft damit es weniger RAM Fehler gibt, die Fertig-NAS haben eigentlich durchweg CPU mit geringen Taktraten und meist relativ wenig RAM verbaut, was schon zu einer Verringerung des Risikos gegenüber den meisten PCs führen dürfte, aber eben längst kein 100%iger Schutz vor RAM Fehlern ist, zumal auch Chips altern und RAM Fehler daher auch erst mit der Zeit auftreten können. Google hat dazu mal eine Analyse gemacht, die nutzen aber ECC RAM und was dort als correctable errors auftaucht, bleibt ohne ECC RAM natürlich unentdeckt und führt ggf. zu Problemen:
Also im Alter von 10 bis 18 Monaten traten oft erst zunehmend Fehler auf, daher ist es eben auch durchaus sinnvoll den RAM Test nicht nur am Anfang einmal zu machen, sondern auch mal zu wiederholen, spätestens wenn sich denn mal Probleme zeigen. Wobei der Zeitraum sich auf Dauerbetrieb bezieht, also auf 7300 bis 13140 Betriebsstunden. Wobei es bei PCs von Heimanwendern auch mal 3 bis 6 Jahre dauert bis so viele Betriebsstunden zu erreicht werden.
Ich vertrau da auf Synology, kannst ja mal Synology fragen wie das funzt.
Die werden sicher nichts versprechen was ihren ruf schaden würde.
Wenn Du das Zitat in Post #109 meinst, dann verspricht Synology dort doch keinen 100%igen Schutz vor Datenkorruption, sondern beschreibt nur die Funktion der Fehlerkorrektur von btfs.
Bei traditionellen Speichersystemen können Fehler auftreten, die komplett unbemerkt bleiben
Ist wie gesagt kein Alltag, sondern die seltene Situation von FW Fehlern oder Fehlern auf den internen Datenpfaden. Wenn es um Bitfehler auf dem Sektor geht und die nicht mehr korrigierbar sind, sich also bei einzelnen Laufwerken als schwebende Sektoren äußern, so bleiben diese eben nicht unbemerkt, da die Platten dann eben keine korrupten Daten sondern einen Lesefehler ausgeben. Leider scheint dies vielen Usern nicht bekannt zu sein.
Wenn eine Abweichung (schleichende Datenkorruption) erkannt wurde, kann das Btrfs-Dateisystem mithilfe der Metadatenspiegelung beschädigte Dateien (schleichende Datenkorruption) automatisch erkennen und fehlerhafte Daten mittels der unterstützten RAID-Volumes, einschließlich RAID 1, RAID 5, RAID 6, RAID 10, F1 und SHR, wiederherstellen.
Dies kann jedes normale RAID mit Redundanz auch, da es bei einem Lesefehler eben auch anhand der Redundanz die Daten rekonstruiert (und den Sektor überschreibt, welches solche HDDs praktisch nie schwebende Sektoren haben), dafür geht es schneller weil die eben nicht immer auch die Redundanz lesen und prüfen müssen.
Ich weiß mit DSM 6.0 konnte man Bitfehler erkennen und nicht korrigieren, glaube seit DSM 6.1 wirbt Synology damit auch Bitfehler korrigieren zu können.
Erkennen ist ja sinnvoll, aber korrigieren ist ohne ECC RAM sehr gefährlich, da man eben dabei Datenkorruption auch erst erzeugen kann. Wenn die Daten nämlich korrekt gelesen aber im RAM korrumpiert wurden, dann kann das FS nur davon ausgehen das diese falsch auf der Platte stehen und korrumpiert diese dann auf den Platten, während es versucht den vermeidlichen Fehler zu korrigieren. Dies passiert bei einem normalen RAID nicht, da gehen die Daten dann zwar unbemerkt verfälscht weiter, bleiben auf den Platten aber intakt.
was selber zusammen schustern, dann brauchst du aber ganz sicher gute Linux skills, auser du magst dich Wochenlang wo reinlesen.
Es gibt auch fertige Distributionen mit denen man ein Selbstbau-NAS so schnell einrichten kann wie ein Fertig NAS, wie z.B. OMV oder FreeNAS.
Ohne ECC kann es passieren, das ein file defekt auf der HDD ankommt. Wie will das ein filesystem korrigieren? Es kennt die Datei nur so defekt.
So ist es, daher ist auch eine Fehlererkennung ein Stück weit Augenwischerei, denn es wiegt einen in eine trügerische Sicherheit, kann aber nur die Fehler beim Lesen erkennen, nicht aber wenn die Daten schon vorher beim Schreiben korrumpiert wurden.
Das sagt ja auch keiner, aber wie hoch ist die Chance das ein File Defekt kopiert wird ?
Das kann keiner zu 100% beantworten, aber Gegenfrage: Welche Wahrscheinlichkeit wäre für Dich noch tolerierbar? Ich wette Du kannst diese Frage genausowenig beantworten und klar ist auch, dass die Wahrscheinlichkeit so gering ist, dass die meisten User damit leben können, denn wann laufend viele Dateien kaputtgehen, würde ja kein Mensch mehr solche Hardware kaufen. Für andere ist aber auch das Risiko noch zu hoch, die geben dann eben mehr Geld aus oder machen sich mehr Arbeit (mit dem Selbstbau) um das Risiko nochmal deutlich zu mindern.
Bei mir war es bis jetzt immer so das manche Files die ewig auf meinen Festplatten lagen auf einmal Fehler hatten ohne das ich sie je kopiert hätte.
Kannst Du sicher sein das die vorher fehlerfrei waren oder es nicht nur ein Lesefehler war? Und hast Du geschaut ob die Platte, wenn es eine Einzelplatte ist, einen schwebenden Sektor hat? Leider reagieren nicht alle Programme auf die von der gemeldeten Lesefehler der Platte so, dass der User davon erfährt. Gerade Mediaplayer ignorieren diese meistens, dann stockt es halt kurz, aber man kann wenigstens den Rest sehen oder hören.
bei den Ram Preisen bin ich schon von ECC aus gegangen.
Sehr optimistisch, denn das die Hardware bei OEMs und gerade bei den NAS Herstellern oft unverschämt überteuert, sollte doch bekannt sein.
Der Supergau für Daten sind ja die selbstgebauten "NAS" mit Consumer MB, Hauptsache 6 Sata Ports. Dann ein Softwareraid, und alles mit billigem Ram. Schlimmste was man machen kann! Da hilft dann auch kein ZFS!
Da denke oder hoffe ich, ist die DS schon besser.
Schau Dir das Zitat zu den RAM Fehlern von Microsoft an. aber ein Softwarer-RAID ist kein Problem, die Linux md SW RAIDs sind auch sehr performant und bieten auch die Funktionen um mit Lesefehlern von der Platte korrekt umzugehen, dazu auch Funktionen wie die Erweiterung des RAIDs um weitere Platten die dann auch den gleichen Schutz bieten, was zumindest ZFS nicht kann (da werden die nur wie ein JBOOD angehängt ohne den gleichen Schutz wie die anderen zu genießen).