Bei DDR4 ist die Fehlerrate gesunken, weil kleinere Fertigungsverfahren die Schaltungen auch Strahlungsresistenter machen
Möglich, aber vor allem wurde bei DDR4 schon eine Absicherung (ich meine per CRC) gege´n Übertragungsfehler eingebaut, es ist also wenigstens eine Fehlerquelle weniger vorhanden, aber bei defekten Zellen (hard errors) oder spontan gekippten Bits (soft errors) hilft das halt auch nicht.
Nur schalten es einige Hersteller auf Consumer- Boards nicht frei.
Weil die wenigstens Heimanwender dies als sinnvoll erachten und die Hersteller sich so Arbeit und Kosten ersparen.
kann man auch einfach so interpretieren, daß der ECC-Speicher zwar funktioniert, aber nicht im ECC-Mode. Also ich wäre da skeptisch.
Das bin ich auch, wenn es sonst keine Bestätigung gibt, würde ich den Satz alleine nicht als Beleg für das Funktionieren von ECC RAM nehmen. Es ist nun einmal so, dass normale RAMs eben unbuffered sind und die unbuffered ECC RAM Riegel daher überall funktionieren wo auch normale RAM Riegel funktionieren, dies braucht man eigentlich nie extra zu erwähnen. Früher hat das auch keiner, wenn nicht auch die ECC Funktionalität gegen war, leider sieht das inzwischen anderes aus.
Arock X370 Prof wird auch mir ECC angegeben.
Die Angabe alleine ist kein hinreichender Beweis, s.o.!
Mit mein 2600k oder 3930k hatte ich das öfter mal.
Die waren ja auch noch übertaktet, damit steigt das Risiko noch einmal weiter an.
Aber ist das dann nicht auf der Platte hin geworden?
Das passiert praktisch nie, da HDDs eben eine ECC hinter jedem physikalischen Sektor haben (SSDs einen hinter jede Page) und damit statt korrupter Daten dann einen Lesefehler ausgeben, wenn ein Sektor nicht mehr soweit korrekt gelesen werden kann, dass die ECC die Bitfehler noch korrigieren kann. Wenn das Programm welches die Datei liest (kopiert) diesen ignoriert und so tut als wäre alles perfekt gelesen worden, dann hat man danach eine korrupte Datei, dann hat man aber auch eine Schrott-SW genommen. Dann gibt es noch ein Risiko auf den internen Datenpfaden, zumindest bei Enterprise Laufwerken sind diese geschützt, aber bei Consumerplatten nicht immer. Einige, vor allem viele von Seagate haben aber wenigstens eine Erkennung solche Fehler, die man Ende-zu-Ende Fehler Attribut in den S.M.A.R.T. Werten sehen kann, aber solche Fehler sieht man sehr, sehr selten in den S.M.A.R. Werten. Dann ist es meist das interne Cache RAM, aber ist klein und die Controller nutzen nur einen sehr kleine Teil davon wirklich als Cache für Daten.
Die SATA Übertragung ist auch mit einer CRC32 pro FIS (ein Datenpaket kann bis zu 8192 Byte Butzdaten enthalten) und der entgeht weniger als alle 10^40 mal ein Fehler, also praktisch nie. Die nächste Fehlerquelle wären die internen Puffer der Host Controller, professionelle SAS HBAs / RAID Controller haben da immer ECC RAM, wie es bei den Puffern der Consumer Chips / Chipsätze aussieht, kann ich nicht sagen, Intel bessere Netzwerkkontroller haben ECC RAM in die Puffern und inzwischen haben sogar die einfachen Modelle dieses, aber die Puffer sind auch sehr klein. Das RAM ist und bleibt die Hauptfehlerquelle für korrupte Dateien, denn alles geht übers RAM und wird dort gepuffert, Windows schreibt beim Kopieren von einer schnellen Quelle auf eine langsamere Zielplatte sogar das ganze sonst nicht belegte RAM voll, weshalb dann die Kopiergeschwindigkeit auch erst hoch ist, denn die wird auf Basis des gelesenen Datenvolumens ermittelt, dann abfällt und am Ende will der Vorgang nicht enden, obwohl scheinbar schon alles kopiert wurde, aber dann wurde eben nur schon alles gelesen und der Puffer wird noch geschrieben. Wer seine USB Platte dann schon abzieht, dem ist Datenverlust sicher.
Selbst wenn ECC nicht aktivierbar wäre, würde ich den ECC Speicher bevorzugen, die SPD Chips sind einfach Umfangreicher programmiert (mehr Takt und Timing Stufen).
Da wäre ich mir nicht so sicher, die Riegel sind ja in aller Regel nicht für OC ausgelegt und dürften nur die offiziell unterstützten Taktraten im SPD einprogrammiert haben. Die zusätzlichen Bits sind wertlos und hängen nur in der Luft, ob die verwendeten Chips aber wirklich besser sind, würde ich auch mal bezweifeln, mir ist auch schon ECC RAM kaputt gegangen.
ECC- RAM bedeutet nur, dass ein weiterer Chip auf dem Riegel ist, der einfach ein Paritätsbit speichert.
Ja, aber ein Paritätsbit war es damals bei 8 Bit breitem Speicher, bei heutigen 64 Bit breiten Riegeln sind es 8 zusätzliche Bits und damit kann man eben mehr als nur Singlebitfehler erkennen, was eben mit einem Paritätsbit nur möglich ist. Damit kann man Singlebitfehler sogar korrigieren. Das lustige an den Algorithmen die man dafür nimmt ist ja, dass man bei doppelt so viel ECC Bits auch über doppelt so viele Datenbits mehr Fehler erkennen bzw. sogar korrigieren kann. Die HDD Hersteller haben sich das bei den physikalischen 4k Sektoren zunutze gemacht, da hat ein 4k Sektor nur noch etwa doppelt so viel ECC Bytes wie vorher ein 512 Byte großer Sektor, insgesamt ist also nur noch etwa ein Viertel so viel ECC für die gleiche Datenmenge vorhanden, man kann aber dennoch damit mehr Fehler erkennen und korrigieren.
Man kann ihn also genauso übertakten, das Problem ist nur, dass er ja die Fehler korrigiert, sodass Du schon schauen müsstest, ab wann er sehr viele korrigieren muss, um festzustellen, ob Du an der Grenze bist. Ansonsten machst Du ihn durch das Übertakten nur lahmer
Ob es wirklich Zeit kostet die Fehler zu korrigieren? Jedenfalls sollte man es schon deswegen nicht übertreiben, weil jede ECC auch ihre Grenzen hat und die einfachsten Algorithmen können nur Singlebit Fehler korrigieren, wenn man zu viele davon hat, steigt das Risiko auch unkorrigierbare Multibit Fehler zu bekommen und dann ist es eine Frage des OS was passiert, bei kritischen Server wird dann meist eine Kernel Panik konfiguriert, damit er lieber stehen bleibt als korrupten Daten auszugeben.
Ich habe die Antwort von ASRock bekommen:
Das AM4 Design von ASRock bietet seitens Hardwarelayout und BIOS vollen ECC Support.
Das klingt doch sehr gut, hoffentlich ist es auch wahr. Von den Supportmitarbeitern bekommt man ja leider nicht immer die korrekten Antworten.
Insofern müsste ECC selbst für Übertaktung positiv sein, da es dann nicht so schlimm ist, wenn man minimal instabile Taktraten fährt.
Instabile Taktraten dürfte auch die ECC irgendwann nicht mehr auffangen können, aber je höher man taktet, umso größer wird eben auch das Risiko von RAM Fehlern und in diesem Sinne ist ECC RAM bei hoch getakteten RAMs besonders sinnvoll, auch wenn ECC ja eigentlich ein Fature für den stabilen Betrieb ist und Übertaktung der Stabilität nun genau entgegen steht.
wozu ECC? - Die PCs laufen ja auch ohne gut.
Meistens ja, mehr wird von Consumer HW eben auch nicht verlangt, außer eben billig zu sein. Wäre es so das die laufend Probleme wegen RAM Fehlern hätten, dann wäre ECC RAM schon längst Standard, weil sonst keiner mehr die Kisten kaufen würde, aber solange die Probleme nicht so groß sind das diese zu viele Kunden abschrecken, spart man das Geld lieber, denn die Kosten sind eben noch wichtiger.
Im Prinzip ist auch bei vielen Profi- Grafikkarten die ECC der Ausschlaggebendste Vorteil gegenüber den Consumer- Modellen.
Da werden die Grakas ja auch sehr viel öfter für Berechnungen verwendet und damit haben RAM Fehler dann auch falsche Ergebnisse zur Folge, was eben gar nicht akzeptabel ist. Wenn die Grafik des Games nicht ganz stimmt, merkt der Heimanwender das kaum und wenn doch, wird es halt auf die blöden Spieleentwickler geschoben die doch endlich mal ausgereifte Spiele bringen sollen.
AMD Ryzen zielt ihre CPUs derzeit auf Heimanwender und preisorientierte PC Anwender. ECC ist in beiden Fällen VÖLLIG fehl am Platz. Unnütz wie ein Kropf.
RYZEN scheint vor allem auf Gamer zu zielen, da gebe ich Dir recht, aber unnütz ist ECC RAM niemals und fehl am Platz nur dem Sinne, dass es eben höhere Kosten verursacht die gerade Games nicht bereit sind für etwas zu bezahlen was ihnen keine fps bringt. Ich kann auch jeden verstehen der meint es wäre ihm den Aufpreis, der vor alle für die Plattform anfällt und die Einschränkungen bei der Auswahl von Mainboards und CPUs (bei Intel muss man Xeons statt i5/i7 nehmen) nicht wert, aber es als unnütz zu bezeichnen ist totaler Blödsinn und zeugt entweder von mangelndem Wissen oder purem Desinteresse an einem stabilen Betrieb und der Integrität der Daten.
ECC kann Datenverlust verhindern, falls ganz zufälligerweise eine kosmische Strahlung direkt durch eines der RAM Module fliegt und dabei zufälligerweise Bits von 1 auf 0 oder 0 auf 1 kippt. Und dann muss es auch einen bit betreffen, der überhaupt relevant war.
Diesen Zufall muss man erst mal haben.
Das ist korrekt und sicher kommen diese soft-errors bei den meisten Anwendern auch nicht so oft vor, keine Frage. Die andere Sache aber hard-errors, wenn also die RAM Riegel Fehler haben und bei bestimmten Bitkombinationen dann ein anderes Bit kippt. Da auch auch Chips altern, man sieht es gerade mal wieder an Intels Atom C2000, können diese Fehler auch erst später auftreten. Also selbst wer sein RAM beim Einbau mit Memtest86 geprüft hat, was schon die wenigsten machen, der kann dann noch nach Jahren plötzlich Fehler bekommen, wenn er den Test mal wiederholt, auch wenn es am Anfang keine gab.
Bis man aber merkt das die Chips nun plötzlich Fehler produzieren, hat man schon eine Menge korrupter Dateien und vielleicht auch Abstürze, denn die meisten denken bei RAM Fehler ja nicht an korrupte Dateien sondern nur an Bluescreens, auch wenn die eher die Ausnahme sind, da Windows ja nur einen Bruchteil des heute üblicherweise verbauten RAMs mit wirklich wichtigem Programmcode und Daten belegt. Das RAM wird dagegen als Diskcache benutzt, wenn es sonst nicht belegt ist und wie gesagt beim Kopieren von einer schnellen Quelle auf ein langsameres Ziel auch schon mal komplett mit den Daten belegt.
Stülpe dir doch einfach Alufolie übers Dach. Aber nur so viel, das du den Mehrpreis von Intel nicht erreichst
Selbst wenn das gegen soft-errors helfen würde, was es nicht tut weil es ja z.B. keine natürliche Radioaktivität abhalten kann und die kommt auch vom Boden, man müsste also eine Bleiplatte unter das Fundament machen, so wäre es kein Schutz vor hard-errors. Das es die gibt, sieht man in den Formen immer wieder, wenn die Leute dann mal Memtest86 laufen lassen. Meist tun sie das erst, wenn die Kiste ständig Ärger macht, ich manche es nach dem Zusammenbau noch vor der Installation des OS!
Wenn dann in 24h kein Memtest- Fehler auftritt, und nur alle 10 Tage einer auftritt
Tools wie Memtest86 können eigentlich nur hard-errors finden, da sie Daten ins RAM schreiben und sehr bald darauf wieder auslesen, womit das Zeitfenster für ein spontanes Kippen eines Bits aufgrund von Strahlung aller Art (soft-error) eben extrem gering ist. Deswegen ist es trotzdem sehr sinnvoll sein RAM damit zu testen, gerade wenn es kein ECC RAM ist oder man eben die Zahl aufgetretener RAM Fehler nicht im BIOS/IPMI/OS auslesen kann.
Wer am Sinn von ECC RAM zweifelt, der hat das Thema nicht verstanden. Was man in Einzelfall abwägen kann und sollte ist, ob man für die Vorteile dann auch die Nachteile bzgl. der Kosten und Einschränkungen bei der HW Auswahl in Kauf nehmen möchte. Hier kann man durchaus zu unterschiedlichen Ergebnissen kommen.