[FAQ] RAID ersetzt kein Backup! und Warum eigentlich ECC RAM?

Safe haben wir jetzt nicht, aber so eine "Dokumentenbox", die nach irgendeiner dafür gemachten DIN (?) Klasse wasserdicht und feuerfest ist. Da kommen die Stufe2 Backupplatten. Das sind die Backups von den Stufe1 Backupplatten :)

Die Technik selbst ist (oder sollte ;)) für einen Hwluxxer schon sehr interessant (sein), aber Datensicherheit ist leider kein ZFS mit ECC. Datensicherheit ist ein Prozess.
Wer beruflich öftersmal in Sitzungen (Meetings :sick:) gezerrt wird rollt vielleicht bei dem Wort zurecht ;) mit den Augen, aber hierzu passt das wirklich. Auch bzw. eher GERADE im häuslichen Umfeld.

Hab ich Images von den Bootpartition/Bootplatten?
Hab ich meinen Benutzern anerzogen ihre Nutzdaten in einer für mich sinnigen und für sie verständlichen/nachvollziehbaren Ordnerstruktur zu lagern?
Hab ich Lösungen für sie (und natürlich auch für mich), damit sie spätestens alle 2 Wochen ihre Nutzdaten einfach selbst auf einer externen Platte spiegeln können?
Hab ich Backups von diesen externen Platten?
Wie ist die Vertrauenssache geregelt, also hat jemand Daten die wichtig sind, es ihm aber sehr wichtig ist, daß keiner sie durchsehen kann? (Mitnutzer samt mich als Familienadmin, Einbruch usw.) Hab ich dazu Lösungen durch welche die Leute auch diese Sachen backupen?

Eingeweihte erkennen jetzt das eigentliche Problem. Um SICHER zu stellen, daß auf all den Nutzungs- und Backupwegen keine Bits kippen, müßte eigentlich die GESAMTE Infrastruktur auf ECC/zfs,btrfs u.ä laufen. Das ist zu allermeist nichtmal im beruflichen Umfeld zu bewerkstelligen.

So gut wie niemand hat also eine echte Datensicherheit. Im häuslichen Umfeld denke ich quasi gar keiner. Mit all den Schritten versucht man nur die Wahrscheinlichkeiten für worst-cases einzuschränken.
Wenn man also die allerersten 2 Schritte schon kaum wirklich sicher gestalten kann, macht es nur sehr bedingt Sinn die folgenden Schritte massiv sicherer zu gestalten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die wenigsten haben ein Backup an einer zweiten Location, was bei Hausbrand, Diebstahl und anderen physischen Katastrophen helfen würde. Ist einfach schwierig zu realisieren, schon weil die zweite Location vor allem vertrauenswürdig sein muss und das Ganze dann auch noch praktisch vernünftig handhabbar.

Sonstige wichtige Daten liegen eben so schnell wie möglich auf den richtigen Speichern, das lässt sich z.B. mit Netzwerkfreigaben erreichen, auf die z.B. auch die Standardordner („Eigene Datein“) umgeleitet werden. Meine Meinung: „Technische Lösung“ schlägt immer „Disziplin der Nutzer“. ;) Allerings ist das auch nicht immer mit vertretbarem Aufwand umsetzbar. :)
 
@BessereHälfte

sprichst Du jetzt von Privater oder Geschäftlicher Nutzung?

... aber Datensicherheit ist leider kein ZFS mit ECC. Datensicherheit ist ein Prozess...
Das stimmt so nicht! - Datensicherheit erlangt man durchaus durch die technische Möglichkeit - Stell Dir vor, es kippt ein Bit und die Datei wird defekt gespeichert und damit dann auch defekt ins Backup übernommen.
Ansonsten sollte das Thema Datensicherheit neben der technischen Lösung auch gelebt werden. Es bringt ja nichts, wenn die Kontoauszüge einfach so in die Papiertonne kommen...

Hab ich Images von den Bootpartition/Bootplatten?
Wovon? Wozu? i.d.R. ist ja das System/Hardware defekt (Brand, Wasserschaden...) da wäre bei neuer Hardware ggf. die Kompatibilität nicht mehr gegeben!
Eine Neuinstallation ist da meist Zielführender. Steht meist auch so in den Business Continuity Plänen so drin ;)

Hab ich meinen Benutzern anerzogen ihre Nutzdaten in einer für mich sinnigen und für sie verständlichen/nachvollziehbaren Ordnerstruktur zu lagern?
Ähm, was? - Jeder Nutzer hat seine Sichtweise / Verständnis von etwas. Du wirst vlt. @home noch jedem das aufzwingen können, was Dir sinnig erscheint, aber in der Firma?
Ich hab die Tage erst ne Diskussion über die Vergabe von IP-Adressen und der Netzaufteilung für ein neues Projekt mit nem externen gehabt, weil es für ihn nicht sinnig war.
Für uns dagegen schon, vorallem passt es so in UNSERE Umgebung, nicht in SEINE... muss man abtrennen. - ist beim Speichern genauso.

Hab ich Lösungen für sie (und natürlich auch für mich), damit sie spätestens alle 2 Wochen ihre Nutzdaten einfach selbst auf einer externen Platte spiegeln können?
Hab ich Backups von diesen externen Platten?
2 Wochen können viel zu lang sein. - Privat mags gehn, Geschäftlich? - hier sollte definitiv eine passende (technische) Lösung gefunden werden
Und Thema Datensicherheit - Backup auch verschlüsselt?

Wie ist die Vertrauenssache geregelt, also hat jemand Daten die wichtig sind, es ihm aber sehr wichtig ist, daß keiner sie durchsehen kann? (Mitnutzer samt mich als Familienadmin, Einbruch usw.) Hab ich dazu Lösungen durch welche die Leute auch diese Sachen backupen?
Verschlüsselung - Du musst den Schlüssel doch garnicht unbedingt kennen. - Je nach Art der Daten, gehen Dich diese doch garnichts an...?

Eingeweihte erkennen jetzt das eigentliche Problem. Um SICHER zu stellen, daß auf all den Nutzungs- und Backupwegen keine Bits kippen, müßte eigentlich die GESAMTE Infrastruktur auf ECC/zfs,btrfs u.ä laufen. Das ist zu allermeist nichtmal im beruflichen Umfeld zu bewerkstelligen.
Es muss ja nicht immer ZFS sein, Storagesysteme ala NetApp/HP3PAR/etc... bieten ihre eigene Lösung für Datensicherheit/Intigrität.
Und doch, gerade im Geschäftlichen Umfeld kann man hier sehr wohl alles dafür tun.

So gut wie niemand hat also eine echte Datensicherheit. Im häuslichen Umfeld denke ich quasi gar keiner. Mit all den Schritten versucht man nur die Wahrscheinlichkeiten für worst-cases einzuschränken.
Wenn man also die allerersten 2 Schritte schon kaum wirklich sicher gestalten kann, macht es nur sehr bedingt Sinn die folgenden Schritte massiv sicherer zu gestalten.

Was genau meinst Du mit allerersten 2 Schritte ?
Es ist doch egal, wie die Leute ihre Daten speichern und ob ich ein Image der Bootpartition hab. Wichtig ist, das die relevanten Daten in einem von jedem System lesbaren Format vorliegen, diese aber vor unbefugtem Zugriff geschützt sind.
Ob das nun ein verschlüsseltes Tape-Backup oder ne verschlüsselte Externe ist, oder gar ein Cloudbackup, von dem aus ich nur mit dem entsprechenden Schlüssel auf die Dateien zugreifen kann, ist wiederum egal.

Kein Backup - Kein Mitleid!
 
@Konfetti
Du wolltest mir jetzt wirklich was vom Kippen der Bits erzählen? ;) Ja doch, das ist so. Durch "technische Möglichkeiten" erlangt man Garnichts :hmm: Erst durch ihre Umsetzung. Korrekte Umsetzung.

Meinte es natürlich privat. Meiner Erfahrung nach stellen sich diese Fragen geschäftlich eher (sehr) selten. Da, wo man überlegt den Aufwand zu treiben, ist das eben einer, wo man sich die Lösungen nicht selbst bastelt. Man kauft quasi Fertiges nach Vorstellung und Beratung ein. Nicht zuletzt, weil die eigene Mannschaft die notwendige Kompetenz abstreitet :d, um ggf. nicht ausschließlich den eigenen Hals in der Schlinge zu sehen ;) Also läuft es auf Dell, HPE & Co. hinaus.

Daher nahm ich auch an so ist der Thread gemeint -> Gehobene Privatstandards. Oder haben wir hier auch Systemarchitekten? (welche die es beruflich machen...)

Verschlüsselung? Guter Einwurf. Man benutzt das Wort in manchen Fällen wohl zu salopp. Wenn man Datensicherheit meint, meint man oft eher die Sicherheit der Integrität, als security selbst. Sorry. Wollte dich nicht verwirren.

Datensicherheit ist eben ein Prozess. Kann man erst mit Technik erschlagen, nachdem man brauchbare Konzepte hat. Dazu gehören nicht nur die Kosten, sondern eben auch der Aufwand. Ich kann meiner Uschi erzählen wie sie ihr Zeug gleich in VeraCrypt-Containern vom Produktivsystem spiegelt. Das würde sie wohl sogar verstehen. Sie würde es halt nur nicht machen. Oder es stark schleifen lassen. Davon hab ich nichts, als Systemarchitekt ;)

Das wäre eine korrekte Umsetzung, aber eine schlechte Lösung. "besterino" hat das schon verstanden.

p.s.:
Verschlüsselung beim Backup ab der ersten Stufe, um das noch kurz aufzugreifen, hebt das Thema Datenintegrität übrigens nochmals um mind. einen Level an, denn da wirken sich Bitfehler in der Backupkette direkt verheerend aus.
 
Zuletzt bearbeitet:
Danke für die Ausführung.

Naja, aber grad @home läuft beim logon/shutdown ein robocopy der die Files einfach aufs Netzlaufwerk legt, wenn der Nutzer das nicht eh schon macht.
Da braucht man die auch nicht erziehen ;) - das geht noch bei Kindern, aber die Diskussion mit meiner Frau zur Struktur am Fileserver war... anstrengend.

Über die Diskussion mit meiner Mum brauch ich garnicht berichten, dafür reicht der Thread nicht aus ^^ - und die kann sich durchaus auch selber helfen...

letzlich ist es aus meiner Sicht wichtig (und so verkaufen es ja auch die Hersteller ala Synology und Co.) das es für den Endanwender möglichst einfach sein muss, eine Sicherungskopie seiner Daten zu haben.
Was wir IT-Affinen Menschen damit machen, ist denen im ersten moment egal. Genauso ist es doch in der Firma.
Der Anwender braucht seine Daten - auch dann, wenn er die versehentlich löscht (kommt ja durchaus mal vor)
Das Konzept dahinter, wie ihm die Daten zur Verfügung stehen und schnell/einfach/komplett wiederbeschafft werden können ist ja dann unsere Sache ;)

Ich nehme den Anwender immer als mögliche Fehlerquelle war, und versuche das ganze entsprechend konzeptionell so auszulegen, das auch der DAU damit klar kommt, bzw. den Schaden minimiert.
 
Bei meinen Eltern zieh‘ ich im Bedarfsfall und in unregelmäßigen Abständen mit disk2vhd ein komplett-image, kopier das 1x auf meinen Server und 1x bei denen irgendwohin... alles andere ist viel zu mühsam, was weiß denn ich wo da was hingespeichert wird. :d

Falls sie dann irgendwas suchen/gelöscht/verfummelt haben, kann ich das dann eben aus der VHD rausholen. Oder sie sogar selbst. In der allergrößten Not kann ich die „alte Kiste“ unter Hyper-V hochfahren und sogar nachträglich noch Daten aus den jeweiligen Programmen extrahieren... praktisch wenn auch nicht ganz Platzeffizient... aber so viele Daten kommen bei meinen Eltern nicht zusammen.

Meine Meinung: IT-Prozesse an der Schnittstelle zum User funktioniert dann, wenn technisch nix anderes geht. :) Das setzt aber im privaten Umfeld a) sehr hohen Aufwand des Administrators und b) hohe freiwillige Leidensfähigkeit beim User (=Familie) voraus... also gibt es Kompromisse, die jeder für sich selbst finden muss.
 
Zuletzt bearbeitet:
Danke für die Ausführung.

Naja, aber grad @home läuft beim logon/shutdown ein robocopy der die Files einfach aufs Netzlaufwerk legt, wenn der Nutzer das nicht eh schon macht.
Da braucht man die auch nicht erziehen ;) - das geht noch bei Kindern, aber die Diskussion mit meiner Frau zur Struktur am Fileserver war... anstrengend.

Über die Diskussion mit meiner Mum brauch ich garnicht berichten, dafür reicht der Thread nicht aus ^^ - und die kann sich durchaus auch selber helfen...

Da muss ich gerade schmunzeln die Diskussion habe ich auch schon hinter mir... IT-Pädagogik!:haha:
 
Zuletzt bearbeitet:
Was ich noch nicht bei ECC RAM Nutzung im NAS verstanden habe:
Die Daten sind dann quasi korrekt gelesen, aber werden über das Netzwerk zu einem anderen Computer übertragen, dessen RAM vllt. kein ECC RAM ist. Wenn dort jetzt der Fehler auftritt und die Datei zurückgespeichert wird, wird doch der Fehler übernommen, oder übersehe ich da was?
 
Korrekt. ECC RAM schützt nur vor Fehlern auf der jeweiligen Maschine. Dagegen helfen dann nur Snaps & Backup.
 
Wenn dort jetzt der Fehler auftritt und die Datei zurückgespeichert wird, wird doch der Fehler übernommen, oder übersehe ich da was?
Richtig, deshalb sollte man durchgehend ECC RAM auf allen Rechnern haben und da dies beim Heimanwender selten der Fall ist, haben die Kinderspielzeug NAS auch keines. Ist billiger und geht ja auch meistens gut, wer mehr Sicherheit will, muss eben tiefer in die Tasche greifen.
 
Und genau das ist das Problem.

Die verbaute RAM-Menge in PCs nimmt immer weiter zu, 16-32GB sind mittlerweile schon fast Standard, bei manchen sogar noch mehr.
Und je mehr Speicher vorhanden ist, desto größer ist logischerweise auch die Wahrscheinlichkeit, dass irgendwo Fehler auftreten.
Klar, damals zu "niemals werden mehr als 640kB RAM benötigt werden"-Zeiten war das vielleicht kein Problem, aber heute sieht es doch leicht anders aus.

Trotzdem wird ECC immer noch ausschließlich als Professional-Equipment bezeichnet, und von Consumer-Plattformen entweder nicht unterstützt oder sogar aktiv verhindert, gelle Intel?
So zeimlich alle Schnittstellen (SATA, USB, LAN, ...) haben eingebaute Mechanismen zur Erkennung von Übertragungsfehlern, aber ausgerechnet die zentrale Datendrehscheibe RAM braucht keinerlei Schutz, schon irgendwie seltsam, nicht?

AMD hat zumindest schon mal einen ersten Schritt in die richtige Richtung getan, indem man bei Ryzen ECC-Riegel zumindest verbauen kann, obwohl sie nicht offiziell unterstützt werden.
Der nächste Schritt wäre dann die offizielle ECC-Unterstützung auf der Ryzen-Plattform bzw. deren Nachfolger.
Dann würde Intel nachziehen müssen, und wir hätten "ECC für Alle".
 
damals zu "niemals werden mehr als 640kB RAM benötigt werden"-Zeiten war das vielleicht kein Problem
Der originale IBM XT hatte immerhin schon ein Parity Bit um RAM Fehler zu erkennen, auch wenn er sie nicht korrigieren konnte. Die Nachbauten haben darauf verzichtet, weil der Preis eben das wichtigste ist und solange es meistens bei den meisten Leute funktioniert, sehen die Hersteller keine Notwendigkeit bei PCs mehr Geld für mehr Sicherheit auszugeben, dafür gibt es eben die entsprechende Workstation- und Serverhardware die dies bietet. Die Notwendigkeit gab es aber in der Vergangenheit schon, so wurden damals bei IDE mit den Ultra-DMA Übertragungen die CRC32 Prüfsumme pro FIS eingeführt, die auch SATA beibehalten hat und auch bei DDR4 RAM gibt es ja eine CRC um wenigstens Übertragungsfehler erkennen und die Übertragung ggf. wiederholen zu können. Deshalb können seit DDR4 Probleme beim RAM Timing zu Performanceprobleme wie Freezes und Laggs verursachen, gegen gekippte Bit in den RAM Zellen hilft dies aber natürlich ist, ersetzt also kein ECC RAM.

AMD hat zumindest schon mal einen ersten Schritt in die richtige Richtung getan, indem man bei Ryzen ECC-Riegel zumindest verbauen kann, obwohl sie nicht offiziell unterstützt werden.
Ja, mit Ausnahme der APUs, dort ist es wie es aussieht nur bei den Pro Versionen nicht deaktiviert, auch wenn es dazu widersprüchliche Angaben im Netz gibt.

Dann würde Intel nachziehen müssen, und wir hätten "ECC für Alle".
Schön wäre es, aber Intel hat dafür die Xeon-E, während AMD keine vergleichbaren Version der AM4 RYZEN CPUs mit offizieller ECC Unterstützung anbietet.
 
Und genau das ist das Problem.

Die verbaute RAM-Menge in PCs nimmt immer weiter zu, 16-32GB sind mittlerweile schon fast Standard, bei manchen sogar noch mehr.
Und je mehr Speicher vorhanden ist, desto größer ist logischerweise auch die Wahrscheinlichkeit, dass irgendwo Fehler auftreten.
Klar, damals zu "niemals werden mehr als 640kB RAM benötigt werden"-Zeiten war das vielleicht kein Problem, aber heute sieht es doch leicht anders aus.

Trotzdem wird ECC immer noch ausschließlich als Professional-Equipment bezeichnet, und von Consumer-Plattformen entweder nicht unterstützt oder sogar aktiv verhindert, gelle Intel?
So zeimlich alle Schnittstellen (SATA, USB, LAN, ...) haben eingebaute Mechanismen zur Erkennung von Übertragungsfehlern, aber ausgerechnet die zentrale Datendrehscheibe RAM braucht keinerlei Schutz, schon irgendwie seltsam, nicht?

AMD hat zumindest schon mal einen ersten Schritt in die richtige Richtung getan, indem man bei Ryzen ECC-Riegel zumindest verbauen kann, obwohl sie nicht offiziell unterstützt werden.
Der nächste Schritt wäre dann die offizielle ECC-Unterstützung auf der Ryzen-Plattform bzw. deren Nachfolger.
Dann würde Intel nachziehen müssen, und wir hätten "ECC für Alle".

Wie du schon schreibst, AMD deaktiviert das Feature nicht, unterstützt es aber auch nicht offiziell.
Sprich AMD sagt, ihr könnt es probieren und nutzen, gibt es aber Probleme damit, gibt es kein Support.
 
Aus der News kann man kaum ableiten, ob die normalen DDR5 UDIMM Riegel für PCs dann auch irgendeine ECC Funktion haben werden, zumal meines Wissens nach bisher nur DDR5 als RDIMM mit ECC gefertigt wird. Da gab es von SK Hynix die Aussagen, dass die Datenbreite von 72 auf 80 Bit steigt, was darauf hindeutet, dass eine stärkere ECC nötig sein dürfte. Mit immer kleineren Fertigungsstrukturen wird ECC aber wohl irgendwann auch für PCs nötig werden und dort dann vielleicht weniger stark wie bei Servern sein.
 
Dann erkläre mal den >3600-CL14-blablabla-Junkies, dass sie zugunsten Sicherheit auf Speed, Latenz & Co. verzichten müssen. ECC und auch RDIMMs sind ja langsamer als non-ECC UDIMMs selbst bei ansonsten gleichen Settings, das will ja in der Daddelbox bestimmt keiner von denen.
 
Grundsätzlich wäre es natürich schön wenn die breite Masse ECC Ram nutzen würde. Noch besser wäre es wenn die breite Masse ordentliche Backups erstellen oder redundante Datenträger verwenden würde. Statistisch gesehen sehe ich dahinter weit mehr Risiko.
 
Schön wäre es, aber Intel hat dafür die Xeon-E, während AMD keine vergleichbaren Version der AM4 RYZEN CPUs mit offizieller ECC Unterstützung anbietet.
Richtig, aber bei Intel braucht es für ECC auch noch einen C2xx Chipsatz, auf dem entsprechenden Consumer-Chipsatz ist ECC wohl deaktiviert.
Intel hatte doch vor ein paar Generationen den Support für Xeon-CPUs auf Consumer-Mainboards unterbunden (war da nicht irgendwas mit billigeren Xeons als gleichwertige Alternative...?).
Wenn alle CPUs und Chipsätze ECC unterstützen würden, würde das die Modellpflege erheblich vereinfachen.

Wie du schon schreibst, AMD deaktiviert das Feature nicht, unterstützt es aber auch nicht offiziell.
Sprich AMD sagt, ihr könnt es probieren und nutzen, gibt es aber Probleme damit, gibt es kein Support.
Deshalb sagte ich ja, es ist ein Schritt in die richtige Richtung, und es müssten noch weitere folgen.
Und das Mainboard muss bei Ryzen angeblich auch mitspielen beim ECC-Support.
Aber es ist doch schon mal ein Unterschied, dass ECC-RAM zumindest schon mal grundsätzlich akzeptiert wird (auch wenn ECC nicht genutzt werden sollte, offiziell gibt es ja keine definitive Aussage), anstatt dass es mutwillig deaktiviert ist um zum Kauf von "Server"-Komponenten zu zwingen.
Wenn AMD schlau ist, machen sie die ECC-Unterstützung in der nächsten Generationen offiziell (die Komponenten können es ja anscheinend alle, nur nachgeprüft haben sie es noch nicht offiziell), und könnten so Ryzen auch in Konkurrenz zu den 1151 Xeons (bzw. deren Nachfolgersockel) setzen.

Open Memory Interface: Differential DIMM
Sieht interessant aus, aber so wie ich das lese ist das in erster Linie was für hochpreisige IBM Server/Datacenter Systeme.
Wann und ob sowas seinen Weg in für Normalsterbliche erschwingliche Systeme findet, ist ja noch unklar.

Dann erkläre mal den >3600-CL14-blablabla-Junkies, dass sie zugunsten Sicherheit auf Speed, Latenz & Co. verzichten müssen. ECC und auch RDIMMs sind ja langsamer als non-ECC UDIMMs selbst bei ansonsten gleichen Settings, das will ja in der Daddelbox bestimmt keiner von denen.
Ich habe ja nicht gesagt, dass es nur noch ECC geben sollen muss, zumindest nicht sofort.
Wenn jemand seinen RAM unbedingt bis an die Kotzgrenze übertakten will um mit 0,1fps mehr zocken zu können und dafür auf Datenintegrität pfeift, dann kann er ja weiterhin Non-ECC verwenden.
Oder ECC von mir aus im BIOS deaktivieren, genau wie SMT, um sein Game vor zu vielen Kernen zu schützen.
Dass RDIMM höhere Latenz hat ist ist ja bekannt, aber ich denke dass man mit unregistered "Gamer-ECC-RAM" mit optimierten XMP-Profilen (und schicker LED-Beleuchtung) schon noch einiges rausholen könnte, momentan gibts das ja aus logischen Gründen gar nicht.
ECC ist bisher Server-Grade, und deshalb auf absolute Stabilität getrimmt, auch wenn es ein bisschen Performance kostet.
Denn dem Daddler ist es egal, wenn seine Kiste alle paar Wochen mal mit unerklärlichen Fehlern abstürzt, im professionellen Umfeld ist das indiskutabel.

Grundsätzlich wäre es natürich schön wenn die breite Masse ECC Ram nutzen würde. Noch besser wäre es wenn die breite Masse ordentliche Backups erstellen oder redundante Datenträger verwenden würde. Statistisch gesehen sehe ich dahinter weit mehr Risiko.
Klar, Backups sind wichtig.
Aber es ist auch wichtig, dass das Backup eine genaue Kopie des Originals ist, und auf einem Non-ECC-System ist das eben nicht sichergestellt.
 
Auf Seite 9:
Low cost JEDEC standard DDIMMs
•Standardized memory interface and memory modules
•JEDEC DDR5 DDIMM
Und wie man an 56 PAM 4 schön sehen kann, wäre die Technik für serielles DDR5 6400 schon vorhanden:
56Gbit/sec PAM 4.
Ob jetzt 112Gbit mit PAM4 oder PAM8 kommt, sei mal dahin gestellt.
Hauptsächlich ist die serielle Anbindung des RAMs nötig, um immer mehr CPU-Kerne/Threads mit Daten zu füttern, ohne bei der Leitungsanzahl unwirtschaftlich zu werden. IBM hat beim Power9 schon ~1200 Datenleitungen nur für die Anbindung des RAMs. Sockel 11xx von Intel hat entsprechend viele Anschlüsse für Strom und Daten insgesamt...

Vom 14.05.2019 mit Bestellnummern von Samsung und Micron für 128GByte DDR4 DDIMMs auf Seite 6.
Der SNIA-SFF-TA-1002 84-pin connector wird auch noch für viele andere Anwendungen benutzt.

Anstatt dem Open Memory Interface könnte sich auch PCIe durchsetzen. Dann hätte es mit NVMe nicht nur den blockbasierten Speicherzugriff mit SAS/SATA verdrängt.
 
Zuletzt bearbeitet:
Dann erkläre mal den >3600-CL14-blablabla-Junkies, dass sie zugunsten Sicherheit auf Speed, Latenz & Co. verzichten müssen. ECC und auch RDIMMs sind ja langsamer als non-ECC UDIMMs selbst bei ansonsten gleichen Settings, das will ja in der Daddelbox bestimmt keiner von denen.

Die müssen dann halt auf iSCSI oder SMB Shares arbeiten, der dann auf nem ECC backed Server liegt. Hast mit 100G@Home ja schon den Anfang gemacht :d
 
Ich bin tiefenentspannt. Ist halt nicht immer alles schwarz/weiß: wer @home mit so monsterwichtigen Daten spielt, dass man Angst vor Bitflips hat, weiß hoffentlich was er tut. :d

Meine Daten sind so wichtig nicht und die interessanten sind alle „write once/read sometimes“ - die bekommt ein Desktop auch nicht „kaputtverarbeitet“ und ansonsten bin ich nur faul und freu mich, dass RDIMMs günstiger waren/sind als UDIMMs. ;)

ECC überall ist hübsch aber eben auch nicht immer nötig. Kirche im Dorf und so.
 
ECC und auch RDIMMs sind ja langsamer als non-ECC UDIMMs selbst bei ansonsten gleichen Settings
RDIMM ist wegen dem Register Chip langsamer, aber UDIMM sollte bei gleichen Settings nicht langsamer sein, sofern der RAM Controller die ECC in Echtzeit ausführen kann.
Ob das auf Consumer DDR5 RAM übertragbar ist?

Hier findet man den Grund warum DDR5 ECC RAM 80 Bit breit ist:

DDR5_Independent_Channels.jpg


Richtig, aber bei Intel braucht es für ECC auch noch einen C2xx Chipsatz, auf dem entsprechenden Consumer-Chipsatz ist ECC wohl deaktiviert.
Intel hatte doch vor ein paar Generationen den Support für Xeon-CPUs auf Consumer-Mainboards unterbunden
Vermutlich weil Intel das Image der Xeon nichts mehr mit Gamingkisten verbunden sehen will, wo früher gerne mal die Modelle ohne iGPU als günstige Alternativen zu den i7 verwendet wurden. Auch beim S. 2066 gibt es ja nun eine komplette Trennung der Xeon von den Consumer CPUs, während letzere nur auf Boards mit X299er Chipsatz und mit UDIMM laufen, muss es für einen Xeon-W 2000er ein C422 Chipsatz und RDIMM oder LRDIMM sein, welches es praktisch nur mit ECC gibt. Bei dem S.2011-3 konnte man Xeons auch noch in X99er Boards stecken und hatte dann teils ECC Unterstützung und konnte wohl zuweilen auch RDIMM verwenden. Die Trennung wurden also strenger und daher habe ich wenig Hoffnung, dass Intel so bald die ECC RAM Funktion für alle freigibt.
Und das Mainboard muss bei Ryzen angeblich auch mitspielen beim ECC-Support.
Wobei die Frage ist, wie weit die Unterstützung reicht, neben den Lanes zu Anbindung alle 72 Datenbits der RAM Slots, erwartet man normalerweise ja auch die entsprechenden BIOS Funktionen um Fehler zu registrieren und im OS auf diese Fehler reagieren zu können, also die korrigierbaren zu zählen und auf unkorrigierbare z.B. mit einer Kernel Panic zu reagieren.
Wenn AMD schlau ist, machen sie die ECC-Unterstützung in der nächsten Generationen offiziell (die Komponenten können es ja anscheinend alle, nur nachgeprüft haben sie es noch nicht offiziell), und könnten so Ryzen auch in Konkurrenz zu den 1151 Xeons (bzw. deren Nachfolgersockel) setzen.
Zu einer Server- oder Workstationplattform gehört mehr als nur eine offizielle ECC Unterstützung, dazu gehören weit mehr Zertifizierungen und AMDs Desktop Team welches die RYZEN und TR verantwortet, führt diese offenbar nicht aus:
Wer einfache Server mit Windows oder Linux baut, dürfte weniger Problem haben als jemand der exotischerer Betriebssysteme nutzen, wobei man ja beim Release der RYZEN 3000 CPU beim Bug des Zufallszahlengenerators der dazu geführt hat das viele aktuelle Distributionen mit systemd nicht liefen, wohl erahnen kann wie wenig umfangreich die Tests mit Linux gewesen sein dürften.
Auch die TR3000 wurden offenbar gar nicht unter Linux getestet:
Derzeit deckt AMD den Servermarkt eben nur mit EYPC ab und bietet keine Plattform an die offiziell als Workstationplattform bezeichnet wird. Mit Renoir greift AMD man nun auf dem Mobilmarkt an, aber die Resourcen dürften nicht reichen um auch Entry-Level Server oder überhaupt mal eine Workstationplattform anzubieten. Dies dürfte auch noch kommen, aber derzeit konzentriert sich AMD ganz offensichtlich noch nicht darauf, sondern auf Produkte die mehr Gewinn versprechen.

Anstatt dem Open Memory Interface könnte sich auch PCIe durchsetzen.
Wohl kaum, schau Dir die Latenzen an und die Latenz ist gerade bei RAM sehr wichtig.
Beitrag automatisch zusammengeführt:

Meine Daten sind so wichtig nicht und die interessanten sind alle „write once/read sometimes“ - die bekommt ein Desktop auch nicht „kaputtverarbeitet“
Natürlich bekommt man die auch kaputtverarbeitet, es reicht ein gekipptes Bit beim Erstellen der Dateien selbst oder des Backups und wenn man das Backup braucht, hat man dann keine korrekte Version der Datei mehr. Aber es muss jeder selbst wissen wie wichtig ihm seine Daten sind und welchen Aufwand er zum Schutz vor Datenkorruption und -verlust zu treiben bereit ist.
 
~45 ns bei RAM, ist im IBM bzw. Microsemi Paper beschrieben.
Ich hoffe, dass sich OMI-DDIMM oder was auch immer schnell durchsetzen wird. Dann wären auch bei den billigeren CPUs mehr Pins frei für mehr PCIe-Leitungen.
 
Ryzen kann doch ECC inoffiziell und mit den PRO CPUs ist die Funktion doch auch offiziell unterstützt, jedenfalls hab ich das so verstanden. Leider kommt man ja als normalsterblicher nicht an PRO CPUs ran (ebay)...

Workstation Boards sind auch; wenn langsam, am kommen. Asrock hat 2 auf x470 Basis und welche mit x570 in Produktion? Asus wird meine ich auch welche produzieren.

Aber im Desktopmarkt ist ECC doch eh kaum vertreten.
 
mit den PRO CPUs ist die Funktion doch auch offiziell unterstützt
Wo denn? Ich kann auf der offiziellen AMD Seite der RYZEN Pro CPUs nichts dazu finden. Die APUs wurden offenbar um die ECC Funktion beschnitten, mit Ausnahme der Pro Modelle, aber auch bei denen ist das kein offizielles Feature.
Workstation Boards sind auch; wenn langsam, am kommen. Asrock hat 2 auf x470 Basis und welche mit x570 in Produktion?
Was für ASRock X470 Workstation Boards? Die ASRock X470D4U sind Server- und keine Workstationboards, nur das ASUS Pro WS X570-Ace ist ein Workstation Board, auch wenn AM4 eben eine Desktopplattform ist. Bei den ASRock X470D4U merkt dies auch jeder, der was anderes als Windows einsetzt, denn er hat meistes Probleme. Das ist für Bastler vielleicht akzeptabel, aber sicher nicht im produktiven Einsatz in Unternehmen.
 
Was für ASRock X470 Workstation Boards? Die ASRock X470D4U sind Server- und keine Workstationboards, nur das ASUS Pro WS X570-Ace ist ein Workstation Board, auch wenn AM4 eben eine Desktopplattform ist. Bei den ASRock X470D4U merkt dies auch jeder, der was anderes als Windows einsetzt, denn er hat meistes Probleme. Das ist für Bastler vielleicht akzeptabel, aber sicher nicht im produktiven Einsatz in Unternehmen.

Yes die Boards sind sogar schlimmer als Server Boards.... Leider haben die noch imense Kinderkrankheiten....

Ich lese mal grade über Ryzen, ich dachte die PRO haben das Feature ofiziell aber muss ich wohl falsch gelesen haben
 
Gibt es nicht unter /sys/devices/system/edac/mc seit Urzeiten counts für correctable und uncorrectable errors? Warum werden nirgendwo Auszüge daraus gepostet? Das müsste doch viel Spekulation über die Fehlerhäufigkeit mit Zahlen untermauern.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh