Datensicherheit ohne Backup

-INU-

Enthusiast
Thread Starter
Mitglied seit
29.12.2007
Beiträge
5.214
Ort
Unter der Brücke
Vorwort: Ja ich weis, ein Backup ist nur durch ein Backup zu ersetzen.


Zum Thema: Da hier ja immer wieder das Thema Backup vs RAID bzw in wie weit sich ein RAID nun als Backup missbrauchen lässt aufkommt, soll es in diesem Thread darum gehen welche Möglichkeiten es gibt das Risiko des Datenverlusts zu minimieren ohne dabei auf ein Vollständiges Backup zurückzugreifen. Z.b. gab es bei RAID5 ja einen punkt ab dem beim rebuild statistisch zwangsläufig Lesefehler entstehen, wo liegt der, wie hoch ist die Chance das das Array dann nicht mehr zu retten ist und bedeutet das nicht im Umkehrschluss auch das das Risiko des Datenverlusts unter dieser Grenze geringer als beim Einzelplatten betrieb ist ?

Dann gibt es ja auch noch diverse Software und ZFS oder gibt es z.b. eine Möglichkeit beim RAID nur die Paritätsdaten extern zu sichern ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es wie mit dem Hochwasser.
Ab und zu gibt es halt alle 10 Jahre eine Jahrtausendflut. Auch bei Rechnern kann jederzeit auch ein unwahrscheinliches Disaster passieren - un wenn es nur ein Glas Cola ist, das umfällt. Dann braucht man wenigstens von den wichtigen Daten ein externes Backup.

Was geht, ist die Wahrscheinlichkeit verringern und da muss man die typischen Probleme betrachten:

- Festplattenausfall
Das kann man mit einem Raid abfangen. Es sollte aber eine Reserveplatte bereitliegen, um den Ausfall sofort zu reparieren. Dabei werden die anderen Platten stark belastet. Es steigt die Wahrscheinlichkeit eines weiteren Ausfalls. Bei größeren und wichtigen Daten: Den Ausfall von zwei oder gar drei Platten erlauben (Raid 6/Z2 oder ZFS Raid Z3)

- Stromausfall bei Schreiben
Das führt vor allem bei Raid5/6 zu Problemen da es passieren kann dass die Daten und Paritätsinformationen nicht konsistent sind. Das kann man mit einer Pufferbatterie oder ZFS Raid-Z in den Griff bekommen (kein write-hole Problem bei ZFS und Copy on Write)

- Daten löschen/verändern/verfälschen (Faktor Mensch oder ein Virus).
Für dieses Problem braucht man veränderungssichere read-only Snapshots mit einer ausreichend langen/guten Snapshot-Historie, eventuell mit separat gesicherten md5 Prüfsummen um Verfälschungen zu erkennen. Dazu gibt es spezielle Archiv/Backuptools oder man nimmt idealerweise ein CopyOnWrite Dateisystem wie ZFS wo das perfekt gelöst ist.

- stille Datenfehler (auch Datenrost genannt - mit einer statistischen Wahrscheinlichkeit verändern sich Daten ohne direkte Ursache) Dies ist ein ernstes Problem vor allem bei Langzeit-Archivdaten oder großen Datenträgern (Wahrscheinlichkeit steigt mit Datenmenge). Das bekommt man nur mit Prüfsummen und regelmäßigem Gegenprüfen und Reparieren in den Griff. Auch hier ist ZFS mit Scrubbing das Mittel der Wahl. Es läuft zudem online im Hintergrund. (Prüft und repariert also im laufenden Betrieb)


Alle Probleme können nur mit den neuesten Dateisystemen (btrfs, WinRefs, ZFS) gleichzeitig beachtet werden. Diese neuen Dateisystem-Entwicklungen sind genau wegen dieser Probleme entstanden (mit den entscheidenden Komponenten: Prüfsummen auf Daten und Metadaten im Betriebssystem und Copy on Write). Das Maß der Dinge ist da eindeutig ZFS. Die beiden anderen greifen die gleichen Ziele auf, brauchen aber noch ein paar Jahre der Reife.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh