Backup-Strategie

D€NNIS

Pharao
Thread Starter
Mitglied seit
25.12.2003
Beiträge
4.098
Hallo euch,

ein guter Bekannter von mir hat ein kleines Büro mit 2-3 Arbeitsplätzen, die jetzt zum Jahresbeginn, technisch auf den aktuellen Stand gebracht werden sollen.
Bei der Gelegenheit will er sich gleich auch des Themas Datensicherung annehmen und ich will meine Vorschläge einmal durch euch auf den Prüfstand stellen lassen um zu schauen, ob es nicht vielleicht noch andere, möglicherweise bessere oder sinnvollere Lösungsansätze gibt.

Der Bekannte besitzt eine kleine 2bay NAS von Synology, auf der, die im Büro erzeugten Daten (überwiegend kleinere CAD Files, Projektdokumente und/oder PDFs) zusammenlaufen.
Diese Dokumente belegen auch langfristig eher überschaubaren Speicherplatz und werden deshalb auch permanent auf den Arbeitsrechnern vorgehalten.
Es ist durchaus möglich, das demnächst direkt auf der NAS über iSCSI LUNs gearbeitet wird und nicht zuletzt deswegen soll eine Backup-Strategie her die mittel-/langfristig einsetzbar ist.

Folgende Vorschläge meinerseits:

- Als ersten Schritt bestimmte Arbeitsverzeichnisse auf den Office-PCs "monitoren" und Änderung sofort mit der NAS synchronisieren (z.B über Synologys DataReplicator oder 3rd Party Tools)
Zur Datensicherung könnte man dann in der WebUI der Synology NAS Sicherungsjobs einrichten, die dann via rsync den Inhalt der NAS oder eben nur bestimmte Verzeichnisse auf externe Festplatten sichert.
Man könnte und sollte dann mindestens zwei ext. Festplatten verwenden und diese nach einem bestimmten Zeitschema rotieren lassen.

- Der andere Lösungsansatz wäre eben ein Archivstorage aufzubauen und die Synology NAS den gesamten Inhalt auf dieses Archivstorage replizieren zu lassen.
Das könnte man beispielsweise recht ideal über den HP Microserver in Verbindung mit ZFS erreichen. Eine konkrete Idee wäre FreeNAS als RSync Target einzurichten, soweit ich weiß funktioniert das in Verbindung mit der Synology NAS reibungslos und man könnte auch noch periodische Snaphosts auf dem Archivstorage erzeugen. Das Archivsystem würde dann z.B einmal pro Tag hochfahren damit bspw. nachts die Datensicherung läuft,danach könnte man es per Cronjob wieder runterfahren. Standort des Microservers dann idealerweise getrennt von der NAS.

- Eine andere Option wäre halt die Datensicherung auf Tapes LTO5/LTO6, wobei die Anschaffung eines LTO5/6 Laufwerks den finaziellen Rahmen etwas überstrapaziert ;)

Welchen der Lösungsvorschläge haltet ihr für sinnvoll oder habt ihr vielleicht auch aus eurer beruflichen oder privaten Erfahrung vielleicht noch andere?

Danke schonmal im voraus.

Grüße

Dennis
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Replikation bedeutet ja normalerweise, dass Dateien, die auf dem Quellrechner gelöscht werden, auch auf dem Ziel gelöscht werden. Deswegen ist eine Replikation keine Datensicherung.

Ich würde da eher den angedachten HP Microserver als eigentliche Datenablage nehmen und z.B. über die integrierte Windows Server-Sicherung (wenn Windows eingesetzt werden soll) das Teil auf das NAS, was per iSCSI eingebunden ist, sichern. Das kann man nicht über eine Netzwerkfreigabe machen, weil die Datensicherung sonst jeden Tag die vorhandene Sicherung überschreiben würde und man somit immer nur einen Tag zurückgehen könnte.
 
iSCSI LUNs über die WebUI der Synology NAS zu backupen funktioniert nur von Synology zu Synology?
Das Feature ist eigentlich sehr interessant wäre aber noch wertvoller wenn ich als Destination z.B auch eine FreeNAS oder OmniOS+nappit Appliance festlegen könnte.
 
D€NNIS;21671658 schrieb:
iSCSI LUNs über die WebUI der Synology NAS zu backupen funktioniert nur von Synology zu Synology?
War das eine Rückfrage zu meinen Ausführungen? Wenn ja, kann ich das nicht sagen, da ich mich mit Synology-Geräten nicht auskenne.

Eine Überlegung zu deiner Aussage: was heißt "Backup" bei Synology? Ersetzen von Dateien, die im Ziel schon vorhanden sind, und Löschen von Dateien, die nicht mehr in der Quelle vorhanden sind? Wenn ja, dann wäre das ja auch nur eine Replikation, womit man nicht mehrere Versionen der selben Datei aufbewahren und ggf. wiederherstellen kann. Nur wenn mehrere Versionen vorhanden sind, könnte man diese Funktion nutzen.
Die Frage ist allerdings auch, ob das alte NAS genug Power hat, um als zentrale Datenablage zu dienen. Deswegen die Überlegung, einen HP Microserver als neue zentrale Datenablage zu nutzen und das alte NAS nur als Backup für die zentrale Datenablage.

Was ich meine: wenn man das vorhandene NAS als iSCSI-LUN in einen (neu anzuschaffenden) Windows Server hängt, kann man das als Datensicherungsziel für den Windows Server verwenden. Wenn man das vorhandene NAS per Netzwerkfreigabe in den Windows Server einbindet, kann man das zwar auch als Datensicherungsziel verwenden, dann kann jedoch nur eine Sicherung auf dem NAS vorgehalten werden, da Windows auf Netzlaufwerken nicht mehrere Versionen vorhalten kann.
 
War das eine Rückfrage zu meinen Ausführungen?

Ja, absolut.
Ist ne Weile her das ich das letzte mal mit einer Synology NAS hantiert habe aber ich meine die Replikationsumsetzung im DSM bietet dem User ein Versionierungsfeature an bzw versioniert eigenständig. Kann aber auch sein das ich das mit TimeBackup verwechsle, dessen bin ich mir grad nicht ganz sicher. Das Beste wird ohnehin sein ich teste das mal mit DSM und FreeNAS in einer VirtualBox.

Die iSCSI LUNs als Arbeitslaufwerke nutzen wäre natürlich möglich aber da beide Office PCs über SSDs verfügen werden und das LAN erst auf Cat7 Leitungen im Büro aufgerüstet werden muss inkl. entsprechend gigabitfähiger Endgeräte wäre das momentan nicht meine bevorzugte Lösung. Ich hatte eher im Sinn die iSCSI LUNs als Datensicherungsvolumes an den jeweiligen Officekisten einzubinden und die LUNs hingegen von der Diskstation nochmal extra zu sichern (entweder auf eine andere/weitere Diskstation oder auf eine FreeNAS Applicance sollte Letzteres gehen wäre das meine präferierte Lösung)

So hatte ich mir den Workflow eigentlich vorgestellt bin aber gerne nach wie vor offen für Vorschläge oder Kritiken wenn ihr da meint grobe Fehler erkennen zu können.
 
Zuletzt bearbeitet:
ZFS Snapshots und fertig, das wäre meine Empfehlung. Egal mit was du dann auf das ZFS-Backup-Target sicherst, Snapshots werden so oder so gemacht, es findet also eine brauchbare Archivierung statt. Noch besser wäre ZFS auf beiden Geräten, sofern das Synology-NAS x86 ist und 4GB Ram oder mehr hat sollte sich dort auch ZFS drauf nutzen lassen.
 
Zuletzt bearbeitet:
Eine vernünftige Backupstrategie soll folgendes abdecken:

- 1. gelöschte oder veränderte Daten (das merkt man aber oft erst Tage oder Wochen später)
- 2. Den Ausfall einer oder mehrerer Festplatten
- 3. Den Ausfall des Storage Systems (Diebstahl, Brand etc)

Falls die Daten längere Zeit gespeichert werden:
- 4. Schutz gegen "silent Errors", das sind Fehler bei Langzeitspeicherung die mit einer statistischen Häufigkeit entstehen - ohne das ein Gerätedefekt vorliegt

Falls die Daten "revisionssicher" sen müssen (Sabotage etc)
- 5. read-only Speicherung eventuell zusätzlich mit zusätzlichen Prüfsummen

Schön ware es noch, dass der zentrale Storage
- 6. schneller als lokale Festplatten ist

Die einfachste und billigste Strategie basiert sicher auf einem zentralen ZFS-Z2 oder Z3 Storage auf dem gearbeitet wird und auf dem Snapshots gemacht werden (stündlich, täglich, wöchentlich, monatlich, jährlich etc). Damit ist Problem 1 und 2 abgedeckt.

Dazu ein weiteres eventuell identisches System in einem anderen Bereich auf dem der Datenbestand syncron gehalten wird - eventuell mit einer eigenen Snaphothistorie (im Keller etc) oder externe Plattenpools zum Wegschließen für Problem 3. Problem 4 (silent errors) kann man mit regelmäßigen online-Scrubs bekämpfen. Dabei werden im laufenden Betrieb alle Dateien gelesen und falls durch die ZFS Prüfsummen Fehler entdeckt werden auch repariert (Sofern Redundanz aufgrund eines Raids besteht).

Damit ist auch (zumindest readonly) Zugriff auf die Daten gegeben, wenn das Hauptstorage ausfällt.

Problem 5 ist schon durch Snapshots gut abgedeckt, da die Read-Only sind. Zusätzlich kann man md-5 Prüfsummen auf die Dateien eines Snapshots erstellen, mit Datum ausdrucken, unterschreiben und abheften. (Falls man den Datenstand zu einem Zeitpunkt mal dokumentieren muss)

Storage Performance (6.) bei ZFS vor allem abhängig von (in dieser Reihenfolge)
- Ram
- Festplattenperformance (am Schnellsten sind SSD)
- CPU Performance

Die billigste Lösung:
- 2 x HP( Micro)server mit 4 Platten-Bays mit jeweils 8-16 GB RAM und jeweils 3 Platten im 3way Mirror, eventuell das Hauptstorage etwas leistungsstärker mit Intel Xeon und 16-32 GB RAM.
- eine ZFS Storage appliance. Da gibt es neben meinem napp-it noch NexentaStor (beide auf Basis von Solaris mit nativem ZFS) oder welche auf BSD Basis wie FreeNAS.

eventuell ab und zu ein extra Backup auf Platte zum in den Save legen (auch ZFS wegen der Prüfsummen auf Daten).

Die Storage Appliances sind alle schnell aufgesetzt und werden per Webbrowser bedient. Im Vergleich zu Synology etc sind die auf jeden Fall als Storage meines Erachtens moderner, haben vielleicht aber weniger eingebaute (Home-)Features und brauchen eventuell minimal mehr KnowHow zum Setup. Diese HP Appliances sind aber sicher erheblich billiger und leistungsstärker und man muss nichts selber bauen sondern entweder nur eine Appliance für den USB Stick herunterladen oder aber eine Boot-cd einlegen und die Software installieren - alles kostenlos.
 
Zuletzt bearbeitet:
Hallo Gea,

wäre es möglich, bei einem 2- oder 3way-Mirror regelmäßig eine Platte ziehen (und zu ersetzen) und in den Safe packen? Kann man die Platte hierbei einfach ziehen, sollte man sie offline setzen oder sollte man sie vom Mirror entfernen? Was ist die richtige Vorgehensweise? Ist die Platte beim Entfernen vom Mirror per Nappit-Menü noch als Backup nutzbar oder werden die Informationen auf der Platte hierbei gelöscht? Kann ich im Ernstfall eine solche Platte als separaten Pool zusätzlich einbinden oder wird sie wieder sofort dem alten Pool zugeschoben und damit die gesicherten Daten sofort überschrieben.
Kannst Du mit meinem Kauderwelch etwas anfangen?

Gruß Millenniumpilot
 
Was willst du damit überhaupt erreichen? Dadurch dass du ständig die Platte wechselst und einen Resilver anstößt setzt du den Mirror nur unnötigen Stress aus, du erreichst im Grunde genau das Gegenteil von dem was du vermutlich willst: Eine höhere Ausfallwahrscheinlichkeit. Jedes mal wenn du an einem System Hand anlegst kannst du auch einen Hardwaredefekt verursachen, auch wenn die Wahrscheinlichkeit sehr gering ist bleibt sie dennoch bestehen.

Wenn du eine Platte aus einem Mirror entfernst bleiben die Daten ganz normal darauf erhalten.
Wenn du eine Platte austauschst solltest du ganz normal zpool replace verwenden, siehe: Austauschen eines Datenspeichergeräts in einem ZFS-Speicher-Pool.

Ich denke es wäre sinnvoller deine Festplattenrotation mit einer einzelnen, vielleicht über USB3 angeschlossenen Platte zu machen. Tägliches synchronisieren der Snapshots vom Mirror auf die externe HDD. Die kann dann auch jeder Zeit entfernt und getauscht werden. So sichern viele kleine Unternehmen die keine Tapes mehr verwenden.
Aber mit der immer weiteren Verfügbarkeit von VDSL50, mit Vectoring dann bald sogar VDSL100, sehe ich die Zukunft eher in Sicherung über VPN/SSH-Tunnel zu einem oder mehreren Standorten als dort ständig lokal herum zu hantieren, sofern es die Datenmenge erlaubt. Für den initialen Sync kann man das Backuptarget ja lokal im Netzwerk aufstellen, alle weiteren Snapshots werden dann über WAN gesendet.
 
Zuletzt bearbeitet:
Aber mit der immer weiteren Verfügbarkeit von VDSL50, mit Vectoring dann bald sogar VDSL100, sehe ich die Zukunft eher in Sicherung über VPN/SSH-Tunnel zu einem oder mehreren Standorten als dort ständig lokal herum zu hantieren, sofern es die Datenmenge erlaubt. Für den initialen Sync kann man das Backuptarget ja lokal im Netzwerk aufstellen, alle weiteren Snapshots werden dann über WAN gesendet.

Das ist technisch wirklich sinnvoll. In Zeiten einer universellen und kompletten Industriespionage mit totaler persönlicher Überwachung jeglichen Datenverkehrs (NSA und Co) mit der hohen Wahrscheinlichkeit dass "schnelle Verschlüssellungstechniken" keine Sicherheit bieten und es an allen Ecken Hintertüren gibt, würde ich aber Daten grundsätzlich nicht mehr unverschlüsselt "außer Haus" geben sondern nur InHouse oder InCompany Lösungen nehmen oder nur stark verschlüsselte Backups extern lagern - VPN alleine würde mir bei Unternehmensdaten fast nicht mehr genügen - zumindest nicht bei Unternehmen die so groß sind, dass sie mehrere Standorte haben und die unternehmenswichtige Daten sichern wollen.
 
Zuletzt bearbeitet:
Hallo Grafiktreiber,

dank für Deine Ausführungen. Aber wo ist den Deiner Meinung nach der Unterschied in der Streßbelastung des Pools, ob ich den gesamten Pool nun per rsync und Co wegkopiere oder ein Resilver anstoße? Gegenüber einem Hardwareraid werden bei ZFS bei einem Resilver nur belegte Bereiche kopiert. IMHO macht dies doch also keinen Unterschied. Alle Daten werden 1x gelesen. Oder?!

Mir persönlich geht es bei dieser Frage um die Datensicherung\Archivierung für zu Hause. Platte 1x die Woche\Monat ziehen und bei Bekannten lagern.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh