Hallo!
Ich weis, das Thema Backup wurde mittlerweile schon hunderte Male durchgekaut und es gibt sehr viele Threads zu diesem Thema. Ich lese und suche auch schon wochenlang nach "der Antwort".
Leider konnte ich weder hier im Forum noch in der Google-Suche einen konkrete Antwort auf meine Frage finden.
Kleine Vorgeschichte:
Momentan läuft auf meinem Fileserver noch ein Windows-OS, allerdings spiele ich mit dem Gedanken dieses durch Linux zu ersetzen, was mich zur wohl wichtigsten Frage dem Backup der Daten führt.
Eigentliches Problem:
An sich ist Linux ja super, es gibt jede Menge Boardmittel (rsync, dd, ...) die einfach zu handhaben und doch so mächtig sind, dass man damit die unterschiedlichsten Anforderungen mittels Scripten lösen kann.
Mein Problem liegt allerdings darin, dass ich gerne sämtliche Daten von meinem Fileserver (2x RAID6 mit einer Nettokapazität von je 12TB) vollständig backupen möchte.
Als Backup-Medien besitze ich jedoch keinen weiteren Rechner, sondern mir stehen nur jede Menge alter HDDs mit unterschiedlichster Kapazität zur Verfügung (z.B.: 1,5TB, 750GB, ...). Ich kann also nur die Backup-HDD anhängen, einen Teil draufspielen und dann diese wieder abhängen und nächste dran, usw.
Man sieht also meine Quelle ist um ein Vielfaches größer (selbst bei optimalster Komprimierung der Daten) als das Ziel.
Das wohl schnellste wäre per dd das ganze RAID-Volume zu klonen, sprich den Input-Stream von dd direkt komprimieren und per split-Befehl in entsprechende Chunks aufteilen (z.B. 10GB). Auf diese Weise entsteht keine temporäre Datei und die Daten können direkt geschrieben werden. Wie erfolgt jedoch die Wiederherstellung? Ich habe nur Skripte/Befehle gefunden wo mittels cat-Befehl eine temporäre Datei erstellt wird und diese dann zurückgespielt wird. Inakzeptabel in meinem Fall, da ich dann nochmals 12TB Speicherplatz benötigen würde...
Würde das eventuell mit dem tar-Befehl und dem "-M" Schalter funktionieren? Vermutlich funktioniert das nur bei CD-/DVD-/Disketten-/Bandlaufwerken.
So jetzt zu meiner Frage, gibt es eine Möglichkeit ein Backup der Daten zu erstellen, ohne beim Sichern und Wiederherstellen temporäre Daten anlegen zu müssen und ich die Möglichkeit habe, das ganze auf mehrere (externe) HDDs aufzuteilen?
Ich wäre euch sehr verbunden wenn mir hier jemand weiterhelfen könnte.
Hoffe es gibt ein paar Gurus die hier eine Lösung parat haben
P.S.:
Für manche stellt sich hier die Sinnhaftigkeit solche riesigen Datenmengen vollständig zu backupen, das möchte ich hier jedoch nicht diskutieren. Ich suche einfach nur eine Lösung^^.
Ich weis, das Thema Backup wurde mittlerweile schon hunderte Male durchgekaut und es gibt sehr viele Threads zu diesem Thema. Ich lese und suche auch schon wochenlang nach "der Antwort".
Leider konnte ich weder hier im Forum noch in der Google-Suche einen konkrete Antwort auf meine Frage finden.
Kleine Vorgeschichte:
Momentan läuft auf meinem Fileserver noch ein Windows-OS, allerdings spiele ich mit dem Gedanken dieses durch Linux zu ersetzen, was mich zur wohl wichtigsten Frage dem Backup der Daten führt.
Eigentliches Problem:
An sich ist Linux ja super, es gibt jede Menge Boardmittel (rsync, dd, ...) die einfach zu handhaben und doch so mächtig sind, dass man damit die unterschiedlichsten Anforderungen mittels Scripten lösen kann.
Mein Problem liegt allerdings darin, dass ich gerne sämtliche Daten von meinem Fileserver (2x RAID6 mit einer Nettokapazität von je 12TB) vollständig backupen möchte.
Als Backup-Medien besitze ich jedoch keinen weiteren Rechner, sondern mir stehen nur jede Menge alter HDDs mit unterschiedlichster Kapazität zur Verfügung (z.B.: 1,5TB, 750GB, ...). Ich kann also nur die Backup-HDD anhängen, einen Teil draufspielen und dann diese wieder abhängen und nächste dran, usw.
Man sieht also meine Quelle ist um ein Vielfaches größer (selbst bei optimalster Komprimierung der Daten) als das Ziel.
Das wohl schnellste wäre per dd das ganze RAID-Volume zu klonen, sprich den Input-Stream von dd direkt komprimieren und per split-Befehl in entsprechende Chunks aufteilen (z.B. 10GB). Auf diese Weise entsteht keine temporäre Datei und die Daten können direkt geschrieben werden. Wie erfolgt jedoch die Wiederherstellung? Ich habe nur Skripte/Befehle gefunden wo mittels cat-Befehl eine temporäre Datei erstellt wird und diese dann zurückgespielt wird. Inakzeptabel in meinem Fall, da ich dann nochmals 12TB Speicherplatz benötigen würde...
Würde das eventuell mit dem tar-Befehl und dem "-M" Schalter funktionieren? Vermutlich funktioniert das nur bei CD-/DVD-/Disketten-/Bandlaufwerken.
So jetzt zu meiner Frage, gibt es eine Möglichkeit ein Backup der Daten zu erstellen, ohne beim Sichern und Wiederherstellen temporäre Daten anlegen zu müssen und ich die Möglichkeit habe, das ganze auf mehrere (externe) HDDs aufzuteilen?
Ich wäre euch sehr verbunden wenn mir hier jemand weiterhelfen könnte.
Hoffe es gibt ein paar Gurus die hier eine Lösung parat haben
P.S.:
Für manche stellt sich hier die Sinnhaftigkeit solche riesigen Datenmengen vollständig zu backupen, das möchte ich hier jedoch nicht diskutieren. Ich suche einfach nur eine Lösung^^.