Komplettes System Backup

NiclasM

Enthusiast
Thread Starter
Mitglied seit
06.02.2007
Beiträge
4.331
Ort
Dortmund
Hey

Ich habe meinen root Server nun mit vielen Diensten vollkommen perfekt Konfiguriert.

Ich habe bei meinem Anbieter ein 100GB FTP Backup. Ich würde gern ein Backup vom Komletten System außer /files machen, so dass ich es im Notfall wieder einspielen kann. Kennt sich da jemand aus und hat ne gute Lösung für mich ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da du nur ftp hast ->

Alles via tar packen und dann hoch schieben.

Code:
tar czpfv /backup/boot.tar.gz /boot
tar czpfv /backup/etc.tar.gz /etc
(/proc /dev /sys /tmp kannst du auslassen)
...

Die ganzen tar.gz files dann mitm $FTP-Client deiner Wahl hochschieben.

Das ganze lässt sich mit ein bischele Bash auch automatisieren.

Das Backup zurueckspielen:

Die Distribution deiner Wahl installieren, dann die tar.gz-Dateien vom FTP downloaden und einfach nach / entpacken.

Code:
cd /
tar xzf /backup/boot.tar.gz
tar xzf /backup/etc.tar.gz
...
(auch hier wieder /sys /dev/ proc /tmp auslassen)

Grüße

*edit*

Das ganze kannst du btw auch noch verfeinern wenn du die tar.gz dateien noch durch GPG drückst sind sie gleich noch verschlüsselt ;)
 
Zuletzt bearbeitet:
Gibt es nichts edleres? Per Curlftp kann ich das Ding ja Auch mounten
 
*schulterzuck*
ICH find das edel ;)

Im Endeffekt nutzt jedes andere Backupprogramm diese Technik.

Du kannst das ganze auch innem Bashscript automatisieren lassen.

dann kannst du zb:

Code:
./backup --backup

machen und dann backupt er dir alles UND schiebt dir das automatisch auf den FTP was du auswählst.
Gleiche halt umgekehrt:

Code:
./backup --restore

Schaut aufm FTP was als Backup da ist und zieht es dir und spielt das Backup wieder ein.

Joa entweder du schreibst dir selber darum nen Bashscript. Wenn du es nicht kannst, es gibt hier genug die es bestimmt können / machen :)

Ich würd mich gerne anbieten aber leider lässt meine Zeit (und meine Geldbörse) zur Zeit es nicht zu das ich irgend ein Project für umsonst anfange.

Gerne aber helf ich dir hier beim erstellen des Scriptes.

Es gibt auch fertige Lösungen (zb Backula) aber da weiß ich nicht inwieweit die mit nem TFP klar kommen und sind schon recht aufwendig von der Einrichtung her.
 
Sowas?

#!/bin/sh
mkdir -P /tmp/tmptargz
mkdir /tmp/tmptargz/system

tar czpfv /tmp/tmptargz/system/bin.tar.gz /bin
tar czpfv /tmp/tmptargz/system/boot.tar.gz /boot
tar czpfv /tmp/tmptargz/system/etc.tar.gz /etc
tar czpfv /tmp/tmptargz/system/home.tar.gz /home
tar czpfv /tmp/tmptargz/system/initrd.tar.gz /initrd.img
tar czpfv /tmp/tmptargz/system/lib.tar.gz /lib
tar czpfv /tmp/tmptargz/system/lib32.tar.gz /lib32
tar czpfv /tmp/tmptargz/system/lib64.tar.gz /lib64
tar czpfv /tmp/tmptargz/system/opt.tar.gz /opt
tar czpfv /tmp/tmptargz/system/root.tar.gz /root
tar czpfv /tmp/tmptargz/system/sbin.tar.gz /sbin
tar czpfv /tmp/tmptargz/system/selinux.tar.gz /selinux
tar czpfv /tmp/tmptargz/system/srv.tar.gz /srv
tar czpfv /tmp/tmptargz/system/usr.tar.gz /usr
tar czpfv /tmp/tmptargz/system/var.tar.gz /var
tar czpfv /tmp/tmptargz/system/vmlinuz.tar.gz /vmlinuz
tar czpfv /tmp/tmptargz/ftp.tar.gz /files/ftp
tar czpfv /tmp/tmptargz/kunden.tar.gz /files/kunden
tar czpfv /tmp/tmptargz/minecraft.tar.gz /files/minecraft
tar czpfv /tmp/tmptargz/privat.tar.gz /files/privat
tar czpfv /tmp/tmptargz/server.tar.gz /files/server

mv /tmp/tmptargz/* /mnt/ovh/ >> /var/log/copy.txt
rm -R /tmp/tmptargz
 
Jap genau sowas meint ich.

Sowas kann man nun Endlos ausbauen.

Werd mich mal in der Pause dran setzten und es schon mal ein wenig verfeiern.

Grüße
 
Aber das mit mv klappt nicht so einfach. Anscheind muss ich das direkt per ncftp o.ä. hochschieben.
 
Das ist nen OVH-Server oder?

Weil so einen hab ich zufaellig auch (inkl BackupSpace) und könnte das dann direkt selber testen.

Grüße
 
rdiff-backup ist wessentlich sinniger als ein tar.

z.B. mein conjob:
# root backup
58 2 * * * /usr/bin/rdiff-backup --force --remove-older-than 20B /home/andy/Ablage/Backup/root/Wintermute
05 3 * * * /usr/bin/rdiff-backup --exclude /tmp/'*' --exclude /var/tmp/'*' --exclude /home/'*' --exclude /media/'*' --exclude /mnt --exclude /proc --exclude /sys / /home/andy/Ablage/Backup/root/Wintermute

Damit kann ich 20 Backups in die Vergangenheit schauen.
 
Zuletzt bearbeitet:
naja incrementelles backup ist _immer_ sinniger.

Aber er hat nen funktionierendes System was er nicht mehr groß ändern will.

Da langt Tar dicke aus.
 
Moin,

leider noch nich zu gekommen .. de Streß de Streß.

Spätestens Sonntag hast du nen interaktives Backupscript :) Grundgerüst steht aber noch nich alles sauber gemacht.

Grüße
 
Hey Bomba, hört sich gut an. Hoffe du machst das Skript nicht nur für mich ...

Grüße ;)
 
Jetzt hab ichs einem mehr versprochen als nur mir selber :P

bin ja auch OVHKunde mit dem Backup space und wollt das immer scho ma in Angriff nehmen! Immer kamen andere Dinge (und das Backup is echt überfaellig ^^) dazwischen.

Grüße
 
Genau das hat mich auch dazu verleitet endlich mal das ding zu nutzen :d

Am besten wärs mit nem Verschlüsseltem Backup, weil wer weiß wer bei OVH mal langeweile hat, wobei ich das bei dem Konzern nicht denke...
 
Verschlüsselte Systemeinstellungen? Was macht ihr den so geheimes was nicht eh im jeden Wiki steht?
 
Systemeinstellungen ? Es geht um eine komplette Sicherung mit allen Daten, Einstellungen und Datenbank Einträgen. Da ist Verschlüsselung nicht soo sinnlos ;)
 
Warum das Rad neuerfinden?

Wertarbyte EDV-Dienstleistungen - Backup system "Tartarus"

shell script relying on standard software and formats (tar)
modular and flexible configuration handling
full and incremental backups
filesystem snapshot functionality (when used in conjunction with LVM)
On-the-fly uploading to an FTP site
Encryption (symmetric and asymmetric) using GnuPG
splitting the archive into several files
 
Wieso brüllt gleich immer irgendeiner "Rad Neu erfinden?" wenn man Software schreibt / entwickelt die auf einen absolut angepasst ist?

Weil sonst hätte man ja bei den ganzen Betriebssystemen das gleiche sagen können oder bei jeder neuen Distribution die rauskommt:

uhh warum ne neue Distri? Rad und neu und so? Schau ma da Slackware . istn Linux macht das gleiche was du vorhast.

Es gibt hundertausende von Scripten (meins wird auch nur eins von vielen sein) aber

Punkt 1:
Es ist eine gute Lernmethode
Punkt 2:
Man weiß was die Software macht.
Punkt 3:
Man weiß nie was draus wird :)

Grüße
 
warum alles backuppen?? du brauchst eigentlich nur das /etc verzeichnis und dann evtl noch /var..

im etc sind doch alle einstellungen enthalten..
 
ein mysql-dump wäre vielleicht noch ganz sinnig, dann ist das mit dem importieren später bedeutend einfacher ;)
 
Da hab ich eh mal ne Frage zu: Taugen denn solche Linux-System-tar/gzip-Backups überhaupt was? Was ist, wenn sich während des Backups Dateien ändern? Ohne LVM kann man das System doch gar nicht freezen und z.B. wie bei den Windows-Volume Schattenkopien ein genauen Punkt festhalten? Was ist mit Datenbanken? foxxx hats ja schon angesprochen. Wenn ich dann nen Restore mache, sind die Datenbanken denn überhaupt konsistent? Gibt ja nicht umsonst die Dump-Funktion. Bootloader? MBR?

Also ganz ehrlich, ich glaube nicht, dass man mit nem simplen packen und im Desasterfall entpacken nen laufenden Linux-Server wieder in gang bekommt. Da muss man schon nochn bisschen mehr machen. Unter Windows hab ich immer Acronis TrueImage im Hinterkopf, total einfach, und nachm Restore funzt das System wieder ohne groß noch irgendwo rumspielen zu müssen. Können das die Scripte unter Linux auch leisten?

mfg Olli
 
Alternativ kannst du natürlich bei jedem gescheitem Hoster ein Rescue-Image booten, wenn dein System 100% vorbereitet ist.
Dann ziehst du von der gesamten Festplatte/Partition ein Image und schickst das direkt auf deinen Backup-Space.
Damit kannst du weitere Server ähnlicher Konfiguration neu aufsetzen.

Um den aktuellen Stand eines System wiederherzustellen benötigt man dann zusätzlich natürlich noch die Config-Files aus /etc sowie bspw. Datenbanken, www-Ordner, Emails, private Dateien, etc... als Backup, dafür eignen sich solche tar-Archive sehr gut.

Nur mit solchen Archiven gewinnt man keinen großen Blumentopf.
Wenn man aber sowieso mit dem Gedanken spielt, das System in solchen Fällen neu aufzusetzen und ggfs. noch hier und da zu optimieren, sollte man mindestens noch die Paketlisten der installierten Programme dumpen, bei Debian:

Code:
dpkg --get-selections > liste

nach einer Neuinstallation dann:

Code:
apt-get update
dpkg --set-selections < liste
apt-get dselect upgrade

Damit hat man dann auch wieder alle bisherigen Dienste installiert, man kann seine Config-Files in /etc importieren, neustarten und ein Großteil sollte bereits wieder laufen, hab ich selbst schon getestet ;)

mfg
foxxx :wink:
 
Naja .. ihr erfüllt all nich seine Vorgaben.

Wenn er nen Backup via Tar macht, hat er den vorteil das er sein KOMPLETTES System im Handumdrehen wieder komplett so hat wie er es vorher hatte.

Er muss nich beachten ob er irgendwo vllt was gepatcht hat (was dann nich zwangsläufig in /etc/ liegt) oder sonstiges.

GGf. hat er nen Customkernel laufen das muss er alles nicht beachten.

Nach einem Störungsfall fährt er das Rescuesystem hoch, entpackt die tars nach / macht nen chroot installiert grub/lilo/grub2 neu und fertig ist das.

Nach ca 10-15 Minuten ist seine Kiste wieder 1:1 am laufen und er hat 0 arbeit damit. Und nicht nur einen Großteil @ Foxxx

Ich handhabe meine Linuxserver-Backups seit 1996 so und habe mir massig alternativen angeschaut (rsync, deine Wahl, backula etc pp) und das einzige was noch toller als Tar-Backups sind, is dd! Aber dafür reicht da der Platz aufm Backup nich :)

Natürlich muss er die Kiste einmal dafür runterfahren und im RescueModi laufen lassen.
 
Zuletzt bearbeitet:
Wenn das wirklich so funktioniert, wärs ja klasse. Was macht dein Automatisierungs Programm ;) ?
 
Braucht nur noch 2-4h arbeit.

Is doch aehm größer und komplexer geworden als gedacht. Aber wird geil ^^ :hail:

Hab ab Mittwoch abend Urlaub, denke dann spätestens Fr. morgen hast du es komplett :)

Wird hübsch :):banana:
 
Und das nicht alles mit tar Backups reibungslos läuft kann man auch auf dem 130 Seiten Thread hier nachlesen:

jop

- paketliste
- /etc
- /home
- und Datenbank Dumps

mehr braucht man nicht.

lieber alle 5 jahre einmal 2 stunden beim restoren des servers brauchen. als bei jedem backup ne stunde backupen :fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh