Autokiller677
Semiprofi
Thread Starter
- Mitglied seit
- 09.06.2009
- Beiträge
- 1.161
Hallo Allerseits,
ein Freund (Selbstständig, Ein-Mann Unternehmen) hat mich um Tipps für das Backup seiner Daten gebeten.
Folgende Situation: 1 Arbeits-PC, 1 Laptop, 3 weitere PCs der Familie, 1 Server.
Der Server ist ein "Home"Server mit XP drauf, normale Desktophardware. Die Daten aller PCs und des Laptops werden mehrmals täglich auf den Server gesynct (sofern die PC's an sind natürlich). Der Server spielt auch noch Medienzuspieler für die Home PCs, in einer Linux VM läuft ein Mailserver für die ganze Familie.
Soweit, so gut.
Jetzt zum Backup der Daten: Bisher hat er 2 Platten, die er im Wechsel wöchentlich anklemmt und die Daten synct. Keine Generationen oder so.
Jetzt wollte er wöchentlich ein Vollbackup anlegen und 4 Wochen behalten, dann für 6 Monate ein Monatsbackup behalten, übliches Generationenprinzip halt.
Problem: Die Daten (jetzt erstmal nur die Geschäftsdaten und wichtigen Dokumente der Home Rechner, Musik und Filme sind nicht so wichtig) umfassen 170GB (Büro besteht seit 10 Jahren, wird also so schnell nicht mehr werden) und 100.000 Dateien. Und da liegt das Problem.
Das sind entweder ein paar Hundert MB große CAD Dateien und kleine Word und PDF Dateien größtenteils im 2 stelligen KB Bereich.
Das simple Kopieren der Daten dauert (da so viele Zugriffe und daher geringe Transferrate) schon um die 15h (Platte über SATA angeklemmt). Eigentlich wollte er die Daten noch komprimieren um Platz zu sparen (bringt ca. 30-40% also nicht zu verachten) allerdings dauert dann ein Backup um die 30-35h, was einfach zu lange ist.
Das einzige, was mir bisher eingefallen ist um den Prozess zu verkürzen, wäre kleine Einzelplatten zu kaufen und auf alle ein aktuelles Abbild zu kopieren und sie dann halt zum entsprechenden Zeitpunkt immer nur zu syncen. Er bräuchte dann zwar um die 10 Platten, dafür wäre halt der Prozess schneller erledigt (es werden nicht viele Dateien pro Tag verändert, sync von Rechner zu Server dauert so 10Min).
Die Menge der Dateien lässt sich leider nicht verringern. Alte Projekte und nicht oft benötigte Dateien sind alle schon komprimiert und in jeweils eine Datei verpackt (vorher waren es so um 300k Dateien bei 220GB).
Vorschläge eurerseits, um den Prozess bei einem üblichen Generationenprinzip zu verkürzen?
MfG
Autokiller677
ein Freund (Selbstständig, Ein-Mann Unternehmen) hat mich um Tipps für das Backup seiner Daten gebeten.
Folgende Situation: 1 Arbeits-PC, 1 Laptop, 3 weitere PCs der Familie, 1 Server.
Der Server ist ein "Home"Server mit XP drauf, normale Desktophardware. Die Daten aller PCs und des Laptops werden mehrmals täglich auf den Server gesynct (sofern die PC's an sind natürlich). Der Server spielt auch noch Medienzuspieler für die Home PCs, in einer Linux VM läuft ein Mailserver für die ganze Familie.
Soweit, so gut.
Jetzt zum Backup der Daten: Bisher hat er 2 Platten, die er im Wechsel wöchentlich anklemmt und die Daten synct. Keine Generationen oder so.
Jetzt wollte er wöchentlich ein Vollbackup anlegen und 4 Wochen behalten, dann für 6 Monate ein Monatsbackup behalten, übliches Generationenprinzip halt.
Problem: Die Daten (jetzt erstmal nur die Geschäftsdaten und wichtigen Dokumente der Home Rechner, Musik und Filme sind nicht so wichtig) umfassen 170GB (Büro besteht seit 10 Jahren, wird also so schnell nicht mehr werden) und 100.000 Dateien. Und da liegt das Problem.
Das sind entweder ein paar Hundert MB große CAD Dateien und kleine Word und PDF Dateien größtenteils im 2 stelligen KB Bereich.
Das simple Kopieren der Daten dauert (da so viele Zugriffe und daher geringe Transferrate) schon um die 15h (Platte über SATA angeklemmt). Eigentlich wollte er die Daten noch komprimieren um Platz zu sparen (bringt ca. 30-40% also nicht zu verachten) allerdings dauert dann ein Backup um die 30-35h, was einfach zu lange ist.
Das einzige, was mir bisher eingefallen ist um den Prozess zu verkürzen, wäre kleine Einzelplatten zu kaufen und auf alle ein aktuelles Abbild zu kopieren und sie dann halt zum entsprechenden Zeitpunkt immer nur zu syncen. Er bräuchte dann zwar um die 10 Platten, dafür wäre halt der Prozess schneller erledigt (es werden nicht viele Dateien pro Tag verändert, sync von Rechner zu Server dauert so 10Min).
Die Menge der Dateien lässt sich leider nicht verringern. Alte Projekte und nicht oft benötigte Dateien sind alle schon komprimiert und in jeweils eine Datei verpackt (vorher waren es so um 300k Dateien bei 220GB).
Vorschläge eurerseits, um den Prozess bei einem üblichen Generationenprinzip zu verkürzen?
MfG
Autokiller677