Beratung Backup Strategie

Autokiller677

Semiprofi
Thread Starter
Mitglied seit
09.06.2009
Beiträge
1.161
Hallo Allerseits,

ein Freund (Selbstständig, Ein-Mann Unternehmen) hat mich um Tipps für das Backup seiner Daten gebeten.

Folgende Situation: 1 Arbeits-PC, 1 Laptop, 3 weitere PCs der Familie, 1 Server.

Der Server ist ein "Home"Server mit XP drauf, normale Desktophardware. Die Daten aller PCs und des Laptops werden mehrmals täglich auf den Server gesynct (sofern die PC's an sind natürlich). Der Server spielt auch noch Medienzuspieler für die Home PCs, in einer Linux VM läuft ein Mailserver für die ganze Familie.

Soweit, so gut.

Jetzt zum Backup der Daten: Bisher hat er 2 Platten, die er im Wechsel wöchentlich anklemmt und die Daten synct. Keine Generationen oder so.

Jetzt wollte er wöchentlich ein Vollbackup anlegen und 4 Wochen behalten, dann für 6 Monate ein Monatsbackup behalten, übliches Generationenprinzip halt.

Problem: Die Daten (jetzt erstmal nur die Geschäftsdaten und wichtigen Dokumente der Home Rechner, Musik und Filme sind nicht so wichtig) umfassen 170GB (Büro besteht seit 10 Jahren, wird also so schnell nicht mehr werden) und 100.000 Dateien. Und da liegt das Problem.
Das sind entweder ein paar Hundert MB große CAD Dateien und kleine Word und PDF Dateien größtenteils im 2 stelligen KB Bereich.

Das simple Kopieren der Daten dauert (da so viele Zugriffe und daher geringe Transferrate) schon um die 15h (Platte über SATA angeklemmt). Eigentlich wollte er die Daten noch komprimieren um Platz zu sparen (bringt ca. 30-40% also nicht zu verachten) allerdings dauert dann ein Backup um die 30-35h, was einfach zu lange ist.

Das einzige, was mir bisher eingefallen ist um den Prozess zu verkürzen, wäre kleine Einzelplatten zu kaufen und auf alle ein aktuelles Abbild zu kopieren und sie dann halt zum entsprechenden Zeitpunkt immer nur zu syncen. Er bräuchte dann zwar um die 10 Platten, dafür wäre halt der Prozess schneller erledigt (es werden nicht viele Dateien pro Tag verändert, sync von Rechner zu Server dauert so 10Min).

Die Menge der Dateien lässt sich leider nicht verringern. Alte Projekte und nicht oft benötigte Dateien sind alle schon komprimiert und in jeweils eine Datei verpackt (vorher waren es so um 300k Dateien bei 220GB).

Vorschläge eurerseits, um den Prozess bei einem üblichen Generationenprinzip zu verkürzen?

MfG
Autokiller677
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1. Pushen oder Nachhaken brauchst du hier nicht. Wenn Leute ne Meinung haben, werden sie diese zum entsprechenden Zeitpunkt auch Kundtun.

2. Archivierung schon gehört? Machste nen Archiv mit alle Dateien die zB älter 0,5y ist und schon sparste Zeit. Das wird dann immer mitgesynct.

3. Der Vorteil des Generationenprinzips ist auch gleich das Problem. Für jede Generation brauchst du entsprechende Medien, das ist ja der Vorteil, das kostet natürlich Geld.
 
1. Sry, kommt nicht wieder vor
2. Vllt hab ich mich oben etwas unklar ausgedrückt, jetzt wo ich nochmal drüber lese. Die alten Projekte etc. sind alle in 1 Datei pro Projekt gezippt, so dass alles unnötige schon zusammengefasst ist. Älter als ein halbes Jahr oder so geht nicht, da so ein Projekt (geht hier um Statiken z.B. für den Bau einer Müllverbrennungsanlage oder so) manchmal deutlich länger als halt die 6 Monate oder so läuft.

Die vielen kleinen (und auch dauerhaft benötigten Dateien) kommen von irgendwelchen Normen u.ä. die dann in vielen kleinen PDF's oder als HTML's verpackt sind. Keine großen, aber halt viele Dateien.

3. Medien sind ja halt nicht das Problem, sondern eher die Zeit die es zum Bespielen braucht. Ich habe es beim Generationenprinzip bisher immer so gehandhabt, das ich z.B. für die 4 wöchentlichen Vollbackups 2 Medien hatte die im Wechsel bespielt wurden. Wenn eins ausfällt, war schlimmstenfalls die Arbeit von 2 Wochen weg.

Mein Freund hat auch noch eine ext. HDD auf die er täglich synct, deshalb dachte ich auch erst, das ich dieses Prinzip bei ihm anwende. 2 Platten für die wöchentliche Backups und 3 für die monatlichen. Dann sind die Daten noch auf der ext. Platte und auf dem Server. Die Wahrscheinlichkeit, dass das alles auf einmal ausfällt ist ja relativ gering. Viren etc - gut, können vorkommen, aber einen Virus der Dateien löschend Amok läuft bemerkt man normalerweise in ein - zwei Wochen denk ich, und irgendwo muss man halt auch mal die Kirche im Dorf lassen. Hier gibt es zum Glück keine Mitarbeiter als Sicherheitslücke, er ist sowieso sehr vorsichtig im Internet und surft auch nicht viel (hin und wieder mal Nachrichten lesen und eine google Suche, mehr nicht). Virenprogramm läuft auf dem PC und naja. Irgendwann wird das Aufwand/Nutzen Verhältnis halt schlecht.

Zu guter Letzt spielt halt bei so einem 1 Mann Büro der finanzielle Aspekt auch eine Rolle. Devise ist hier es kostet so viel wie nötig, aber so wenig wie (sinnvoll) möglich. Wenn es halt nicht anders geht, würden eben auch 8 oder 10 Platten gekauft, aber wenns halt nicht sein muss beschwert sich auch keiner über die fehlenden Kosten.
 
Zuletzt bearbeitet:
@1. :bigok:

Aber er wird ja nun keine 100000 Dateien und 170GB haben, mit denen er täglich arbeitet.

Da muß man mal richtig die Daten analysieren und sehen, sobald nen Projekt durch ist, dass man das archiviert.

Alternativ kannst du natürlich immer inkrementell backuppen. Sprich das, was auch wirklich verändert wurde, wird gebackupt.
(ist so ähnlich wie nen Sync)
 
Zuletzt bearbeitet:
kann man die Projekte nicht generell in irgendwelchen Containerformaten ablegen oder halt truecrypt/VHDs verwenden? so ließen sich die kleinen Dateien automatisch als große zusammenfassen und mit voller Geschwindigkeit verschieben
 
So ein Lauf sollte doch mit rsync in wenigen Stunden geschafft sein oder?
Inkrementelle Backups verringern den Zeitlichen Aufwand gegenüber Vollsicherungen erheblich.
Nach 10 Tagen sind ja auf allen Medien schon alte stände der Daten, so dass die Sicherungen wenn nur Änderungen übertragen werden nicht so lange dauern sollten.

Ich würde mir für ein ein-Mann Unternehmen überlegen, ob ich die wichtigsten Daten evtl. auch verschlüsselt irgendwo ins Netz schieben würde.
Zumindest soviel, dass man im schlimmsten Fall noch in der Lage ist Pflichten gegenüber dem Finanzamt nachzukommen und Rechnungen zu schreiben. Muss ja nicht täglilch sein, aber würde mich schon ruhiger schlafen lassen.
 
rsync hab ich noch nicht probiert, aber auch da müssen die Dateien ja geschrieben werden.
Ich werde es mal ausprobieren.
Inkrementell ist natürlich eine Lösung, aber leider halt immer noch von einem Vollbackup abhängig, das nicht so oft geschrieben wird. Aber eine Überlegung ist es wert.

Das Hochladen im Netz ist eine schöne Idee, aber bei einer DSL2k und 20kB upload Leitung werden selbst 100-200MB mit dem Wichtigsten zur Qual.

Ich werd die Tage nochmal mit meinem Freund sprechen, ob man die Dateimenge vllt nicht doch noch was Reduzieren kann. Werde dann noch mal berichten.
 
Dann nimm halt große externe HDDs fürs Backup.
Also sagen wir du willst vier Wochenstände haben und sechs Monatsstände. Das heist du brauchst 4x Wochen HDDs und 6x Monats HDDs.
Immer Freitags/Samstags/Sonntags (je nach Wahl außer den letzten im Monat) wird dann die Wochen HDD beschrieben, jeweils immer inkrementell. Entweder über eine Backup Software welche das Backup in Containerfiles packt und gleich noch komprimiert oder aber per Script/ähnlichem, welches die Daten nur wegkopiert.

Und am letzten Freitag/Samstag/Sonntag im Monat nimmst du die Monats HDD.
Auch wieder per Script oder über Software.

Sobald alle HDDs erstmal einen Datenbestand haben kannst du auf diesen immer inkr. drauf sichern. Bzw. beim Script einfach einen Abgleich der Änderungen fahren.
Das heist, für die Wochen HDDs müssen jeweils immer die Änderungen der Woche geschrieben werden und für die Monats HDDs jeweils die Änderungen im Monat.

Das ganze rotiert dann durch...


Es heist also, das du einzig beim aller ersten Vorgang ein Vollbackup fährst und alle weiteren Stände dann nur die Änderungen hinten dran schieben.


Ansonsten, wenn gar nix weiter hilft, dann müssen schnellere HDDs her ;) Sprich 15k SAS HDDs oder vllt sogar SSDs kompensieren die Problematik mit extrem kleinen Files enorm. Kosten aber auch gut Geld.
Alternativ könnte man beispielsweise den Fileserver virtualisieren... Und dann die Daten HDD bzw. das Containerfile für die virtuelle HDD einfach per Snapshot Verfahren wegsichern. Das ganze geschieht dann mit höchster sequenzieller Datenrate, was die Technik kann. Mit 200GB bist da also sehr sehr schnell dabei. Nachteil ist, du kannst nur bedingt inkrementell sichern. Einfach weil das Containerfile bei jeglichen Änderungen immer komplett gesichert werden müsste. Bei der Datenmenge aber wohl noch vernachlässigbar...
 
Zuletzt bearbeitet:
würde dir auch zu einem fileserver raten wo du alle daten ablegst
ausserdem kannst du nicht mehr geänderte daten in ein archiv verschieben, das muss dann schonmal vorneweg nie wieder "gesynct" werden
desweiteren legst du einfach ein incoming an in dem aktuell genutzte daten gespeichert werden.
mit rsync gleiche ich beispielsweise ca 15terabyte daten in minuten ab...
hast du schonmal über nen raid1 nachgedacht, statt ständig manuell daten hin und herzuschaufeln?
 
ich habe es so verstanden, als würde er immer festplatten anklemmen und die daten rüberkopieren
viel einfacher wäre es doch ein zusätzliches redundantes raid einzubauen
 
Wie der Threadtitel schon sagt, sucht er nach einer Backupstrategie und in diesem Zusammenhang ist alles hier zu verstehen.

@TE
Ich frage mich, warum Du/Ihr das nicht mit Bändern und einem vernünftigen Streamer macht.
 
Klar klemmt er die Platten immer manuell an, ein RAID5 hat der Server ja schon, aber bei einem Blitz oder Virus ist dann ja trotzdem alles weg, da bringt auch die Redundanz nix mehr. Und jetzt hier bitte keine "RAID ist doch ein Backup" Diskussion, die hatten wir hier im Forum schon oft genug

Bänder / Streamer hab ich mich noch nicht so mit befasst, wäre das nicht ein bisschen Oversized für einen Ein Man Betrieb? Von den Kosten ganz zu schweigen, so billig sind Streamer doch auch nicht oder?
 
Ich denke für den Datenbestand lohnt die Bandgeschichte noch nicht...
Klar sind die Bänder vergleichsweise günstig, aber dafür das Laufwerk recht teuer.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh