Des weiteren kann Veeam auch regelmäßig die Integrität der Dateien prüfen, auch das wird vom Proxy durchgeführt, so dass möglichst wenig WAN-Verkehr anfällt.
Und je nach Version (nutze hier die Enterprise Plus für effektiv alles, da die Lizenzpolitik das so vorschreibt) hat man sogar nach nen WAN Accelerator, welcher nochmal ne ganze Menge bringt in Sachen zu übertragenden absoluten Datenmenge. Nachteil, man braucht sowohl auf der Quell- als auf der Zielseite ne recht große Menge an "Cache", damit das auch effektiv funktioniert. Und vor allem Speed auf dem Storage...
Ansonsten, deiner Ausführung ist ggf. noch hinzuzufügen, dass ein anständiges Backup Konzept entsprechend auch das zyklische Testen der Backup vorsieht. Sprich das Rückspielen der Daten und prüfen der Integrität. Das "Problem", dass ein inkr. Backup nicht funktioniert, stellt sich also dahingehend gar nicht, da es im Falle des Falles auffällt. Und nicht erst im Disasterfall dann einfach nicht funktioniert.
und wenn der nun in der karibik ist und alle leitungen gekappt hat um endlich mal seine ruhe zu haben?
Dann ist es ein ziemlich beschissener Admin -> Meine Meinung. Entweder man fühlt sich für den Spaß verantwortlich oder es gibt ne Vertretung. Dazwischen gibts eigentlich nix...
aber es müsste ja so etwas wie einen backup-server geben, der die daten erstmal fest-hält, bevor einer wieder zugriff bekommt (ändern oder löschen)
im besten fall müsste es vom backup-server eine VPN leitung zu einem anderen server geben (Zentrale), wo das erst mal SAFE ist!
Das ist halt eine Frage des Konzeptes und vor allem auch eine Kostenfrage...
Externes Backup/zweiter Backup-Ort (sofern es sowas überhaupt gibt) muss nicht zwangsweise ein Backup Server an anderem Standort sein. Das kann auch simpel einfach der Transport der Backup Medien aus dem Hauptstandort weg, sein.
PS: Ein Backup-Server hält die Daten auch nicht "fest" und verhindert damit den Zugriff auf die Quelldaten für das Ändern/Löschen.
Eher zieht sich der Backup Server einen Stand x vom Livesystem und hält diesen Stand so lange wie es die Policy vorgibt. Das Livesystem ändert sich da halt trotzdem zyklisch... Ich denke du unterliegst hier einem kleinen Denkfehler. Das ist vom Prinzip her nicht wie der Windows Papierkorb, wo die Daten reinwandern, wenn gelöscht oder so. Wird bspw. eine Datei nach dem Backup erstellt und dann vor dem nächsten Backup geändert/gelöscht, ist das Ding unwiederbringlich weg. Für solche Fälle gibt es spezielle Lösungen abseits simplen SMB Shares...
hatte vor kurzem eine INFO-weiterbildung zum thema Cybersicherheit, und wir sollten eine möglichst "sichere" IT-struktur in unserer abschlussarbeit aufzeigen...
den ganzen zusatztext erspare ich euch - da über 30 seiten - aber meine grafik sah so aus:
Anhang anzeigen 416204
Definiere "sicher"?
So ein Bild in der Theorie zu malen, ist einfach... Die Praxis definiert aber einfach gewisse Bedingungen, die erfüllt sein müssen...
Bspw. entnehme ich deinem Bild, dass du die DMZ völlig abtrennst vom Rest. Das ist in der Theorie möglich, in der Praxis aber idR einfach nicht machbar, da dort oftmals eben nicht nur ein Webserver für ne statische Website und nem DNS Server drin stehen, sondern viel komplexere Dienste. Lass das ein Exchange samt Webmail/ActiveSync Zugriff sein. Ein File-Austausch Dienst ala Nextcloud, ein Sharepoint, ggf. sogar gekoppelt mit NC oder ähnlichem oder auch Client(less) Mobile Access Lösungen, Terminal Server FrontEnd Server, oder sonstige Portale der eigentlich internen IT Infrastruktur, welche aber in Zeiten des Cloudansatzes eben schlicht von überall bedienbar sein müssen...
Ich persönlich halte nur bedingt was von solchen "Werbeveranstaltungen". Vor allem wenn sie von einem Hersteller von "NGFWs" durchgeführt werden. Da bekommst meist einfach die Rosa Rote Wolke und alles ist tutti... Praktisch schaut das aber einfach anders aus.
Das geht hier aber auch deutlich zu weit. Hier gehts eher um simpels SMB.
Wenn jemals auf inkrementell umgestellt würde - wie oft muss sinnvollerweise ein Vollbackup als neue Basis gemacht werden? Je länger das läuft, umso fehleranfälliger stelle ich es mir im Recovery Fall vor. Backup aus 1. Vollbackup und Inkrementen aus den vergangenen 600 Tagen? Da befürchte ich doch theoretisch erheblich mehr Fehlerpotential als bei Vollbackups.
Es kommt stark drauf an, was gemacht werden soll...
Man muss ein Backup Stand, welcher als Disaster Recovery her halten kann und extern liegt ja nicht täglich machen. Technisch gesehen reicht das auch in deutlich längeren Abständen.
Du hast, egal wie man es dreht, ab gewissen Datenmengen einfach das Problem, das gar nicht auf das Storage zurück gespielt zu bekommen, weil irgendwas limitiert.
Und WENN dir dann nicht auch ein ein paar Tage altes Backup reicht, dann hat man als Unternehmen irgendwo am falschen Ende gespart
Ich sichere hier bspw. mehrere hundert GB Änderungen inkr. täglich via Veeam. Und jeweils am WE ein (active full) Vollbackup. Der Stand des Backups lässt sich deswegen aber trotzdem extern jeweils zum vorherigen via Änderungsdatenmenge übertragen. -> eins der größten Vorteile einer gescheiten Backup Lösung
Da wird komprimiert, gepackt und dedubliziert, was das Zeug hält. Am Ende ist es immer nur ein "Muster" von Unterschieden zum alten Stand -> und diese Änderungen werden einfach übertragen. (und sind idR extrem viel kleiner als der eigentliche Datenbestand)
Solange das am Ende wieder raus kommt, was am Anfang rein geschrieben wurde, ist es auch völlig egal, WIE er das macht... Vertrauen in die "Lösung" als solches brauch es aber so oder so.