SBS2011 und VPN

xrated

Enthusiast
Thread Starter
Mitglied seit
31.01.2007
Beiträge
623
Mit erstaunen stelle ich fest das SBS2011 immer noch so ausgelegt ist das man für VPN eine separate NIC verwendet.

Aber warum ist das so?

Externe Router sind schon längst Standard und man fügt damit nur zusätzliche Komplexität hinzu. Und wenn der Server nicht funktioniert, kommt kein Client mehr ins Netz. Routing über Server ist eigentlich generell unüblich auch in größeren Netzwerken.

VPN funktioniert auch mit nur einer NIC aber ob das offiziell so supported wird?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Seit dem SBS 2008 gibt es weder den ISA 2006 noch den TMG 2010 inkl. eben weil man seitens MS gesagt hat, das Routing idR über externe Geräte erfolgt.
MS selbst empfiehlt für den SBS soweit ich weis auch nur eine NIC. Wie es mit der VPN Funktionalität ausschaut, weis ich aber nicht so 100%. Weil ich das nicht nutze, da es wie du schon sagtest, externe Geräte gibt, die es wohl gar besser können...
 
Ich habe einer dieser Wizards (*sic*) ausgeführt und der meinte, "nö geht nur mit 2 Nics, mache ne benutzerdefinierte Config statt dessen"

Es funktionierte VPN sogar mit externem DHCP obwohl man ja auch unbedingt den von MS nutzen soll.

Was ist eigentlich mit der Datensicherung, ist da irgendwas spezielles oder neues dabei? Anscheinend werden auch keine Tapes oder NAS unterstützt. Ne externe USB HDD stelle ich mir jedenfalls nicht grad als geeignetes Sicherungsmedium vor.

VPN im Server finde ich ansonsten eigentlich schon sinnvoll weil man auf AD zugreifen kann im Gegensatz z.B. bei einer Fritzbox
 
Zuletzt bearbeitet:
Ist beim 2k8 R2 auch so. VPN braucht 2 NICs, das gute alte RAS geht wie gewohnt mit einer NIC und kann externen DHCP nutzen, oder einen eigenen.
 
VPN geht auch mit 1 NIC, habs getestet. Nur warum sagt MS 2 ?
 
Ich habe einer dieser Wizards (*sic*) ausgeführt und der meinte, "nö geht nur mit 2 Nics, mache ne benutzerdefinierte Config statt dessen"

Es funktionierte VPN sogar mit externem DHCP obwohl man ja auch unbedingt den von MS nutzen soll.

Was ist eigentlich mit der Datensicherung, ist da irgendwas spezielles oder neues dabei? Anscheinend werden auch keine Tapes oder NAS unterstützt. Ne externe USB HDD stelle ich mir jedenfalls nicht grad als geeignetes Sicherungsmedium vor.

VPN im Server finde ich ansonsten eigentlich schon sinnvoll weil man auf AD zugreifen kann im Gegensatz z.B. bei einer Fritzbox

Neja die Stino Assistenten sind die vom 2008 R2, der ja drunter tuckert. Für den SBS Funktionsumfang sollte man die Möglichkeiten der SBS Konsole nutzen. Und dort gibt es laut meinem schlauen Buch :fresse: auch ne Möglichkeit das VPN einzurichten. ;)
Da steht übrigens nix von mehreren NICs, nur der Hinweis, das man möglichst nicht das interne LAN des SBS auf 192.168.0.x oder 192.168.1.x setzen sollte, da sonst wohl Überschneidungen mit dem VPN Netzwerk auftreten können und somit Zugriffe eventuell nicht funktionieren, weil der PC denkt, er befindet sich im LAN selbst anstatt die Pakete durch den Tunnel zu blasen ;)


Übrigens, zum letzten, sogut wie jede ordentliche VPN Lösung lässt sich via externem LDAP authentifizieren ;) Es ist halt oft nur ein recht hoher Einrichtungsaufwand, vor allem bei Linux/Unix basierten Lösungen, wo halt kein Klicki Bunti (und schon gar keine SBS Kinderleicht Assistenten) vorhanden sind...


EDIT:
Achso zum Thema Datensicherung. MS hat die Funktionen der SBS 2008 Datensicherung etwas erweitert, im Grunde ists aber noch das Selbe...
Man kann aber jetzt auch auf externe Quellen sichern.
Wo der SBS 2008 noch dedizierte ne externe HDD haben wollte, kann man das jetzt bequem auf Laufwerke oder gar Netzlaufwerke sichern. Ich nutze bei mir @Home mit dem 2011er SBS zum beispiel zwar immer noch ne externe USB 2,5" HDD, aber ich habe diese Partitionstechnisch geteilt, ein grob 150GB Teil für die SBS Geschichten, die sich bei erreichen des Platzlimits selbstständig von hinten an wieder überschreiben, und andererseits ne große Partition, wo meine VCB Sicherungen der ganzen VMs auf vom ESX drauf landen... Sinnigerweise läuft VCB bei mir auf dem SBS mit und wird via Taskplan gezielt zu den gewünschten Zeiten gestartet um die VMs abzuziehen. Das währe mit dem SBS 2008 nur mit ner externen USB HDD und nem weiteren Medium für VCB möglich gewesen...
Bandlaufwerke gehen aber nach wie vor nicht... Halte ich aber auch etwas für übertrieben muss ich sagen, da der SBS ja nicht für derart große Firmen im Einsatz ist, wo Bandlaufwerke potentiel zum Einsatz kommen.
Aber auch dort werden ja die Daten meine ich idR irgendwie vor dem Schreiben aufs Band zwischen gebunkert auf nem schnell verfügbaren Backup Storage und dann für die Generationsprinzipsicherungen auf die Bänder geschrieben. Man könnte also auch hier dem SBS sagen, sicher irgendwo auf ne HDD oder ein Share und dann nutzt man ne externe Software, die Bandlaufwerke kann, zum wegsichern der Backups vom SBS. Was auch immer den Vorteil bringt, das beim Backup Vorgang aufs Band die Performance der Quell Daten nicht beeinträchtigt wird. Und andererseits die Datenrate ziemlich konstant hoch gehalten werden kann, da keine User wärenddessen das Quellstorage belasten (sofern man das physisch trennt)
 
Zuletzt bearbeitet:
VM ist net so wichtig. ^^

Innerhalb eines Netzes und dann eingelogt?
(und war der 2k11 nehm ich ma an?)

Alles 1 Subnet und DHCP lief auf Router
SBS2011 Standard

---------- Beitrag hinzugefügt um 21:24 ---------- Vorheriger Beitrag war um 20:48 ----------

Und dort gibt es laut meinem schlauen Buch :fresse: auch ne Möglichkeit das VPN einzurichten. ;)

Stimmt, hab ich jetzt auch gefunden. Allerdings steht dann da bei Konfigurationsabschluss das keine Ports auf dem Router geöffnet werden können. Aber VPN wird wohl noch funktionieren denk ich.

Mit diesen ganzen Wizards hat man irgendwie das Gefühl als wollte MS selbst der Putzfrau ermöglichen den Server einzurichten. Kommt mir jedenfalls so vor, wenn man Konsole gewohnt ist.

Achso zum Thema Datensicherung. MS hat die Funktionen der SBS 2008 Datensicherung etwas erweitert, im Grunde ists aber noch das Selbe...

Also nichts in Richtung Dedup? Wird jeder Backupsatz eigenständig gespeichert? Kann man nach Generationen löschen oder nur nach Zeit?

oder gar Netzlaufwerke sichern.

soweit kam ich gar nicht, es wird nur nach lokalen HDDs gesucht

Bandlaufwerke gehen aber nach wie vor nicht... Halte ich aber auch etwas für übertrieben muss ich sagen, da der SBS ja nicht für derart große Firmen im Einsatz ist, wo Bandlaufwerke potentiel zum Einsatz kommen.

Also in größeren Firmen ist Band out, kostet zuviel Zeit beim wechseln, Probleme mit Hardware etc. Hatte mal früher 8x LTO Laufwerke in 3 großen Autoloadern zu verwalten und irgendwann hat man einfach Probleme diese enormen Datenmengen zu sichern (täglich Full). Wenn man dann noch lauter VMs wird man beim sichern der einzelnen Dateien irgendwann nicht mehr fertig weil die VMs die Daten nicht schnell genug liefern. Da ist Backup mit Dedup und Snapshots dagegen ne feine Sache. Wobei für ganz kleine Firmen ist Band recht teuer wenns größere Datenmengen sind.

Auf jedenfall ...
Nur auf eine einzige HDD zu sichern, wäre mir zu unsicher auch wenns RAID ist. Grad USB wär für mich undenkbar in einer Firma.

Aber auch dort werden ja die Daten meine ich idR irgendwie vor dem Schreiben aufs Band zwischen gebunkert auf nem schnell verfügbaren Backup Storage und dann für die Generationsprinzipsicherungen auf die Bänder geschrieben.

Normal werden die eigentlich nur einmal auf Band geschrieben.

Man könnte also auch hier dem SBS sagen, sicher irgendwo auf ne HDD oder ein Share und dann nutzt man ne externe Software, die Bandlaufwerke kann, zum wegsichern der Backups vom SBS. Was auch immer den Vorteil bringt, das beim Backup Vorgang aufs Band die Performance der Quell Daten nicht beeinträchtigt wird. Und andererseits die Datenrate ziemlich konstant hoch gehalten werden kann, da keine User wärenddessen das Quellstorage belasten (sofern man das physisch trennt)

Disk to Tape ist ne prima Sache.
Hab sowas ähnliches auch vor. SBS läuft auf ESX. Per GhettoVCB wird das vmdk auf einen Winserver kopiert. Anschließend wird das vmdk gemountet, einzelne wichtige Dateien lokal auf Disk kopiert und anschließend auf Band gesichert. Vorteil dabei, man braucht keine sauteuren Backupagents mehr. Nachteil ist halt das es noch länger dauert aber dafür hat man 2 Backups.

Wird bei SBS eigentlich auch SQL,Exchange gesichert?
 
Stimmt, hab ich jetzt auch gefunden. Allerdings steht dann da bei Konfigurationsabschluss das keine Ports auf dem Router geöffnet werden können. Aber VPN wird wohl noch funktionieren denk ich.
Das ist vollkommen normal ;)
Der Router der als Default Gateway dem SBS mitgeteilt ist, wird kein UPnP können, dementsprechend kann der SBS nicht selbst diesen konfigurieren und somit bleiben die Ports dicht...
Wobei ich gerade bei solchen Themen lieber selbst Hand anlege anstatt das automatisiert zu machen.

Kann man nach Generationen löschen oder nur nach Zeit?
Man kann gar nicht löschen, soweit ich weis... Die SBS Sicherung läuft meine ich immer inkrementell. Baut also auf den letzten Sicherungsstand auf. Dabei ist es aber egal, von wann der ist. Daher empfiehlt es sich, mit mehreren Backup Medien zu arbeiten. Die dann rotierend durchgearbeitet werden. Will man Backupplatz frei bekommen, sollte man möglichst ein weiteres Medium anschaffen und die Daten eines alten dann so lange aufheben, wie nötigt und dann in Summe plätten, anstatt da einzelne Files rauszuhauen. Denn das wird wohl in die Hose gehen...

Also in größeren Firmen ist Band out, kostet zuviel Zeit beim wechseln, Probleme mit Hardware etc. Hatte mal früher 8x LTO Laufwerke in 3 großen Autoloadern zu verwalten und irgendwann hat man einfach Probleme diese enormen Datenmengen zu sichern (täglich Full). Wenn man dann noch lauter VMs wird man beim sichern der einzelnen Dateien irgendwann nicht mehr fertig weil die VMs die Daten nicht schnell genug liefern. Da ist Backup mit Dedup und Snapshots dagegen ne feine Sache. Wobei für ganz kleine Firmen ist Band recht teuer wenns größere Datenmengen sind.
Durchaus richtig, aber ganz so Out ist das nicht, wie man denkt... Für größere Datenmengen gibts dann größere Maschinen ;)
Ganze Librarys oder Bandroboter mit mehreren Laufwerken, die den Spaß dann Kasettenweise beschreiben. Und die Bandkapazität steigt eigentlich auch ähnlich der HDD-Größen aktuell. Zumal in dem Umfeld dann eher auf SAS HDDs mit mehr Speed gesetzt wird, als auf riesige 2-3TB SATA HDDs. Und im schnellen SAS Sektor bewegt sich aktuell seit ner Zeit eher wenig...
Gerade wenn es darum geht, sehr lange Zeiten vorzuhalten punkten die Bänder. Weil deren Haltwertszeit deutlich höher ist... als beispielsweise von HDDs oder ähnlichem.

Auf jedenfall ...
Nur auf eine einzige HDD zu sichern, wäre mir zu unsicher auch wenns RAID ist. Grad USB wär für mich undenkbar in einer Firma.
Beim Thema USB macht man die Unsicherheit durch die Masse der Backupmedien weg. Vorteil, es geht halt schnell und ist quasi recht kosteneffizient pro GB.

Normal werden die eigentlich nur einmal auf Band geschrieben.
Schon klar, aber hundert tausende kleine Office Files mit wenigen KB Größe in Datenmengen von mehreren hundert GB bekommst du selbst mit den dicksten Storage Systemen nicht anständig kopiert. In den Firmen wo ich tätig war, ist man den Weg gefahren, das ganze in Containerfiles zwischen zu sichern, und diese Container dann aufs Band zu schreiben. Bzw. man hat Snapshotverfahren der Storagelösungen usw. genutzt und dann die Snapshots sequenziel weggesichert. Klappt eigentlich ganz sauber. Nachteil, man braucht halt Platz zum zwischensichern ;)



Disk to Tape ist ne prima Sache.
Hab sowas ähnliches auch vor. SBS läuft auf ESX. Per GhettoVCB wird das vmdk auf einen Winserver kopiert. Anschließend wird das vmdk gemountet, einzelne wichtige Dateien lokal auf Disk kopiert und anschließend auf Band gesichert. Vorteil dabei, man braucht keine sauteuren Backupagents mehr. Nachteil ist halt das es noch länger dauert aber dafür hat man 2 Backups.

Wird bei SBS eigentlich auch SQL,Exchange gesichert?

Macht das Sinn?
Warum erst die VM sichern, dann von der Sicherung nochmal einzelne Files rausziehen?
Dann kannst du gleich die Files von der Quelle, sprich dem SBS ziehen und die VM als FullBackup zusätzlich wegsichern.

Übrigens, nahezu alle Personen die ich kenne, und die mit dem SBS ab 2008 zu tun haben, raten dringenst davon ab, den SBS via Snapshotverfahren zu sichern... Das soll wohl im Ernstfall idR in die Hose gehen... Fürs reine Filesystem wohl kein Problem, für SQL, Exchange, AD usw. wohl aber recht unbrauchbar...

Im SBS Backup ist alles mit drin. Beim Rückspielen läuft der Kasten genau so wieder, wie beim Sicherungszeitpunkt. Problem ist wohl, man kann sich nicht so recht aussuchen, was genau man zurückspielen will. Ganz oder Garnicht ist wohl das Motto dort. Ähnlich der aktuellen ActiveDirectory Backup Ansätze...

PS: der nächste Nachteil ist, das Exchange und SQL Logfiles nicht bereinigt werden, wenn man kein "anständiges" Dienstbasiertes Backup durchführt. Beim SQL wohl eher kein Problem, das geht mit wenigen Befehlen über das Mgmt Studio zu bereinigen, beim Exchange schon eher ;) Vor allem wenn ordentlich Mailfluss auf dem Kasten herscht...
 
Man kann gar nicht löschen, soweit ich weis

Also dann nicht zu gebrauchen wenn nicht ständig einer aufpasst, was ja grad in kleinen Firmen der Fall ist.

Durchaus richtig, aber ganz so Out ist das nicht, wie man denkt... Für größere Datenmengen gibts dann größere Maschinen ;)

Das waren 2 Dell Powervault 136T und 1x Dell ML6000. Das sind halt schon die größten Geräte von Dell.

Ganze Librarys oder Bandroboter mit mehreren Laufwerken, die den Spaß dann Kasettenweise beschreiben.

Ja und die VMs können nicht schnell genug Daten liefern. Da machts in der Praxis wenig Unterschied ob man LTO-1,2 oder 3 hat weil das Laufwerk nur am warten ist nur 1 Server gleichzeitig sichern kann.

Gerade wenn es darum geht, sehr lange Zeiten vorzuhalten punkten die Bänder. Weil deren Haltwertszeit deutlich höher ist... als beispielsweise von HDDs oder ähnlichem.

Vor allem verliert man bei Band nicht mit einem Schlag sämtliche Daten wie bei einer Storage. Natürlich sollte man da immer Full sichern.

Beim Thema USB macht man die Unsicherheit durch die Masse der Backupmedien weg. Vorteil, es geht halt schnell und ist quasi recht kosteneffizient pro GB.

Wenn es nicht zuverlässig ist, nutzt das aber auch nichts. Ich würde nie an einem Server was anderes an USB hängen als Tastatur/Maus.

Schon klar, aber hundert tausende kleine Office Files mit wenigen KB Größe in Datenmengen von mehreren hundert GB bekommst du selbst mit den dicksten Storage Systemen nicht anständig kopiert.

Gerade dann geht das mit Storage besser -> Snapshots
Aber Tape to Tape hab ich noch nie gehört.

Ich habe auch mit Backupsoftware gearbeitet die europaweit die Daten der Filialen eingesammelt hat, dass waren 10TB die täglich doppelt gesichert wurden.

Macht das Sinn?
Warum erst die VM sichern, dann von der Sicherung nochmal einzelne Files rausziehen?
Dann kannst du gleich die Files von der Quelle, sprich dem SBS ziehen und die VM als FullBackup zusätzlich wegsichern.

Es gibt keine Backupagents und es ist ein SBS 2003.
Ich will unter ESX auch kein Bandlaufwerk einbauen.
Es gibt aber einen extra Backupserver aber der hat nur Backupexec Quickstart sowie NFS Server.
Es hätte so halt den Vorteil das man selbst tagsüber sichern könnte und das man keine Agents braucht.

Übrigens, nahezu alle Personen die ich kenne, und die mit dem SBS ab 2008 zu tun haben, raten dringenst davon ab, den SBS via Snapshotverfahren zu sichern... Das soll wohl im Ernstfall idR in die Hose gehen... Fürs reine Filesystem wohl kein Problem, für SQL, Exchange, AD usw. wohl aber recht unbrauchbar...

hab ich noch nie gehört.
Meinst du nicht eher VSS basiert?
Gut man könnte auch in SQL einen Dump machen und das ganze per ntbackup (das kann ja exchange) auf ein cifs share schieben.
Oder man fährt die VM einfach runter vor dem Snapshot.
 
Zuletzt bearbeitet:
Also dann nicht zu gebrauchen wenn nicht ständig einer aufpasst, was ja grad in kleinen Firmen der Fall ist.
Wieso? Was willst du löschen?
Da kann nix passieren, ist der Platz ausgereizt, überschreibt sich der Spaß von vorn selbst...
Und das Backup kontrolieren sollte man in jedem Fall, ob SBS oder stino Server...

Ja und die VMs können nicht schnell genug Daten liefern. Da machts in der Praxis wenig Unterschied ob man LTO-1,2 oder 3 hat weil das Laufwerk nur am warten ist nur 1 Server gleichzeitig sichern kann.
Das ist quatsch...
Wer die teilweise hundert tausende Euros für ganze Bandroboter ausgibt, hat auch ein sau schnelles Storage hinten dran.
VMs lassen sich bequem via Snapshots sichern. Nur muss man eben den Snapshot irgendwo hin zwischen speichern, bevor er aufs Band kann... Das gleiche gilt auch für die Fileshares, die dann idR gesnapshotet werden und wo dann der Snapshot selbst weggesichert wird, auf ein Backup Storage und von dort dann aufs Band gelangt.


Wenn es nicht zuverlässig ist, nutzt das aber auch nichts. Ich würde nie an einem Server was anderes an USB hängen als Tastatur/Maus.
Reine Panikmache... Ich habe bis dato noch kein USB Gerät gehabt, was nicht funktionierte... Auch nach Jahren Betrieb keine Ausfälle.


Gerade dann geht das mit Storage besser -> Snapshots
Aber Tape to Tape hab ich noch nie gehört.
Wieso Tape to Tape?
Ich sagte (Quell)Disk to (Backup)Disk. Und von (Backup)Disk dann to Tape...
Weil (Quell)Disk direkt to Tape eben bei kleinen Files nicht sauber laufen muss...

hab ich noch nie gehört.
Meinst du nicht eher VSS basiert?
Gut man könnte auch in SQL einen Dump machen und das ganze per ntbackup (das kann ja exchange) auf ein cifs share schieben.
Oder man fährt die VM einfach runter vor dem Snapshot.

Nein, ich meine Snapshots, die den Systemzustand der VM oder Maschine selbst sicher...
Das steht in diversen Büchern, und auch bei MS selbst im Handbuch bzw. glaube sogar irgendwo auf der Page...
 
Da kann nix passieren, ist der Platz ausgereizt, überschreibt sich der Spaß von vorn selbst...

Na genau sowas ist eine Policy, wo du oben noch geschrieben hast, sowas gibts nicht. Was genau passiert da, wird einfach ein neuer Full gemacht?

Das ist quatsch...
Wer die teilweise hundert tausende Euros für ganze Bandroboter ausgibt, hat auch ein sau schnelles Storage hinten dran.

Soviel kosten die Bandroboter auch wieder nicht aber ich meinte auch das man bei Tapeonly Backup irgendwann nicht mehr hinterher kommt wenn man täglich alle Server full sichern will.
Nun mal angenommen man hat eine große Storage und die auch noch im Cluster. Da legst du jetzt 100 Server ab und versuchst ganz normal die Files über Backupagent auf Band zu sichern. Das ganze ist extrem ineffizient weil die Storage nicht hinterher kommt. Vor allem wenn man auf Filelevel liest, erzeugt das IO ohne Ende mit mehreren Backupstreams gleichzeitig ohne das groß was drumrum kommt. Hätte man lauter einzelne Server ginge das wesentlich schneller. Aber auch am Backupserver hat man einen Flaschenhals (die NIC). Da gibts einfach wesentlich intelligentere Methoden um zu sichern.


VMs lassen sich bequem via Snapshots sichern. Nur muss man eben den Snapshot irgendwo hin zwischen speichern, bevor er aufs Band kann...

Ja das geht aber auf größeren Umgebungen macht man gleich Snapshots auf der Storage selbst und nutzt Technologien mit Deduplikation um nicht jedes mal die gesamten Daten kopieren zu müssen. Normales VCB wird ab einer gewissen Größe auch zu langsam.

Ich glaube wir sollten mal wieder zu SBS zurück kommen :cool:
 
Na genau sowas ist eine Policy, wo du oben noch geschrieben hast, sowas gibts nicht. Was genau passiert da, wird einfach ein neuer Full gemacht?
Nein ich habe gesagt, man kann nicht selbst Stände löschen und habe mindestens zwei mal schon geschrieben, das bei Erreichen des Speicherplatzlimits eben angefangen wird, die Daten cronologisch beginnend mit dem ältesten zu überschreiben.
Der SBS sichert immer inkrementel außer beim ersten mal. (logisch)
Mit dem überschreiben des ersten Standes wird also der erste inkr. Job überschrieben. reicht dessen Platz nicht, der zweite noch dazu usw.
Man sollte halt den Speicherplatz so wählen (berechnet aus der täglichen Datenmenge, die sich ändert und der Zeit, wie lange man tägliche Stände zurücksicher will) das es nicht dazu kommt, das der Backup Platz für die Sicherung gänzlich zu knapp wird.
Ansonsten empfiehlt es sich wie gesagt noch, mehrere Medien zu nutzen. So das halt das Vortagsmedium im Schrank bleibt und frühstens jeden zweiten Tag beschrieben wird. Um Redundanzen im Backup selbst zu schaffen. Falls mal ein Medium ausfällt wäre sonst das ganze Backup hinüber, bei zwei Medien nur jeder zweite Stand, bei dreien nur jeder dritte usw.


Soviel kosten die Bandroboter auch wieder nicht aber ich meinte auch das man bei Tapeonly Backup irgendwann nicht mehr hinterher kommt wenn man täglich alle Server full sichern will.
Nun mal angenommen man hat eine große Storage und die auch noch im Cluster. Da legst du jetzt 100 Server ab und versuchst ganz normal die Files über Backupagent auf Band zu sichern. Das ganze ist extrem ineffizient weil die Storage nicht hinterher kommt. Vor allem wenn man auf Filelevel liest, erzeugt das IO ohne Ende mit mehreren Backupstreams gleichzeitig ohne das groß was drumrum kommt. Hätte man lauter einzelne Server ginge das wesentlich schneller. Aber auch am Backupserver hat man einen Flaschenhals (die NIC). Da gibts einfach wesentlich intelligentere Methoden um zu sichern.
Du verkennst die Lage ;)
Es gibt Bandroboter Lösungen, die füllen ganze Räume. Ich habe so ein Teil damals mal gesehen. Da bist mit hunderttausend Euro lange noch nicht im Rahmen :fresse:
Und Flaschenhälse gibts überall und nirgendwo. Die Technik entwickelt sich kontinurierlich weiter, in jeder Hinsicht. Da gibts heute 10GBit SinglePort NICs mit 1,25GB/sec Datenrate pro Port. Das ganze Trunkbar auf bis acht Ports.

Und wie ich schon sagte, auf Filelevel macht dann keinen Sinn mehr. Vor allem bei extrem vielen kleinen Files. Gepackt in Containern, oder in Snapshots, die sequenziel gelesen werden können, ist das aber durchaus händelbar.


Ja das geht aber auf größeren Umgebungen macht man gleich Snapshots auf der Storage selbst und nutzt Technologien mit Deduplikation um nicht jedes mal die gesamten Daten kopieren zu müssen. Normales VCB wird ab einer gewissen Größe auch zu langsam.
Warum wird VCB zu langsam?
Ob du nun 10 VMs von sagen wir vier HDDs mit ner Gesamtgröße von sagen wir 500GB sicherst, oder ob du nun 100 VMs von 40 HDDs mit ner Gesamtgröße von 5TB sicherst, spielt für VCB keine Rolle. Man muss natürlich dann auch 10 mal so viele VCB Instanzen gleichzeit ausführen um auf die gleiche Backupzeit zu kommen.

Und das mit den Snapshots sagte ich ja bereits. Die Frage ist eher, ob man diese Snapshots dann effizient aufs Band bekommt wenn nebenbei noch die Anwender auf dem Storage rumackern oder ob es effizienter geht, wenn man den Snapshot wegkopiert auf ein dediziertes Storage und von dort aus die Tapes füllt. So hatten wir das damals mit dicken HP EVA Systemen gemacht als zunehmend die Fileserver Agent Version (auf Fileebene) zu langsam wurde...
 
Zuletzt bearbeitet:
Du verkennst die Lage ;)
Es gibt Bandroboter Lösungen, die füllen ganze Räume. Ich habe so ein Teil damals mal gesehen. Da bist mit hunderttausend Euro lange noch nicht im Rahmen :fresse:

Nein du verstehst nicht worauf ich hinaus will ;)
Nämlich das täglich Full Backup auf Band nicht in jeder Umgebung mit Standardbackupsoftware so ohne Probleme mit Limitierung im Budget machbar ist.

Und wie ich schon sagte, auf Filelevel macht dann keinen Sinn mehr. Vor allem bei extrem vielen kleinen Files. Gepackt in Containern, oder in Snapshots, die sequenziel gelesen werden können, ist das aber durchaus händelbar.

Meine Rede. Mit welcher Software geschieht denn dieses packen in Containern?

Warum wird VCB zu langsam?

Weil die Disk irgendwann limitiert und die Zeit zu knapp wird. Bei VCB wird doch jedes mal die komplette Disks gecloned oder nicht?

Wir haben das Backup jedenfalls vor 2 Jahren so gemacht: Snapshots auf Netapp, über die Software Asigra auf "billige" SATA Storage gesichert und die ganz wichtigen Sachen nochmal über Backupexec auf Band.
 
Nein du verstehst nicht worauf ich hinaus will ;)
Nämlich das täglich Full Backup auf Band nicht in jeder Umgebung mit Standardbackupsoftware so ohne Probleme mit Limitierung im Budget machbar ist.
Das stimmt... Ich verstehe nicht worauf du hinaus willst.
Es macht mir den Eindruck, als versuchst du durch Beispiele in konkreten Umgebungen durch simple Erhöhung von einem Part das Band als problematisch darzustellen...

In ner kleinen Umgebung gibts klar weniger Budget aber idR auch weniger zu sichern, in ner großen Umgebung gibts mehr Budget und mehr zu sichern. Das skaliert 1:1, man kann es wohl drehen und wenden wie man will.
Ich sehe dazu noch den Vorteil der Bänder, das auch ne ganze Kiste voll davon enorme Datenmengen fassen und man diese nach Sicherheitskonzept extern lagern kann. Was bei zunehmender Datenmenge und anderen Backupmedien nicht der Fall ist. Zumindest wird es immer mehr eingeschränkt.

Meine Rede. Mit welcher Software geschieht denn dieses packen in Containern?
Das war ein Beispiel... Gibt ja nicht nur die Möglichkeit von "Desktopbackupsoftware" simpel ne Dateisamlung in ein Backupcontainer zu kopieren, sondern andere in größeren Umgebungen dann wohl sinnvollere Sachen.

Weil die Disk irgendwann limitiert und die Zeit zu knapp wird. Bei VCB wird doch jedes mal die komplette Disks gecloned oder nicht?

Wir haben das Backup jedenfalls vor 2 Jahren so gemacht: Snapshots auf Netapp, über die Software Asigra auf "billige" SATA Storage gesichert und die ganz wichtigen Sachen nochmal über Backupexec auf Band.

Auch hier, wie ich im Beispiel sagte, 10 VMs auf vier HDDs mit 500GB gehen annähernd gleich schnell wie 10 VCB Vorgänge bei 100 (10*10) VMs bei 10+500GB und vier * 10 VMs.

Übrigens, ob man täglich alle VMs voll abziehen muss, ist auch so ne Frage ;) Da seh ich so nicht 100% den Sinn drin, vor allem, wenn das OS eigentlich nebensächlich ist, und man nur den Dienst mit seinen Daten braucht ;) Da tuts in meinen Augen auch ein wöchentliches/monatliches Abziehen der VMs selbst und dafür täglich eben das Sichern der reinen Daten... Beispielsweise über Snapshots am Storage selbst.
 
Zuletzt bearbeitet:
Das stimmt... Ich verstehe nicht worauf du hinaus willst.
Es macht mir den Eindruck, als versuchst du durch Beispiele in konkreten Umgebungen durch simple Erhöhung von einem Part das Band als problematisch darzustellen...

In ner kleinen Umgebung gibts klar weniger Budget aber idR auch weniger zu sichern, in ner großen Umgebung gibts mehr Budget und mehr zu sichern. Das skaliert 1:1, man kann es wohl drehen und wenden wie man will.
Ich sehe dazu noch den Vorteil der Bänder, das auch ne ganze Kiste voll davon enorme Datenmengen fassen und man diese nach Sicherheitskonzept extern lagern kann. Was bei zunehmender Datenmenge und anderen Backupmedien nicht der Fall ist. Zumindest wird es immer mehr eingeschränkt.

Lass mich es anders erklären. Früher hatte man lauter physikalische Server. Irgendwann beschließen die Leute das alles zu virtualisieren weils weniger kostet. Vorher hatte man 20 physische Server und hinterher hat man 200 VMs weils ja eben so einfach ist mal eben eine zu erstellen. Das ganze natürlich auf einer einzigen Storage. Und um OS Lizenzen kümmert sich natürlich niemand mehr, aber das nur am Rande.
So und jetzt kommt man daher mit klassischer Datensicherung auf Band und das ganze funktioniert viel langsamer wie vorher. Jetzt erklär mal den Chefs zu brauchst mehr Geld für Datensicherung wo man doch eigentlich sparen wollte.

Es war halt ein Beispiel so wie ich es erfahren habe.

Und nur die wichtigen Daten sichern ist schön und gut aber ich weiß das in größeren Umgebungen die Admins keine Ahnung mehr haben was die Applikationsleute als wichtig betrachten also sichert man doch wieder die ganze Kiste.
 
Der Vergleich hinkt aber ohne Ende...
Wenn vorher 20 Server gereicht haben um alle nötigen Dienste auszuführen, wieso sollten heute dann wegen virtualisierung auf einmal 200 VMs nötig sein?
Das ergibt keinen Sinn...
 
Das macht das Argument bzw. die Sinnhaftigkeit der Argumentation als Grund für nicht Bandbackups aber nicht besser ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh