gelöschte Datei wiederherstellen

diabolo93

Enthusiast
Thread Starter
Mitglied seit
24.09.2008
Beiträge
282
Hi Zusammen,

jemand hat eine Datei von einem Netzlaufwerk gelöscht und der Systemadministrator ist aktuell in Urlaub. Da das schon einmal passiert ist, weiss ich, dass schnell gehandelt werden muss, da die Datei sonst nicht wiederhergestellt werden kann. Wie kann ich die Datei wiederherstellen? (Excel Datei). Ich habe bereits Recuva ausprobiert, dort wird mir das Netzlaufwerk aber nicht angezeigt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn dann müsste Recuva auf dem System gestartet werden, auf dem die Datei liegt oder die Datei muss aus einem (hoffentlich vorhandenen) Backup wiederhergestellt werden.
 
Gibts bei euch keine täglichen Backups oder so? Bei uns würde wenn nix anderes geht die Datei aus dem täglichen Backup wiederhergestellt. Schlechtestenfalls hat man dann halt den Stand von vor maximal 24h.

Grüße
Thomas
 
Wenn mit "Vorgängerversionen" gearbeitet wird -> rechtsklick auf den Ordner wo die Datei mal drin lag -> Eigenschaften -> Vorgängerversionen und gucken ob es dort ältere Stände gibt. Sollte normal auch ein User dürfen, der nicht zwangsweise Adminrechte hat.

Im aller größten Zweifel hat der Systemadministrator doch auch ein Telefon!?
 
Gibts bei euch keine täglichen Backups oder so? Bei uns würde wenn nix anderes geht die Datei aus dem täglichen Backup wiederhergestellt. Schlechtestenfalls hat man dann halt den Stand von vor maximal 24h.

Grüße
Thomas

ich frage mich dasselbe auch! - kein RAID vorhanden in einer firma!? - es müsste doch ständig irgendwo gebackupt werden - oder?!
wieso kann ein mitarbeiter daten von einem netzwerklaufwerk löschen auf das alle zugreifen? - falsche rechteverteilung? - wieso kann der löschen oder überschreiben?
hört sich nach fehlerhafter administration an

Wenn mit "Vorgängerversionen" gearbeitet wird -> rechtsklick auf den Ordner wo die Datei mal drin lag -> Eigenschaften -> Vorgängerversionen und gucken ob es dort ältere Stände gibt. Sollte normal auch ein User dürfen, der nicht zwangsweise Adminrechte hat.

Im aller größten Zweifel hat der Systemadministrator doch auch ein Telefon!?

und wenn der nun in der karibik ist und alle leitungen gekappt hat um endlich mal seine ruhe zu haben? :sleep:

;)
 
ich frage mich dasselbe auch! - kein RAID vorhanden in einer firma!? - es müsste doch ständig irgendwo gebackupt werden - oder?!
wieso kann ein mitarbeiter daten von einem netzwerklaufwerk löschen auf das alle zugreifen? - falsche rechteverteilung? - wieso kann der löschen oder überschreiben?
hört sich nach fehlerhafter administration an
Ein RAID nutzt in einem solchen Fall überhaupt nix. Bei einem RAID 1 werden die Platten nur gespiegelt. Es laufen aber trotzdem (oder besser gerade deshalb) alle Operationen parallel. Heißt so viel wie: Löscht du eine Datei, ist sie auf beiden Datenträgern runter. Alles andere wäre auch unlogisch, es soll ja auf beiden Platten exakt dasselbe sein. Die non-Performance Raid stellen eine Art "Backup" für einen einzelnen Plattendefekt dar, aber nicht für einen Eingriff durch einen Nutzer, der Datenverlust zur Folge hat ;)
Ein Waschechtes Backup bedeutet eine bestenfalls vom Hauptsystem physikalisch getrennte Kopie aller relevanten Daten von einem definierten Zeitpunkt. Würde man die Daten spiegeln, wäre man wieder genauso weit wie mit dem RAID1.
Bei uns hier laufen jede Nacht um 3 die Backups durch. Ich könnte mit der Kapazität die wir haben theoretisch jeden beliebigen Datenstand von Nachts um 3 der letzten 90 Tage abrufen. Weiter als 7 Tage musste soweit ich mich erinnere aber noch nie zurück gegangen werden, um eine verlorene Datei wieder zu finden^^ Vollständiges Recovery war in 10 Jahren noch überhaupt nie nötig.


Und nein, es ist auch keine zwingend falsche Rechteverteilung. Wenn gemeinschaftlich auf Daten nicht nur lesend zugegriffen werden können soll, dann ist das einfach so. Wir haben auf unserm einen Netzlaufwerk irgendwas um 18-20.000 PDFs in den Ordnern. Jeder Mitarbeiter hat an seinem Platz einen Scanner und ballert da täglich Dokumente dazu, ergänzt bereits vorhandene, löscht veraltete Dokumente. Wie sollte sowas ohne Schreibzugriff sauber funktionieren?
Bei reinen Datenarchiven die nur einige wenige Befugte pflegen und alle anderen nur lesend zugreifen müssen ist das evtl. was anderes.

und wenn der nun in der karibik ist und alle leitungen gekappt hat um endlich mal seine ruhe zu haben? :sleep:
Dann gibts vernünftigerweise eine Vertretung. Wenn die Putze ordentlich gegen den Server rappelt kann 'ne Firma nicht 2 Wochen still stehen, bis der Admin die letzte Kokusnuss leer geschlürft hat.

Grüße
Thomas
 
Zuletzt bearbeitet:
@black-avenger
...hast ja schon recht
aber es müsste ja so etwas wie einen backup-server geben, der die daten erstmal fest-hält, bevor einer wieder zugriff bekommt (ändern oder löschen)
im besten fall müsste es vom backup-server eine VPN leitung zu einem anderen server geben (Zentrale), wo das erst mal SAFE ist!
hatte vor kurzem eine INFO-weiterbildung zum thema Cybersicherheit, und wir sollten eine möglichst "sichere" IT-struktur in unserer abschlussarbeit aufzeigen...
den ganzen zusatztext erspare ich euch - da über 30 seiten - aber meine grafik sah so aus:

netzwerk_FINAL.png

AD steht für active directory - der rest müsste eingentlich verständlich sein - das rechenzentrum wäre hier die "zentrale"

EDIT:
NGFW steht für New Generation Firewall
 
Zuletzt bearbeitet:
aber es müsste ja so etwas wie einen backup-server geben, der die daten erstmal fest-hält, bevor einer wieder zugriff bekommt (ändern oder löschen)
im besten fall müsste es vom backup-server eine VPN leitung zu einem anderen server geben (Zentrale), wo das erst mal SAFE ist!
Auf die Backups sollte niemand außer dem Admin Zugriff haben. Aber hier stand doch nirgendwo, dass er die Daten aus einem Backup vernichtet hätte, sondern lediglich aus dem für alle (vermutlich notwendig) zugreifbaren Netzlaufwerk.

Das mit Backup Server außer Haus kannste übrigens getrost vergessen bei entsprechenden Datenmengen. Vielleicht wenn eine synchrone Gigabit Glasfaseranbindung besteht gehts. Aber in 90% der Fälle völlig illusorisch.
Bei unserer aktuellen Anbindung hier würde der Upstream für satte 44 Stunden voll ausgelastet, um ein Backup außer Haus zu schaffen. Und so oder so ähnlich geht's übrigens vielen Mittelständlern.

Dennoch war und ist mir völlig unklar, wieso du zur Datensicherung überhaupt erst ein RAID angeführt hast. Dass evtl. Backup wie auch Produktiv-Server jeweils für sich eines oder mehrere Raid-Arrays laufen haben ist ja durchaus möglich und je nach dem auch sinnvoll. Hat aber trotzdem nichts damit zu tun ob echte Backups da sind oder nicht.

Grüße
Thomas
 
Das mit Backup Server außer Haus kannste übrigens getrost vergessen bei entsprechenden Datenmengen. Vielleicht wenn eine synchrone Gigabit Glasfaseranbindung besteht gehts. Aber in 90% der Fälle völlig illusorisch.
Bei unserer aktuellen Anbindung hier würde der Upstream für satte 44 Stunden voll ausgelastet, um ein Backup außer Haus zu schaffen. Und so oder so ähnlich geht's übrigens vielen Mittelständlern.
Dafür gibt's Datensicherungen, die inkrementell arbeiten. ;) Das erste Vollbackup muss natürlich mit externer Festplatte oder NAS zu der Location gebracht werden, wo die Sicherung letztendlich hin soll. Mit entsprechend komprimierenden und deduplizierenden Programmen, die ggf. auch noch Proxy-Komponenten am Ziel haben (z.B. Veeam Backup&Replication), so dass das Integrieren der inkrementellen Backups in die Vollbackups komplett vor Ort geschehen, kann man auch mit 5-10 Mbit/s recht große Datenmengen über Nacht auslagern, natürlich solange sich nicht hunderte GB Daten pro Tag ändern.
 
ja - das mit dem RAID war zu kurz um die ecke gedacht! - hatte im hinterkopf halt datensicherung im sinne von sich spiegelnden festplatten
mein denkfehler
die grafik die ich eingefügt hatte bezog sich auf eine firmenlösung mit über 200 mitarbeitern - sollte nur ein theoretisches beispiel sein
anyway
deine kritik ist bei mir angekommen!
 
Dafür gibt's Datensicherungen, die inkrementell arbeiten. ;) Das erste Vollbackup muss natürlich mit externer Festplatte oder NAS zu der Location gebracht werden, wo die Sicherung letztendlich hin soll. Mit entsprechend komprimierenden und deduplizierenden Programmen, die ggf. auch noch Proxy-Komponenten am Ziel haben (z.B. Veeam Backup&Replication), so dass das Integrieren der inkrementellen Backups in die Vollbackups komplett vor Ort geschehen, kann man auch mit 5-10 Mbit/s recht große Datenmengen über Nacht auslagern, natürlich solange sich nicht hunderte GB Daten pro Tag ändern.
Ersteres ist absolut korrekt. Erinnert mich auf die Schnelle an Amazon mit den Daten Trucks. Gabs vor garnicht allzu langer Zeit einen Artikel den ich erst mit gewissem Schmunzeln zu lesen begonnen hatte. Zur Erstauslagerung von Daten von Kunden in die Amazon Datencenter fahren die einen Truck mit Storageservern zu den Firmenkunden hin und stöpseln das dann physikalisch an deren Server/Netzwerk um Daten entsprechend schnell zu übertragen, weils über Internet bei großen Datenmengen halt ewig dauern würde.

Bei den inkrementellen Backups muss halt aus dem ersten Vollbackup + den Teilsicherungen wiederhergestellt werden. Ich kanns mir bei unseren Datenmengen (zum Glück) noch leisten jeweils Vollbackups zu fahren.
Wenn jemals auf inkrementell umgestellt würde - wie oft muss sinnvollerweise ein Vollbackup als neue Basis gemacht werden? Je länger das läuft, umso fehleranfälliger stelle ich es mir im Recovery Fall vor. Backup aus 1. Vollbackup und Inkrementen aus den vergangenen 600 Tagen? Da befürchte ich doch theoretisch erheblich mehr Fehlerpotential als bei Vollbackups.

Grüße
Thomas
 
Zuletzt bearbeitet:
Wenn jemals auf inkrementell umgestellt würde - wie oft muss sinnvollerweise ein Vollbackup als neue Basis gemacht werden? Je länger das läuft, umso fehleranfälliger stelle ich es mir im Recovery Fall vor. Backup aus 1. Vollbackup und Inkrementen aus den vergangenen 600 Tagen? Da befürchte ich doch theoretisch erheblich mehr Fehlerpotential als bei Vollbackups.
Zumindest bei Veeam Backup&Replication gibt es eine Funktion, ein "echtes" Vollbackup (Active Full) und alternativ oder zusätzlich ein Vollbackup aus dem vorherigen plus den bis dahin aufgelaufenen inkrementellen Backups (Synthetic Full) zu erstellen. Das muss nicht im selben Abstand geschehen, das Active Full kann z.B. ein Mal im Monat und das Synthetic Full ein Mal die Woche erstellt werden. Das Synthetic Full wird dann vom Proxy erstellt, der normalerweise im selben LAN hängt wie die Backup-Storage, d.h. die Daten des vorherigen Vollbackups plus die inkrementellen Backups werden von diesem Proxy zu einer neuen Vollbackup-Datei vereint, worauf dann wieder inkrementelle Backups aufbauen.
Des weiteren kann Veeam auch regelmäßig die Integrität der Dateien prüfen, auch das wird vom Proxy durchgeführt, so dass möglichst wenig WAN-Verkehr anfällt.

Wie das andere Backup-Produkte machen, weiß ich nicht, da wir nur Veeam für diese Funktion benutzen (nicht zu verwechseln mit "da wir Veeam nur für diese Funktion benutzen" ;) ).
 
Des weiteren kann Veeam auch regelmäßig die Integrität der Dateien prüfen, auch das wird vom Proxy durchgeführt, so dass möglichst wenig WAN-Verkehr anfällt.

Und je nach Version (nutze hier die Enterprise Plus für effektiv alles, da die Lizenzpolitik das so vorschreibt) hat man sogar nach nen WAN Accelerator, welcher nochmal ne ganze Menge bringt in Sachen zu übertragenden absoluten Datenmenge. Nachteil, man braucht sowohl auf der Quell- als auf der Zielseite ne recht große Menge an "Cache", damit das auch effektiv funktioniert. Und vor allem Speed auf dem Storage...

Ansonsten, deiner Ausführung ist ggf. noch hinzuzufügen, dass ein anständiges Backup Konzept entsprechend auch das zyklische Testen der Backup vorsieht. Sprich das Rückspielen der Daten und prüfen der Integrität. Das "Problem", dass ein inkr. Backup nicht funktioniert, stellt sich also dahingehend gar nicht, da es im Falle des Falles auffällt. Und nicht erst im Disasterfall dann einfach nicht funktioniert.

und wenn der nun in der karibik ist und alle leitungen gekappt hat um endlich mal seine ruhe zu haben? :sleep:

Dann ist es ein ziemlich beschissener Admin -> Meine Meinung. Entweder man fühlt sich für den Spaß verantwortlich oder es gibt ne Vertretung. Dazwischen gibts eigentlich nix...

aber es müsste ja so etwas wie einen backup-server geben, der die daten erstmal fest-hält, bevor einer wieder zugriff bekommt (ändern oder löschen)
im besten fall müsste es vom backup-server eine VPN leitung zu einem anderen server geben (Zentrale), wo das erst mal SAFE ist!

Das ist halt eine Frage des Konzeptes und vor allem auch eine Kostenfrage...
Externes Backup/zweiter Backup-Ort (sofern es sowas überhaupt gibt) muss nicht zwangsweise ein Backup Server an anderem Standort sein. Das kann auch simpel einfach der Transport der Backup Medien aus dem Hauptstandort weg, sein.

PS: Ein Backup-Server hält die Daten auch nicht "fest" und verhindert damit den Zugriff auf die Quelldaten für das Ändern/Löschen.
Eher zieht sich der Backup Server einen Stand x vom Livesystem und hält diesen Stand so lange wie es die Policy vorgibt. Das Livesystem ändert sich da halt trotzdem zyklisch... Ich denke du unterliegst hier einem kleinen Denkfehler. Das ist vom Prinzip her nicht wie der Windows Papierkorb, wo die Daten reinwandern, wenn gelöscht oder so. Wird bspw. eine Datei nach dem Backup erstellt und dann vor dem nächsten Backup geändert/gelöscht, ist das Ding unwiederbringlich weg. Für solche Fälle gibt es spezielle Lösungen abseits simplen SMB Shares...

hatte vor kurzem eine INFO-weiterbildung zum thema Cybersicherheit, und wir sollten eine möglichst "sichere" IT-struktur in unserer abschlussarbeit aufzeigen...
den ganzen zusatztext erspare ich euch - da über 30 seiten - aber meine grafik sah so aus:

Anhang anzeigen 416204

Definiere "sicher"?
So ein Bild in der Theorie zu malen, ist einfach... Die Praxis definiert aber einfach gewisse Bedingungen, die erfüllt sein müssen...
Bspw. entnehme ich deinem Bild, dass du die DMZ völlig abtrennst vom Rest. Das ist in der Theorie möglich, in der Praxis aber idR einfach nicht machbar, da dort oftmals eben nicht nur ein Webserver für ne statische Website und nem DNS Server drin stehen, sondern viel komplexere Dienste. Lass das ein Exchange samt Webmail/ActiveSync Zugriff sein. Ein File-Austausch Dienst ala Nextcloud, ein Sharepoint, ggf. sogar gekoppelt mit NC oder ähnlichem oder auch Client(less) Mobile Access Lösungen, Terminal Server FrontEnd Server, oder sonstige Portale der eigentlich internen IT Infrastruktur, welche aber in Zeiten des Cloudansatzes eben schlicht von überall bedienbar sein müssen...

Ich persönlich halte nur bedingt was von solchen "Werbeveranstaltungen". Vor allem wenn sie von einem Hersteller von "NGFWs" durchgeführt werden. Da bekommst meist einfach die Rosa Rote Wolke und alles ist tutti... Praktisch schaut das aber einfach anders aus.

Das geht hier aber auch deutlich zu weit. Hier gehts eher um simpels SMB. :wink:

Wenn jemals auf inkrementell umgestellt würde - wie oft muss sinnvollerweise ein Vollbackup als neue Basis gemacht werden? Je länger das läuft, umso fehleranfälliger stelle ich es mir im Recovery Fall vor. Backup aus 1. Vollbackup und Inkrementen aus den vergangenen 600 Tagen? Da befürchte ich doch theoretisch erheblich mehr Fehlerpotential als bei Vollbackups.

Es kommt stark drauf an, was gemacht werden soll...
Man muss ein Backup Stand, welcher als Disaster Recovery her halten kann und extern liegt ja nicht täglich machen. Technisch gesehen reicht das auch in deutlich längeren Abständen.
Du hast, egal wie man es dreht, ab gewissen Datenmengen einfach das Problem, das gar nicht auf das Storage zurück gespielt zu bekommen, weil irgendwas limitiert.
Und WENN dir dann nicht auch ein ein paar Tage altes Backup reicht, dann hat man als Unternehmen irgendwo am falschen Ende gespart ;)

Ich sichere hier bspw. mehrere hundert GB Änderungen inkr. täglich via Veeam. Und jeweils am WE ein (active full) Vollbackup. Der Stand des Backups lässt sich deswegen aber trotzdem extern jeweils zum vorherigen via Änderungsdatenmenge übertragen. -> eins der größten Vorteile einer gescheiten Backup Lösung ;) Da wird komprimiert, gepackt und dedubliziert, was das Zeug hält. Am Ende ist es immer nur ein "Muster" von Unterschieden zum alten Stand -> und diese Änderungen werden einfach übertragen. (und sind idR extrem viel kleiner als der eigentliche Datenbestand)
Solange das am Ende wieder raus kommt, was am Anfang rein geschrieben wurde, ist es auch völlig egal, WIE er das macht... Vertrauen in die "Lösung" als solches brauch es aber so oder so.
 
@fdsonne
es gab halt für die umsetzung eine klare vorgabe:

Aufgabenstellung

Sie als IT-Verantwortlicher eines mittelständischen Betriebs, wurden von Ihrem Chef angesprochen, dass ein Kunde angedeutet hat, dass Ihr Betrieb sich evtl. nach ISO 27000 zertifizieren lassen muss.

Ihr Chef bittet Sie unter diesem Gesichtspunkt ein Netzwerk zu erarbeiten und aufzuführen, wie eine Zertifizierung nach ISO 27000, bzw. nach ISO 27000 auf Basis des BSI-Grundschutzes umzusetzen ist.

Nach außen soll das Unternehmen mit einer DMZ, die einen DNS-, einem Web- Server (nur über Port 443 ansprechbar von außen für Kunden) mit dynamischen Inhalten und einem Honeypot ausgestattet sein, die zwischen zwei NGFWs platziert sind, ausgestattet sein.

Es sollen zwei Netze aus dem 172.16.x.x für die Nutzer (100 Nutzer Technik-Abteilung und 100 Rechner in der Verwaltung) vorhanden sein.

Außerdem ein 192.168.x.x Netz, in dem zwei Windows-Active Directory(AD-), zwei Linux-Server (Logging und Backup) und zwei Administratoren-Rechner angeschlossen sind.

Es gibt ein Rechenzentrum, wohin die Backups des Backup-Servers und die Daten des Logservers über eine Standleitung per IPsec gespiegelt werden.

Aufgabe:

• Stellen Sie das Netz dar.
• Weisen Sie auf die „normalen“ Sicherungsmaßnahmen hin.
• Stellen Sie dar, worauf im Rahmen einer Zertifizierung nach ISO 27000 oder ISO 27000 auf Basis des BSI-Grundschutzes zu achten ist.

Hinweise: Analyse Konsole des Honeypots befindet sich im 192er Netz bei den Administratoren Rechnern.

da gab es in meiner abschlussarbeit auch noch verbesserungsvorschläge - man sollte sich aber haargenau an die vorgabe des arbeitgebers halten

es war keine "firmenveranstaltung" von herstellern sondern eine weiterbildung (4 wochen) über einem bildungsträger
 
Da es hier nicht wirklich Thema ist, pack ichs dir mal in nen Spoiler ;)

Was mir sofort auffällt, wenn ich mein Unternehmen nach ISO 27000 irgendwas zertifiziere, baue ich nicht komplett neu ;) Ich passe dort an, wo ich muss. Der Rest wird entsprechend beschrieben. :wink:

Was mich übrigens an der Umsetzung stören würde, du hast keine Firewall zwischen all deinen Clients und deinen Server/Konsole Komponenten. Das ist straight geroutet im Moment... Wäre ich nun der Betreiber der Server würde ich erstmal auf die Barrikaden gehen ;) Ebenso stellt sich die Frage, WIE kommen die Daten in den VPN Tunnel zum Backup Standort!? Wer baut den Tunnel auf, wo wird dieser terminiert, wer routet die Netze? Und noch wichtiger (Stichwort ISO) WIE kommt der Kollege Admin an die Systeme im Remote-Standort?

In Zeiten, wo sich Cryptotrojaner ihren Weg von ganz allein durchs komplette Netzwerk fressen gehören verschiedenen Bereiche einfach untereinander abgekoppelt, vor allem dort, wo kein Zugriff gewünscht ist. Die Clients haben mit Backup nichts am Hut. Und mit dem Logserver ziemlich sicher auch nicht. Dafür gehört also eine Instanz zwischen, die verhindert, dass die ganzen (potentiell verseuchten) Clients irgendwelchen Bockmist am Serversystem anrichten und bestenfalls nur das geht, was gehen MUSS. Es wird ja schon NGFW ins Spiel gebracht, genau sowas bietet sich da an. Verhaltensmustererkennung am Gateway, "Melden" bei Verdacht und Zugriffe blocken natürlich auch... Geht bei dir halt nicht bzw. nur in die DMZ :wink: Hätte ich klar so nicht gemacht -> und vor allem hätte ich erstmal blöd gefragt, warum die DMZ da "zwischen" zwei FWs soll und wie man das am Besten im Routing sinnig abbildet!?

Die Vorgabe "zwischen zwei NGFWs" ergibt nämlich für mich so überhaupt keinen Sinn! Zwei Wege in EIN Netz sind kappes... Vor allem arbeitest du da zwangsweise mit statischen Routen auf dem Devices in der DMZ, denn sonst gibts schöne Probleme durch asynchrones Routing ;) Auch ist hier zu beachten, WIE die Zugriffe stattfinden. FW hin oder her, die Frage wäre, ist die DMZ von außen via NAT erreichbar? Oder geroutet? Ist nur der Port geforwardet der offen sein muss und was macht der DNS Server genau (public Nameserver, Resolver, Root Server? -> OK eher utopisch)
-> sowas ist übrigens auch ein Part von kein/wenig Praxisbezug! Denn die Vorgabe muss ja irgendwer aufgestellt haben!?

Vorteil ISO Zertifizierung ist dabei halt, da kannste quasi alles zertifizieren, solange du beschreiben kannst, was du da fabrizierst. Die ISO 27000er Reihe ist halt eher eine Richtlinie. Wenn dein Netzwerk so ausschaut, wie oben beschrieben, kann man sowas ISO zertifizieren lassen. Ob der Aufbau wirklich "sinnig" ist, ist halt eine völlig andere Baustelle und gerade nicht Bestandteil der Norm. Denn in deinem Fall müsste sich nur ein Client irgend einen Bock einfangen und der legt dir die komplette Hütte lahm! Inkl. Backup! Denn der Backup Server steht quasi Schutzlos angreifbar vom potentiell verseuchten Client und spiegelt die Daten auch noch... Was vllt nicht passiert (weil nicht direkt erkennbar) Daten können nicht geklaut werden, da nirgends INet-Access vorhanden sein könnte, außer in der DMZ. Allerdings wäre das auch irgendwie interpretierbar aus der "Standleitung" bei der Spieglung der Daten :wink:
 
ok - lassen wir das jetzt mal dabei
ich hatte ja schon geschrieben, das meinerseits dort verbesserungsvorschläge gemacht wurden (in der abschlussarbeit)
aber ohne jetzt weiter darauf einzugehen - ist hier wirklich nicht das thema - wie du auch schon bemerkt hast ;)

ps: wie kann ich einen SPOILER erstellen? - hätte sonst die aufgabenstellung auch dort untergebracht
 
Schreib es einfach wie beim QUOTE in Eckige Klammern, jeweils vor den Anfang und nach das Ende vom zu spoilernden Text :wink:
 
Test ABC...[ /SPOILER]

und das Leerzeichen im Endetag noch raus... :wink:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh