[Sammelthread] ZFS Stammtisch

Hallo in die Runde!
Für diejenigen unter euch, die Interesse an einem Mediaserver für ZFS-basierte Systeme haben geht heute der Community-Test des Mediatomb AddOn für napp-it an den Start. Das ganze ist in der neuesten napp-it Version 0.9a7 (Feb.14.2013), die ab sofort frei zur Verfügung steht, enthalten. Da diese nicht default ist, bitte manuell updaten. Mit folgendem Befehl kann man das AddOn als Community Test-Version (0.1) für openindiana installieren (Konsole als root):

wget -O - www.napp-it.org/mediatomb | sh

Das Ergebnis ist ein Mediatomb UPnP Mediaserver für DLNA-fähige Geräte. Die Verwaltung erfolgt per napp-it unter Add-Ons -> Mediatomb. Zuerst ist es nötig, dass man diesen an eine IP-Adresse des Servers bindet. Jetzt kann man noch einige Konfigurationen über das Menü durchführen und fertig ist der ZFS-fähige Mediaserver. Im Dateisystem des Servers können Mediendateien hinzugefügt werden (Web-UI von Mediatomb ist integriert in napp-it). Manche Geräte machen eine Anpassung der Config-Datei nötig. Ich werde in den nächsten Tagen ein HowTo bereitstellen, das die Installation und Grundkonfiguration beschreibt. Für Fragen stehe ich gerne per pm zur Verfügung.

Wenn ihr bereits Erfahrung mit Mediatomb habt und Geräte ansteuert, die eine Config-Anpassung benötigen (kenne das von meinem Samsung TV), sendet mir bitte diese Anpassungen zu, damit die Gerätekompatibilität des AddOns verbessert werden kann. Über generelles Feedback würde ich mich natürlich auch freuen ;)

1chris
 

Anhänge

  • Mediatomb_AddOn_for_napp-it.jpg
    Mediatomb_AddOn_for_napp-it.jpg
    66,4 KB · Aufrufe: 206
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo zurück!

Ich hätte Interesse das Addon zu testen, funktioniert die Installation auch unter OmniOS?
 
Hallo zurück!

Ich hätte Interesse das Addon zu testen, funktioniert die Installation auch unter OmniOS?

Im ersten Step ist das AddOn für openindiana konzipiert. Der Support für OmniOS steht bereits auf meiner Agenda. Sobald ich die Installation/Konfiguration dort getestet und angepasst habe, gibt es neue Informationen.
 
Moin,
Kurz und Schmerzlos: gibt es eigentlich für FreeBSD auch sowas wie Napp-it?
(also kein FreNAs oder Nas4Free, denn das sind ja "NAS Systeme", die auf FreeBSD basieren)
mir geht es hauptsächlich um die Verwaltung / Überwachung von ZFS Dateisystemen, ohne erst auf die Console zu wechseln und Befehle einzutippen.
(bei Nas4free melde ich mich an und sehe auf der Einstiegsseite, ob die Volumes "gesund" sind)
 
Moin,
Kurz und Schmerzlos: gibt es eigentlich für FreeBSD auch sowas wie Napp-it?
Schau dir mal ZFSguru an. Ist zwar auch eine ganze Distribution, aber man kann auch nur das Webinterface runterladen.

Kann jemand von Erfahrungen berichten, der sowohl ZFS on Linux, als auch natives ZFS auf gleicher/ähnlicher Hardware am Laufen hatte, insbesondere über die Stabilität und Performance?
An Features ist die Implementierung ja relativ aktuell. Ich vermute CIFS wird über Samba realisiert, also hier muss man wohl mit leichten Abstrichen rechnen, aber wie schlägt es sich sonst?

Ich mag zwar wie mein OminOS läuft und bin v.A. auch mit napp-it zufrieden, aber sobald ich was "unter der Haube" machen möchte (z.B. ein paar eigene Logging-/Benachrichtigungsskripte), merke ich dass ich auf Unix nicht zuhause bin und überlege, ob es schon Zeit wird "zurückzuwechseln", aber ZFS mitzunehmen.
Wenn ja, welche Distributionen würdet ihr empfehlen?
 
Posix bleibt Posix. Egal ob nun ein Solaris, BSD, Linux oder auch ein Windows.
Es gibt Programmiersprachen wie Perl und Python und auch verschiedene shells.
 
Posix bleibt Posix. Egal ob nun ein Solaris, BSD, Linux oder auch ein Windows.
Es gibt Programmiersprachen wie Perl und Python und auch verschiedene shells.
Noch allgemeiner: ein OS bleibt ein OS, aber egal. Vermutlich würde mein Gefühl nicht so sein, wenn ich mit einer stabilen Illumian-Version statt mit OpenIndiana/OmniOS eingestiegen wäre. Ist also eher eine Frage der Distributionen und deren Paketverwaltung und Userland-Tools (und Foren und Mailinglisten und Google-Treffer) die mir das fremd-sein so extrem erscheinen lassen, da hab ich mich wohl zu allgemein ausgedrückt. Z.B. als ich Ewigkeiten gebraucht habe eine CD zu mounten und nicht mal den device node finden konnte, kam ich mir schon etwas doof vor. Man gewöhnt sich an alles und ich will ja auch dazulernen, mindestens mit pfSense bleibt Unix in meiner Wohnung ;-)

Aber mein erster Eindruck von dem gerade installierten ZFS on Linux ist durchaus positiv. Hab VMware runtergefahren, meine noch nicht gelöschte und eigentlich bevorzugte Proxmox-Festplatte angeschlossen (leider inkompatibel: Proxmox, Illumos & SAS-Controller), ein Debian stable installiert, Controller durchgereicht (ohne Probleme), die ZFS-Pakete installiert und erstmal gebencht. Im Grunde muss es für mich nur schnell genug für einfaches Gigabit-Netzwerk sein und das ist es locker. Ich Held hab versäumt unter OmniOS noch mal dd anzuwerfen, daher kann ich nur ein Vergleich mit CrystalDiskMark aus dem im selben virtuellen Netzwerk befindlichen Windows Server heranziehen. Dort waren 126MB/s sequenzielles Lesen und 242MB/s Schreiben möglich, aber dd@OmniOS wird nachgereicht.

Falls es irgend jemand interessant findet er hier meine Werte mit ZFS on Linux unter Debian stable (K. 2.6.32) mit 4+1 WD Green 2TB, Intel SSD als Cache und erstmal "nur" 5000MB Arbeitsspeicher, zum Vergleich zu OmniOS @ ESXi mit ~10GB Ram.
Code:
dd bs=1M count=10000 if=/dev/zero of=test conv=fdatasync / dd if=test of=/dev/zero bs=1M conv=fdatasync

ZoL                  | OmniOS
---------------------------------------------------------
write: 221 MB/s (#1) | 210 MB/s (#3, min 196, max 231)
read: ?              | 210 MB/s (#3, min 149, max 264)

Bonnie++ unter ZoL:
Code:
bonnie -d . -s 10000 -r 4000
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
debian       10000M   120  99 192958  26 94471  17   322  97 132775   8 378.1   6
Latency             73523us    7714us    1017ms     227ms     689ms     281ms
Version  1.96       ------Sequential Create------ --------Random Create--------
debian              -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16 11813  62 +++++ +++ 16407  76 12577  71 +++++ +++  3035  92
Latency             60452us     361us   10957us   66818us      49us   53482us
1.96,1.96,debian,1,1361154960,10000M,,120,99,192958,26,94471,17,322,97,132775,8,378.1,6,16,,,,,11813,62,+++++,+++,16407,76,12577,71,+++++,+++,3035,92,73523us,7714us,1017ms,227ms,689ms,281ms,60452us,361us,10957us,66818us,49us,53482us

ZFS on Linux R14 bietet schon neuere Features als ZFS im stable (noch 2012) OmniOS?

Edit: dd-ergebnisse von OmniOS hinzugefügt
 
Zuletzt bearbeitet:
Verwende einen 3.2er Kernel aus den Backports, das bringt nochmal einiges an Performance.
 
Wie ist das eigentlich mit ZFS wenn ich in einem Pool mit RaidZ die Kapazität erweitern will? Soweit ich weiß muss man dann die Platten nacheinander auswechseln gegen größere. Meine Frage, was passiert wenn bei der ganzen Geschichte ein Fehler auftritt bevor das "resilvern" zu ende durchgelaufen ist, ist dann alles an Daten weg? Oder kann man dann eine der "alten" Platten wieder vorübergehend reinsetzen damit man das RaidZ wieder reparieren kann?

Und gibt es irgendeinen Weg zwischen RaidZ mit 3 und 4 Festplatten zu wechseln OHNE dass ich meine Daten Backupen muss? zB bei 4mal 1TB drei der 1TB Platten gegen größere Tauschen und dann nur über die neuen Platten ein neues RaidZ machen und die Daten rüberkopieren?

Unter Windows kann man ja beispielsweise in einem Pool mehrere virtuelle Festplatte anlegen. Geht sowas mit ZFS auch?

Erreiche bei diesen CIFS Freigaben mit FreeNAS über Lan an einem Windows8 PC etwa 60MB/s durchsatz. Ist das normal, lässt sich das noch weiter steigern oder geht einfach net mehr?
 
Zuletzt bearbeitet:
60MB/sec schafft so ziemlich jeder noch gebräuchliche Rechner mit einer einigermaßen aktuellen HDD.
Bei Solaris und allgemein ist eine gute NIC (Netzwerkkarte) sehr entscheidend.
Ein verkleinern eines Raidz mit weniger HDDs ist nicht vorgesehen. Die Flexibilität welche du gerne haben möchtest deckt eher ein Hardware Raidcontroller ab.
Ein Raidz ist allgemein sehr anfällig. Sinnvoller ist es die Daten auf einen neuen Pool zu kopieren.
Ein aktuelles und funktionsfähiges Backup der wichtigeren Daten sollte generell immer vorhanden sein. Oft merkt man erst im Ernstfall dass das Backup nicht vollständig oder aktuell ist bzw. es nicht existend ist, da der betreffende Datenträger nicht mehr vorhanden oder lesbar ist.
 
Habe einen HP Microserver mit 8GB Ram. Also sind die 60MB/s das höchste der Gefühle unter CIFS ? Hab gelesen dass man über FTP durchaus auf 105-110MB/s kommen kann bei gleicher Hardware.

Was ist mit "sehr anfällig" gemeint. Ich dachte ZFS stellt für Daten eher so das beste da was es momentan gibt.

Also funktioniert die Sache mit dem die Festplatten durch größere zu ersetzen nicht zuverlässig?

Und von wieviel Ram profitiert ZFS. Bringen 16GB statt 8GB noch irgendetwas?
 
Wie ist das eigentlich mit ZFS wenn ich in einem Pool mit RaidZ die Kapazität erweitern will? Soweit ich weiß muss man dann die Platten nacheinander auswechseln gegen größere. Meine Frage, was passiert wenn bei der ganzen Geschichte ein Fehler auftritt bevor das "resilvern" zu ende durchgelaufen ist, ist dann alles an Daten weg? Oder kann man dann eine der "alten" Platten wieder vorübergehend reinsetzen damit man das RaidZ wieder reparieren kann?

Die Platten werden mit disk-replace ersetzt. Erst wenn alle Daten umkopiert sind, übernimmt die neue Platte.
Davor bleibt die alte aktiv. Es gibt also auch keinen Ausfall.

Und gibt es irgendeinen Weg zwischen RaidZ mit 3 und 4 Festplatten zu wechseln OHNE dass ich meine Daten Backupen muss? zB bei 4mal 1TB drei der 1TB Platten gegen größere Tauschen und dann nur über die neuen Platten ein neues RaidZ machen und die Daten rüberkopieren?

Nein

Unter Windows kann man ja beispielsweise in einem Pool mehrere virtuelle Festplatte anlegen. Geht sowas mit ZFS auch?

Bei ZFS ist ein Pool ein Container für Dateisystem variabler Größe. Es ist also ähnlich den Windows Partitionen aber viel flexibler. Dateisysteme können dynamisch bis zur Poolgröße wachsen. Gemanagt wird das mit Quotas und Reservierungen.

Erreiche bei diesen CIFS Freigaben mit FreeNAS über Lan an einem Windows8 PC etwa 60MB/s durchsatz. Ist das normal, lässt sich das noch weiter steigern oder geht einfach net mehr?

Das hängt von zu vielen Faktoren ab. Im allgemeinen ist Solaris CIFS etwas schneller als FreeNAS + SAMBA

---------- Post added at 11:32 ---------- Previous post was at 11:21 ----------

Habe einen HP Microserver mit 8GB Ram. Also sind die 60MB/s das höchste der Gefühle unter CIFS ? Hab gelesen dass man über FTP durchaus auf 105-110MB/s kommen kann bei gleicher Hardware.

Im allgemeinen sind FTP und NFS schneller als SMB (Komfort kostet halt).
Es gibt aber durchaus Berichte von CIFS > 100 MB mit Solaris

Was ist mit "sehr anfällig" gemeint. Ich dachte ZFS stellt für Daten eher so das beste da was es momentan gibt.

Wenn es ein Problem gibt, dann eher mit Raid-Z1/Raid-5
Bei Multi-TB Platten dauert ein Rebuild Tage. Wenn dabei eine zweite Platte ausfällt ist alles futsch.
Daher die Empfehlung, bei wichtigen Daten und sehr großen Platten 3way Mirror oder Raid-Z2/Raid-6 machen

Und von wieviel Ram profitiert ZFS. Bringen 16GB statt 8GB noch irgendetwas?

Ein modernes OS braucht 1-2 GB RAM. Mehr RAM bringt für das OS garnichts.
Man kann aber mehr RAM zum Cachen von Lesezugriffen nehmen. Bei Solaris geht das automatisch,
bei FreeBSD muss man eventuell ein paar Parameter anpassen.

Das kann enorm Performance bringen, da dann fast alle Lesezugriffe aus dem RAM erfolgen können.
Bei vielen Benutzern und entsprechenden Daten können dann sogar mehrere Hundert Gigabyte RAM sinnvoll sein.
(Das ist das Geheimnis, warum ZFS mit mehr RAM immer schneller wird)
 
Bei Solaris würde ich CIFS, NFS und iSCSI zum OS rechnen. Diese Services brauchen aber nicht viel RAM.
Der RAM geht fürs Cachen drauf. Unter Last, sollte deshalb idealerweise nie nennenswert RAM frei sein - egal wieviel man hat.
(Solange nicht mehr RAM da ist, als die Platte groß ist = 100% Cache oder man eben nur wenige Dateien liest.)
 
Zuletzt bearbeitet:
Das kann enorm Performance bringen, da dann fast alle Lesezugriffe aus dem RAM erfolgen können.
Bei vielen Benutzern und entsprechenden Daten können dann sogar mehrere Hundert Gigabyte RAM sinnvoll sein.
(Das ist das Geheimnis, warum ZFS mit mehr RAM immer schneller wird)

Wonach wird denn berechnet was gecached wird und nicht? Kann man das einstellen, geht das automatisch? Was wird genauu gecached, ganze Dateien oder einzelne Blöcke? Wenn ich beispielsweise eine 32GB Datei habe, kann diese dann teilweise im Ram geacached werden oder nicht weil die Datei größer ist als der verfügbarer Arbeitsspeicher?
Könnte halt relativ günstig an 16GB ECC rankommen. Weiß jetzt nur nich ob es sich lohnen würde im Vergleich zu 8GB. Es sollen Multimedia Dateien gespeichert werden, auf deduplizierung kann ich in dem Fall verzichten, weils nix bringen würde.

Bei ZFS ist ein Pool ein Container für Dateisystem variabler Größe. Es ist also ähnlich den Windows Partitionen aber viel flexibler. Dateisysteme können dynamisch bis zur Poolgröße wachsen. Gemanagt wird das mit Quotas und Reservierungen.

Okay aber das heißt wenn ich einen Pool aus 4 Festplatten habe muss ich mich dann entscheiden ob ich "Raid1" oder RaidZ1 machen will. Oder kann ich 2 Dateisysteme erstellen eins mit parity und eins mit Spiegelung
 
Zuletzt bearbeitet:
Zum Theme ZFS + Cache.
Der arbeitet nicht filebasiert sondern blockbasiert und automatisch

mehr dazu:
AnandTech - ZFS - Building, Testing, and Benchmarking

Zum Thema ZFS Pool:
Bitte noch etwas zum Thema einlesen.


Grundsätzlich:
- Eine oder mehrere Platten bilden ein vdev (Raid)
- eine oder mehrere vdevs bilden einen Pool

Ein Pool ist also üblicherweise ein Ansammlung von gestripten Raids (daher je mehr vdevs, desto schneller ist der Pool)

Auf diesem Pool kann man Dateisystem anlegen (und nur da, nicht auf den vdevs/Raids aus denen der Pool besteht.)
Die Anzahl ist praktisch nicht begrenzt. Tausende von Dateisystemen ist durchaus bei einigen Installationen der Fall.
 
Okay den Link werd ich mir mal näher ansehen danke schonmal. Habe noch eine Frage bezüglich Raid5/RaidZ1 was den Rebuild betrifft.

Angenommen es steigt eine Platte komplett aus und auf einer weiteren gibt es Lesefehler. Ist dann immer alles komplett weg, oder nur die betroffenen Daten?

Ich nehme an von wichtigen Daten die für das Dateisystem wichtig sind werden generell mehrere Kopien angelegt unabhängig davon was man später betreibt.

Truecrypt beispielsweise schreibt den Header ja auch jeweils doppelt auf die Platte, sodass ein einzelner Defekter Block nicht alles lahmlegt. Bei normalen Festplatten ist mir das klar wie das mit der Wiederherstellung läuft, nur bei Raid5 und RaidZ1 nicht so ganz sofern eine Festplatte ausgefallen ist und es auf den anderen noch zu Lesefehlern gekommen ist. Wie verhält sich ZFS oder besser gesagt FreeNAS in dem Fall
 
Zuletzt bearbeitet:
Bei Raid-5 hängt natürlich sehr viel vom verwendeten Dateisystem ab, ansonsten gilt:
Fällt eine Platte aus und hat eine weitere Lesefehler sind, in der Regel nur die Dateien betroffen,
die im defekten Bereich Datenblöcke haben. Ansonsten hängt zuviel vom Einzelfall ab. Ein Kompettverlust
aufgrund eines defekten Datenblocks ist generell sehr unwahrscheinlich.

Das Problem bei Raid-5 (ohne ZFS) ist eher, dass man erst im Falle eines Plattenausfalls/Rebuild merkt, ob und
welche Daten defekt sind, da es einen vorbeugenden Online Check auf echte Dateifehler nur bei ZFS gibt.

Ohne ZFS müsste man alles dismounten und einen fschk durchführen wobei der nur Fehler bei den Matadaten
und nicht bei den Daten selber entdecken und beheben kann (fehlende Prüfsummen auf Daten).

Ansonsten ist das ein ZFS Feature, egal auf welcher Plattform.
 
ZFS bietet für Dateisysteme an, wie viele Kopien vorgehalten werden sollen. Aktiviert ist das natürlich nicht per Default.
Wobei das Betriebssystem in der Regel schnell wieder neu installiert ist. Welche HDDs zu welchem vdev und Pool gehören wird ja auf den beteiligten HDDs abgespeichert.
 
Habe einen HP Microserver mit 8GB Ram. Also sind die 60MB/s das höchste der Gefühle unter CIFS ? Hab gelesen dass man über FTP durchaus auf 105-110MB/s kommen kann bei gleicher Hardware.

Was ist mit "sehr anfällig" gemeint. Ich dachte ZFS stellt für Daten eher so das beste da was es momentan gibt.

Also funktioniert die Sache mit dem die Festplatten durch größere zu ersetzen nicht zuverlässig?

Und von wieviel Ram profitiert ZFS. Bringen 16GB statt 8GB noch irgendetwas?

Also ich habe ein HP N40L mit 8GB und schaffe 100+ MB/s (aber nur mit OI). Als Netzwertk-Karte habe ich die Onboard benutzt, als Switch eine Fritzbox 7390. Mit FreeNas und Nas4Free ,welche ja CIFS ueber Samba realisieren, schaffe ich ca. 50-70 MB/s. Das war der Grund warum ich dann OI + nappit und nicht FreeNas gewählt habe. (Natürlich braucht OI und nappit ein wenig mehr "Einarbeit" als FreeNas aber ich bin damit jetzt performance-technisch zufrieden. Und der Support von Nappit durch Gea ist ja sowieso unschlagbar^^).
 
Zuletzt bearbeitet:
hast du mal zufällig den Stromverbrauch gemessen im idle bei heruntergefahrenden Platten?
 
ne. Mein N40L dient nur als Backup, deswegen ist er nur jede Woche für ein paar Stunden an. Eingeschaltet mit 4x3TB und einer 320GB Platte lag der idle Verbrauch (ohne spindown) bei ca 50-65 Watt (genau weiss ich es nicht mehr).
 
Mein NL40 schaffte im ESXI mit OpenMediaVault 60MB/s schreibend. Mit NAS4Free nur noch 30MB/s.
Liegt wohl an den FreeBSD Problem mit ESXi bei Virtuellen Platten.

NAS4Free direkt ohne VMWare auf dem NL 40 schafft bei mit durchschnittlich 75MB/s lesen und schreiben. Kurzzeitig über 100MB/s lesen und 90MB/s schreibend.
Da ist noch nix optimiert. RAM ist noch zu viel frei und die CPU bei 50% Auslastung. Habe auch noch Einbrüche bei der Übertragung.
Da geht noch mehr.

4GB non ECC RAM und 2x1TB WD Green mit ZFS sigleparity.
 
Was zeigt denn dein Wattmesser an bei Nas4Free direkt und bei OMV und N4F in der VM ?

Mich interesiert vorallem die Leistung mit ausgeschalteten (Spindown) platten
 
Zuletzt bearbeitet:
Hi,
ich habe mal eine Frage zu ZFS. Ich habe in meinem Homeserver momentan 6 3TB Platten die nach und nach auf 8 Stück erweitert werden. Die Daten sollen verschlüsselt werden. Ich bin prinzipiell mehr der Linux-Typ und würde daher gerne auf luks/dmcrypt und ein zfs-kernel-modul setzen. Gibt es unter irgend einem anderen zfs unterstützenden Unix eine ähnlich performante Verschlüsselung die ich einsetzen könnte?

Weiterhin möchte ich auf Snapraid setzen. Raidz2 sagt mir zwar zu, aber da es nicht online erweiterbar ist, ist das auch eher eine suboptimale Lösung für mich.

Die Frage ist nun, habe ich ggü. ext4 einen deutlichen Mehrwert wenn ich ZFS ohne Raidfunktionalität nutze?

---------- Post added at 08:15 ---------- Previous post was at 08:12 ----------

Eine weitere Idee wäre statt Snapraid zfs auf ein mdadm Raid6 zu legen. Das sollte dann ja auch erweiterbar sein. Hat das schon einmal jemand so eingesetzt und macht das Sinn?

---------- Post added at 08:30 ---------- Previous post was at 08:15 ----------

Ich würde die Frage noch erweitern. Kann ich das ZFS-Pooling irgendwie zusammen mit Snapraid nutzen?
 
Gibt es unter irgend einem anderen zfs unterstützenden Unix eine ähnlich performante Verschlüsselung die ich einsetzen könnte?
FreeBSDs GELI unterstützt z.B. AES-NI und ist multi-threaded, also würde z.B: ein RAID aus 8 Platten eine 8-Kern-CPU optimal nutzen.

Die Frage ist nun, habe ich ggü. ext4 einen deutlichen Mehrwert wenn ich ZFS ohne Raidfunktionalität nutze?
Checksummen und damit Sicherheit vor Bitrot.

Eine weitere Idee wäre statt Snapraid zfs auf ein mdadm Raid6 zu legen. Das sollte dann ja auch erweiterbar sein. Hat das schon einmal jemand so eingesetzt und macht das Sinn?
Nicht sinnvoll.

SnapRAID auf ZFS, welches nur aus einer Platte pro Pool besteht, sollte gehen und du hättest die Datensicherheit von ZFS mit der Redundanz von SnapRAID.
 
SnapRAID auf ZFS, welches nur aus einer Platte pro Pool besteht, sollte gehen und du hättest die Datensicherheit von ZFS mit der Redundanz von SnapRAID.

Dann fällt das mit den Checksummen und der Sicherheit von Bitrot aber flach bei der Lösung
 
Ich frage mich immer warum man für Sicherheitskopien soviel Aufwand treibt wenn da mal Daten kaputt sind hat man ja noch die Originale *grins*
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh