McStarfighter
Experte
- Mitglied seit
- 09.04.2014
- Beiträge
- 115
Danke für die klare Antwort, damit ist es eindeutig!
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Hmm, kann ich so nicht bestätigen!Wenn es sich allerdings um SMR Varianten handelt, dann sind die absolut untauglich für ein NAS und Raid Betrieb.
Eine Frage zur Vorgehensweise zur Verschlüsselung:
Ich setze einen Backup Server auf, die Napp-It VM läuft (SunOS napp-it030 5.11 omnios-r151030-521a1fc4d1 i86pc i386 i86pc OmniOS v11 r151030ab). Es hängen zwei gleichartige Storage-Platten darin. Platte 1 enthält einen ZFS Pool mit mehreren Dateisystemen. Das ist das Backup des produktiven Servers. Alles unverschlüsselt. Da nachträgliche Verschlüsselung ja nicht möglich ist, kommt nun die zweite Platte ins Spiel. Dorthin sollen die Dateisysteme der ersten Platte übernommen werden - aber verschlüsselt. Sofern ich das richtig verstehe, wird per Dateisystem verschlüsselt, richtig? Oder per Pool?
Hmm, kann ich so nicht bestätigen!
Mein Raidz3 aus 19 Seagate Archive 8TB läuft seit fast 4 Jahren ohne Auffälligkeiten unter NAS4Free (noch kein XigmaNAS), Zugriffsmuster mittlerweile 98% lesen, 2% Schreiben, wenig löschen oder Ändern.
Btw, weil ich "Dedup" lese, würde ich daheim verzichten. Bringt in aller Regel recht wenig, kann aber den Ram-Bedarf ziemlich erhöhen.
Currently, you cannot send an unencrypted dataset stream and receive it as an encrypted stream even if the receiving pool's dataset has encryption enabled
Nochmal zum Thema Daten von unverschlüsseltem Filesystem auf verschlüsseltes Filesystem migrieren.
@ludwinator: hast Du das, was Du vorschlägst schon einmal gemacht? Denn ein Blick in die Dokumentation von ZFS zeigt mir, dass ich kein unverschlüsselten Dateisystem an ein verschlüsseltes Dateisystem mittels zfs send/recv senden kann...
Bisher galt nur Oracle Solaris mit dedup2 als brauchbar. Das neue Open-ZFS Feature special vdev könnte eine Wende bringen. Damit kann man die Dedup Tabelle auf NVMe legen (aktuelles Illumos wie OmniOS/OI oder neuestes Linux ZoL).
root@server> zfs send - R Data/test@current_snap | zfs receive -F -d Data/Test_enc
cannot receive new filesystem stream: parent 'Data/Test_enc' must not be encrypted to receive unenecrypted property
And the memory usage of dedupe grows with the dedupe hash pool size. Btrfs will not pre-allocating memory for dedupe at the enabling time. So it's possible to set a very huge dedupe pool size, as long as OOM is not triggered.
Danke für Eure Rückmeldungen!
@ludwinator: Mein o.g. Zitat stammt aus den Oracle Docs von Solaris 11.3 (https://docs.oracle.com/cd/E53394_01/html/E54801/gkkih.html). Aber vermutlich, ist das gar nicht relevant, weil ich nicht unter Solaris sondern unter OmniOS arbeite?!
Ich habe das gestern Abend dann nochmal ausprobiert: Testweise ein verschlüsseltes Filesystem angelegt (Data/Test_enc) und versucht, ein nicht verschlüsseltes Filesystem auf das verschlüsselte (und entriegelte) Filesystem zu übertragen:
Bash:root@server> zfs send - R Data/test@current_snap | zfs receive -F -d Data/Test_enc cannot receive new filesystem stream: parent 'Data/Test_enc' must not be encrypted to receive unenecrypted property
Auch das Ergänzen von '-o encryption=on' beim receive Kommnado hat nur andere Fehlermeldung gebracht. Aber wenn Ihr einhellig der Meinung seid, dass das gehen müsste, stelle ich mich vermutlich nur zu doof an. Vielleicht brauche ich doch etwas detaillierte Hinweise zur Vorgehensweise...
Ausserdem ist transparentes Echtzeit-Dedup für einzelne Dateisysteme (ohne separaten Dedup-Lauf) schon State of the Art. Der hohe RAM-Bedarf erfordert dann aber schon hohe dedup-Raten, damit sich das gegenüber LZ4 Compress lohnt.
Interessant wird's allerdings, wenn du mal einen Ausfall haben solltest und eine ersetzen musst. Der Resilver wird vermutlich ewig dauern, wenn du noch nicht auf aktuellem ZFS Stand bist.
Von daher wäre halt auch eine Task gesteuerte Dedup Lösung auch eine nette Alternative => das kann ggf außerhalb der Archivfenster erfolgen.
Mmh, wieso? Metadaten kratzt man Random zusammen, das sollten SMR-Platten aber schaffen. Sobald klar ist, wo was liegt, kann man wieder halbwegs sequentiell lesen, was SMR ja auch wunderbar kann.
Ich dachte, auf die Ersatzplatte wird nach Möglichkeit auch sequentiell geschrieben, u.a. weil ja Datenströme von X anderen Platten zusammenkommen, die richtig organisiert auch große sequentielle Blöcke darstellen. Warum sollte man gerade beim Resilver die üblichen 5s missachten und sofort wild wegschreiben, was man rekonstruiert hat? Umgekehrt müsste doch gerade ein geordneter Resilver der bessere Ausgangspunkt für eine SMR-Platte sein als eine 1:1-Kopie, die zwar 100% sequentiell geschrieben werden kann, aber dann einen fragmentierten Datenbestand enthält?