Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Die Hotsnaps sind doch in dem Fall die VM Snapshots von ESXi - die siehst du nur in der VM im ESXi. Im Dateisystem selbst siehst du die im Rahmen von ZFS nicht.das dann ohne die ESXi Hotsnaps
Oder verstehe ich dich hier falsch ?
ESXi Hotsnaps sind also eigentlich ZFS Snapshots von NFS Datastores, welche wiederum konsistente ESXI Snapshots enthalten. Denn nur so kann man später aus dem ZFS Snapshot wieder ein konsistentes VM Image recovern.Die Hotsnaps sind doch in dem Fall die VM Snapshots von ESXi
Das hat er bei mir erst beim nächsten Hotsnap job gemacht und nicht gleich nochmal danach - ich hatte quasi dauerhaft einen esxi snap in jeder VM. Hatte das nur als prejob aktiv.Dann löscht napp-it wieder die ESXi Snapshots und man hat schließlich einen ZFS Snaptsho
Das ist ne gute Idee. Das sollte funktionieren. Muss mal schaun wie viel Storage das auf dem ESXI kostet, da ich da etwas knapp bin. (50G frei von 380G).Das hat er bei mir erst beim nächsten Hotsnap job gemacht und nicht gleich nochmal danach - ich hatte quasi dauerhaft einen esxi snap in jeder VM. Hatte das nur als prejob aktiv.
Dadurch hatte jeder folgende ZFS snap einen konsistenten VM Zustand inkludiert.
So ist es eigentlich gedacht.Alternativ fällt mir gerade ein, dass ich ja auch vom Backup-Server die ESXi Snapshots erzeugen könnte, bevor die Replikation startet. Und nach der Replikation dann vom Backup-Server aus dann wieder die ESXi Snapshots löschen.
Das macht Sinn. Aber wie kann ich die ESXI Snaps auf dem Haupt ESXI/NAPP-IT Server erstellen und löschen und zwar vom Replication Job, der auf meinem Backup ESXI/NAPP-IT Server läuft.So ist es eigentlich gedacht.
Der Backupserver kontrolliert die Replikationen von einem oder mehreren Quell-Servern.
cpan[2]> notest install IO::Socket::SSL
Running install for module 'IO::Socket::SSL'
Fetching with HTTP::Tiny:
https://cpan.org/authors/id/S/SU/SULLR/IO-Socket-SSL-2.073.tar.gz
HTTP::Tiny failed with an internal error: IO::Socket::SSL 1.42 must be installed for https support
Giving up on '/home/[xxxxxx]/.cpan/sources/authors/id/S/SU/SULLR/IO-Socket-SSL-2.073.tar.gz'
Note: Current database in memory was generated on Wed, 22 Dec 2021 19:55:40 GMT
Genial wäre, wenn ein Replikationsjob auch ESXI Pre/Post Scripts starten könnte, quasi automatische Replikation von ESXI Datastore ZFS Filesystems. Vielleicht geht das ja schon irgendwie und ich habs nur nicht verstanden. Eine kurze Erklärung dazu wäre super!
So, gelöst:Servus, seit einiger Zeit funktioniert der SMTP-over-SSL email-Versand via GMail nicht mehr bei mir.
conf init pushy_https
300MB/s für ein SATA SSD RAIDZ vdev scheinen ein üblicher Wert zu sein. Du darfst da nicht zuviel erwarten.Dann einen zweiten, aus 3x 1TB TLC SSDs im RAID-Z, die Performance ist irgendwie jedoch echt bescheiden, ich komme auf 300MB/s etwa. Deduplizierung brauche ich hier jedoch.
Könnte man das tunen, oder ein striped + mirrored ala RAID 10 stattdessen eher machen, mit einer vierten SSD?
Prinzipiell hat ein Mirror schreibend die Performance einer Einzelplatte (sequentiell und iops). Lesend bei parallelen Zugriffen hat man die doppelte Performance da ZFS dann von beiden Platten gleichzeitig lesen kann. In napp-it Pool > Benchmark (Filebench) und 5streamread/write sieht man das sehr gut. Um die Performance zu beurteilen braucht man auf jeden Fall eine Testreihe die sequentiell und random lesend und dann das schreibend mit und ohne sync testet.300MB/s für ein SATA SSD RAIDZ vdev scheinen ein üblicher Wert zu sein. Du darfst da nicht zuviel erwarten.
Stripe+mirror pool hilft sowohl bei IOPS als auch writes. Lesen geht vermutlich nur unwesentlich schneller. Genaues müsste jmd anderes (be-)raten.
Verschlüsseltes Dataset mit passphrase über Konsole mounten:
1. Schlüssel laden:
# zfs load-key -r pool/crypteddataset
Enter passphrase for 'pool/dataset': key
2. Verschlüsseltes Dataset mounten:
# zfs mount pool/crypteddataset
Verschlüsseltes Dataset Unmounten und Schlüssel entfernen:
1. Unmounten:
# zfs unmount pool/crypteddataset
2. Schlüssel entfernen:
# zfs unload-key -r pool/crypteddataset
Ganz gut beschrieben mit weiteren Optionen ist es hier:
https://docs.oracle.com/cd/E36784_01/html/E36835/gkkih.html#scrolltoc
http://manpages.ubuntu.com/manpages/impish/man8/zfs-load-key.8.html
zfs load-key -r pool/crypteddataset -pw *datasetkey*
plink.exe -ssh root@host -pw password -m c:\path\to\command.txt
zfs load-key -r pool/cryptotest
cryptotestpasswort
zfs mount pool/cryptotest
ssh root@host-IP "zfs load-key -r pool/cryptotest && cryptotestpasswort && zfs mount pool/cryptotest"
Siehe Beitrag #11.998 weiter unten
Genau dieses Phänomen hatte ich auch als ich meine Datasets manuell per ssh (pw abfrage) entsperrt habe.Nur: Weder das NFS-Laufwerk kann vom ESXi erreicht werden, noch die SMB-shares von einem anderen Host.