Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Ich nutze Proxmox.
Zwischenzeitlich habe ich aber ein anderes Problem. Weiß aber nicht, ob es eher hier zum ZFS oder eher zum Proxmox Stammtisch gehört.
Ich hätte da mal eine Frage zu napp-it in Verbindung mit Berechtigungen auf NFS bzw. CIFS Shares.
Ich habe heute Nextcloud auf einer Ubuntu VM installiert und wollte als Datenverzeichnis ein CIFS oder NFS Share von meinem napp-it Server verwenden.
Nextcloud akzeptiert aber nur ein Share welches die Berechtigungen 0770 als Stammverzeichnis hat und es muss vermutlich dann auch noch www-data:www-data gehören.
Ich habe überhaupt keinen Schimmer, wie ich solche Berechtigungen realisiere. Ist es eine Einstellung auf dem napp-it Server oder muss ich bestimmt mount-Optionen setzen.
Per Default gehört der Mountpoint natürlich immer root und auch alles was ich dort anlege gehört root und hat auch immer dieselben Dateiberechtigungen.
Geht das überhaupt was ich da machen möchte? Wenn ja, mit NFS oder CIFS? Und vor allem wie?
Ziel wäre: Ein Share vom napp-it Server zu mounten, welches lokal (nextcloud Server) dem User www-data:www-data gehört und alle erzeugten Daten die Berechtigung 770 haben und auch www-data gehören.
Danke im Voraus für eure Hilfe ...
Hast du hierzu "zfs rename" verwendet?
groupadd -g 33 www-data
useradd -u 33 -g www-data www-data
chown -R www-data:www-data /DATA/nextcloud/
chmod -R 0770 /DATA/nextcloud/
nextcloud -fstype=nfs,nolock,rsize=8192,wsize=8192 napp-it.feld.home:/DATA/nextcloud
root@test:/mnt/nappit# sudo -u www-data ls -la nextcloud/
total 10
drwxrwx--- 4 www-data www-data 4 Jan 26 20:34 .
drwxr-xr-x 20 root root 0 Jan 27 11:39 ..
drwxrwx--- 2 www-data www-data 10 Jan 26 21:36 data
drwxrwx--- 2 www-data www-data 3 Jan 26 20:07 '.$EXTEND'
root=@192.168.0.250 DATA/nextcloud
root=@192.168.1.0/24 daten/fs
example:
rw=@192.168.0.0/24,root=@192.168.0.0/24 DATA/nextcloud
rw=@192.168.0.0/24,root=@192.168.0.0/24
root@napp-it:/DATA# share
backup@DATA/ba /DATA/backup sec=sys,rw=@192.168.0.0/24 ""
edomi@DATA/edo /DATA/edomi sec=sys,rw=@192.168.0.0/24 ""
-@DATA/esxi /DATA/esxi rw ""
musik@DATA/mus /DATA/musik sec=sys,rw=@192.168.0.0/24 ""
-@DATA/nextclo /DATA/nextcloud sec=sys,rw=@192.168.0.0/24,root=@192.168.0.0/24[COLOR="#FF0000"]DATA/nextcloud[/COLOR] ""
-@ESXi/vm /ESXi/vm rw ""
root@napp-it:/DATA# share
backup@DATA/ba /DATA/backup sec=sys,rw=@192.168.0.0/24 ""
edomi@DATA/edo /DATA/edomi sec=sys,rw=@192.168.0.0/24 ""
-@DATA/esxi /DATA/esxi rw ""
musik@DATA/mus /DATA/musik sec=sys,rw=@192.168.0.0/24 ""
-@DATA/nextclo /DATA/nextcloud sec=sys,[COLOR="#008000"][B]root=@192.168.0.250/32[/B][/COLOR] ""
-@ESXi/vm /ESXi/vm rw ""
Ich nutze ZFS auf Linux (Debian);
Da ich verschlüsselung wollte habe ich die devices mit luks verschlüsselt.
Danach habe ich einfach die 6 8TB luks devices in den pool gehauen (zpool create pool2 raidz2 /dev/mapper/ld-ata-....) und ein zfs angelegt (zfs create pool2/home).
So weit so gut. Leider ich das ganze recht langsam.
Was ist die Silberkugel mit der man das Geschwindigkeitsproblem löst? geht das nachträglich?
Ich stelle mein fertiges rsync Script mal zur Verfügung - vielleicht hilft es jemand anders weiter.
Das Script nimmt jeweils in zwei Arrays Poolnamen (z.Zt. ist nur ein Pool vorgesehen) und die Namen aller zu sichernden Dateisysteme (die Eingabe von Subfoldern mit einer Hierarchieebene ist auch möglich) als Eingabe und prüft dann ob die Dateisysteme verfügbar (d.h. unlocked) sowie gemounted sind. Dateisysteme die verschlüsselt sind, werden übersprungen, Dateisysteme die nicht gemounted sind werden automatisch eingebunden bevor der Sicherungsvorgang startet.
Die angegebenen Dateisysteme werden dann der Reihe nach per SSH übertragen (im Beispiel zum Strato HiDrive). Dabei werden nicht mehr vorhandene sowie geänderte Dateien mit Suffix Datum+Uhrzeit bei jedem Durchlauf in ein Backup-Folder auf dem Server geschoben, welches das jeweilige Tagesdatum als Suffix enthält.
Das Script ist mit dem -n-Parameter voreingestellt - d.h. rsync macht standardmäßig nur einen dry run.
#!/bin/bash
#v0.4_2012-05-09
#antilope114 hwluxx
SUFFIX_DIR=$(date +%F)
SUFFIX_FILE=$(date +%Y-%m-%d_%H:%M:%S)
POOL=(spool)
FS=(fs1 fs2 fs3/somefolder fs4)
for (( i=0;i<${#POOL[@]};i++)); do
for (( j=0;j<${#FS[@]};j++)); do
if [[ "$(basename $(dirname ${FS[($j)]}))" == "." ]]
then FS_ACTIVE=${FS[($j)]}
else FS_ACTIVE=$(dirname ${FS[($j)]})
fi
if [[ `echo $(zfs get keystatus ${POOL[($i)]}/$FS_ACTIVE) | awk '{print $7}'` == "unavailable" ]]
then echo "Skipping "${POOL[($i)]}/${FS_ACTIVE}". Filesystem is "`echo $(zfs get keystatus ${POOL[($i)]}/$FS_ACTIVE) | awk '{print $7}'`"!"
else
if [[ `echo $(zfs get mounted ${POOL[($i)]}/$FS_ACTIVE) | awk '{print $7}'` == "no" ]]
then echo "Attempting to mount "${POOL[($i)]}/${FS_ACTIVE}; zfs mount ${POOL[($i)]}/$FS_ACTIVE;
if [[ `echo $(zfs get mounted ${POOL[($i)]}/$FS_ACTIVE) | awk '{print $7}'` == "yes" ]]
then echo ${POOL[($i)]}/${FS_ACTIVE}" mounted successfully.";
else
echo "Skipping "${POOL[($i)]}/${FS_ACTIVE}". Filesystem could not be mounted.";
break;
fi
fi
echo "Checking "${POOL[($i)]}/${FS_ACTIVE}"...";
rsync --delete --backup-dir=~rsync_hist/~$SUFFIX_DIR --exclude=~rsync_hist --suffix=_$SUFFIX_FILE -abnPltDvzre "ssh -i /root/.hidrive-strato-key" /${POOL[($i)]}/${FS[($j)]} account-XXXX@rsync.hidrive.strato.com:/users/account-XXXX/zfs_backup/${POOL[($i)]}/
fi
done
done
Ich würde erst einmal einen Test mit einem Linux Standard Dateisystem machen. Meist ist es so, dass Verschlüsselung je nach CPU nur ca. 20 - 70 MB/s zulässt je Datenträger zulässt, dabei ist es egal ob Festplatte oder SSD. Wenn du jeden Datenträger einzeln verschlüsselst kommt eine Menge an CPU Last zusammen.
ZFS läuft mittlerweile auf allen Systemen sehr gut, Fuse ist ja glücklicherweise für ZFS Geschichte.
hallo zusammen,
ich suche im Prinip genau das o.g. Script. Antilope habe ich bereits angeschrieben, bisher gab es leider keine Reaktion.
Kann mir einer das Script vielleicht kurz erklären? Wie kann ich dieses am Besten auf meine Bedürfnisse einrichten? Basis ist ein OmniOS System mit installiertem Napp-it.
Ich muss jetzt dann doch mal das Original-ZFS in Form von 11.4 testen. Einmal direkt am Blech und dann via ESXI.
Edit: Ok, 11.4 installiert am Blech. Napp-It drauf. Pool eingerichtet. Soweit so gut.
Aber irgendwie bin ich für Solaris-SMB zu doof; die Kiste lässt mich weder per Gastzugriff auf ein ZFS SMB-Share noch per mapped User (Arbeitsgruppe, keine Domäne).
Sobald ich von Windows aus ein SMB-Share auf ein Netzwerklaufwerk mappen will oder ein Share (z.B. \\filer\test) aufrufen, will Windows einen User und Pw. Egal was ich dort eingeb: Zugriff is nich.
Bei Xigmanas/FreeBSD, also Samba, war dat nich.
Hmmm, merkwürdig. Das müsste wohl log0 sein? Dort sind bei mir die letzten Einträge vom 31. Januar. Kann es sein, dass nur ins log geschrieben wird, wenn das Netzwerk läuft? Ne, oder? Ich finde auf jeden Fall von Gestern keine log Einträge von log0 - log3...