[Sammelthread] ZFS Stammtisch

Dann könnten ja zB die Clients selbst als smb Share den key bereitstellen. Wenn man wie zB ich sein System mit Veracrypt verschlüsselt hat, ist dieses ja erstmal sicher - zumindest wenn es aus ist.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Prinzipiell denkbar.

Die Idee ist aber eher dass ein Admin das einrichtet und der Benutzer weder den Key hat nocht etwas einrichten muss.
 
Schwieriges Thema von dem ich echt keine Ahnung habe - Usability und gleichzeitig Sicherheit ist da echt nicht einfach. Gut wäre eine automatische Verknüpfung mit AD-Accounts, also encryption/key-basierter Zugriff in Abhängigkeit von Gruppenzugehörigkeiten. In SMB3.0 kann man ja offenbar schonmal verschlüsselten Traffic aktivieren -
aber ob das dann mit so granularen keys auf Userlevel passiert, keine Ahnung. Die Übertragung von login-daten wird m.W. standardmäßig mit Kerberos verschlüsselt.

Das Ganze müsste man jetzt irgendwie in die Solaris-Welt und auf Filesystem-Ebene rüberhieven. :d
 
Auf SMB Ebene gibt es ja nur eine Datei als "Schalter" mit Zugriffsschutz per (AD) ACL
Die eigentlichen Keys liegen als File (z.B. ip geschütztes iSCSI LUN), auf einer https URL oder einem Keyserver

Das ist also völlig ausserhalb des SMB Userzugriffs und arbeitet mit beliebigen SMB clients (Mac, Linux, Windows). Die Keyverwaltung passiert ausschliesslich auf Solaris. AD wird nicht benötigt.
 
Zuletzt bearbeitet:
Vsphere Hypervisor=ESXi

Wenn man den Comtroller durchreicht hat die Storage-VM direkten Zugriff mit eigenen Treibern.
Das is am schnellsten und sichersten.

Die Alternative ist zunächst Physical RDM.
Da wird die einzelne Platte über den ESXi Treiber durchgereicht.
Ist "fast so schnell" wie 1. Da ZFS keinen direkten Zugriff hat muss man sehen wie sicher sync-write dann noch ist.

Letzte Option ist eine virtuelle Platte auf ESXi. Dann geht z.B. Smart oder Pool-Move auf eine Hardware-Installation nicht mehr
 
weiß jemand wie ich die Zeit korrekt einstelle mit Nappit oder warum Nappit sie mir falsch stellt? Muss dort nicht Europe/Berlin stehen?
 
Ist denn Berlin eingestellt (System > Localisation) und z.B. ntpdate pool.ntp.org als other Job gesetzt
 
Habe frisch installiert und noch kein Job gesetzt. Sie war auch korrekt bis ich in Nappit unter System > Localisation die Einstellung "Select Lang" geändert habe auf de_DE.UTF-8 (stand vorher auf af_ZA, wieso auch immer). Seitdem wurde sie eine Stunde früher gesetzt. Habe omniosce installiert im Setup schon Europa und Berlin eingestellt (die Einstellungen zeigt Nappit auch korrekt an) und danach Nappit installiert. Hätte das Menü auch eigentlich nie benutzt wenn nicht Select Lang auf "af_ZA" gestanden hätte.
Das einzige was ich gemacht hab ist omniosce auf den aktuellsten Stand gebracht bevor ich nappit installiert habe.
 
Zuletzt bearbeitet:
Wenn man nicht auf die Systemuhr angewiesen sein möchte muss man die Zeit extern (ntpdate) syncronisieren.
 
Ja schon klar, finde es nur merkwürdig wieso es mir über das webinterface aber die Uhrzeit einfach verstellt. Mein Verständnis ist das wenn ich über "Select Lang" die Sprache umstelle, dass er an der Zeit nix umstellt. Irgendwas wird da doch offenbar überschrieben mit falschen Daten... ntpdate ist ja dann nochmal ne andere Geschichte. Jedenfalls war meine Uhr vorher korrekt, ist sie nach dem Menüaufruf aber nicht mehr.
Die Voreinstellung "af_ZA" ist doch auch merkwürdig. Ist der erste Eintrag aus der Liste. Kann es vielleicht sein dass bei OmniOS irgendwas verändert wurde und Nappit die Daten nicht mehr findet?

Könnte es damit zusammenhängen dass auch bei Solaris 10 und 11 die Konfiguration geändert wurde?

Additional Installation Tasks - Transitioning From Oracle Solaris 10 to Oracle Solaris 11

Erwartet napp-it dass die RTC also Uhr im Bios auf localtime oder UTC steht?
 
Zuletzt bearbeitet:
Ich habe jetzt eine hdd gegen eine andere ausgetauscht. Resilvering läuft. Daumen drücken Jungs :fresse2:
 
Diese Einstellungenb laufen komplett im OS. Napp-it beeinflusst das nicht.

Es sollte aber so sein. Die Systemzeit wird eingelesen und anhand der Zeitzone angepasst.
So wie beim Smartphone dass nach einem Flug die korrekte Zeit anzeigt wenn man die Zeitzone umstellt. Die Uhr selber wird nicht geändert.
 
Ich habe nun erfolgreich eine Platte ausgetauscht. Nun steht aber bei zpool status

" pool: tank
state: ONLINE
status: Some supported features are not enabled on the pool. The pool can
still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
the pool may no longer be accessible by software that does not support
the features. See zpool-features(5) for details.
scan: resilvered 490G in 4h4m with 0 errors on Wed Feb 7 13:41:59 2018"

was bedeutet das, dass ich zpool upgrade machen sollte? Was für features sind deaktiviert? Was wird da aktiviert?
 
Diese Einstellungenb laufen komplett im OS. Napp-it beeinflusst das nicht.

Es sollte aber so sein. Die Systemzeit wird eingelesen und anhand der Zeitzone angepasst.
So wie beim Smartphone dass nach einem Flug die korrekte Zeit anzeigt wenn man die Zeitzone umstellt. Die Uhr selber wird nicht geändert.

Irgendwas passt da aber nicht. Habe in Nappit jetzt mal UTC eingestellt. Jetzt läuft von der Zeit her auf CET/MEZ.
Stelle ich wieder Europa/Berlin ein steht sie eine Stunde früher also auf das was tatsächlich UTC wäre.
Europa/Berlin also CET/MEZ ist aber UTC+1. Mein System verhält sich aber genau entgegen gesetzt nämlich als wäre CET/MEZ = UTC-1.

Es scheint so als ob muss ich hier in Nappit die Werte eintragen auf die ich die RTC gestellt habe.
 
Zuletzt bearbeitet:
Okay ich sehe das Problem aber nicht bei OmniOS weil die Uhrzeit während und nach Installation wie gesagt die ganze Zeit korrekt war und mit einer getätigten Einstellung in Nappit zusammenhängt. Selbst wenn ich in das entsprechende Menü gehe und gar nichts verändere und auf "submit" klicke ändert er die Zeit um. Werde die Tage mal testen ob ich bei einem anderen System das gleiche Verhalten beobachten kann. Ich werde dann wohl einfach die Einstellungen der Zeitzone und Language über die CLI erledigen und nicht über Nappit falls es da auch zu diesem Fehler kommt.
 
Zuletzt bearbeitet:
Die napp-it Localisation Funktion ist in
"/var/web-gui/data/napp-it/zfsos/03_System and network=-lin/02_HW and Localization/02_Localization/action.pl"
 
Ich habe nun erfolgreich eine Platte ausgetauscht. Nun steht aber bei zpool status

" pool: tank
state: ONLINE
status: Some supported features are not enabled on the pool. The pool can
still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
the pool may no longer be accessible by software that does not support
the features. See zpool-features(5) for details.
scan: resilvered 490G in 4h4m with 0 errors on Wed Feb 7 13:41:59 2018"

was bedeutet das, dass ich zpool upgrade machen sollte? Was für features sind deaktiviert? Was wird da aktiviert?

Du hast garantiert ne neuere Version im Einsatz als vor dem Resilver, aber das musst du doch selber wissen?
wie wärs denn mit
man zpool-features.5

Die letzten Features sind:
device_removal
obsolete_counts
encryption


cu

PS: du könntest und allen eine Gefallen tun und statt deiner blöden Doppel-Quote in der Signatur nen Satz über deine verwendete Software verlieren, das is echt mühsam hier...
 
Zuletzt bearbeitet:
Hab geupgradet, das lief ganz gut.

Ich habe nun insgesamt zwei der drei HDDs ersetzt und resilvert ohne Fehler. Problem ist nun: Ein Ordner fehlt! und zwar /tank/samba. Dort habe ich eine Samba-Freigabe erstellt. auch ist sambashare off:

Code:
zfs get sharesmb tank
NAME  PROPERTY  VALUE     SOURCE
tank  sharesmb  off       local

wenn ich das auf on setze, kommt:
Code:
 zfs set sharesmb=on tank
cannot mount '/tank': directory is not empty
cannot mount '/tank/Backup': directory is not empty
cannot mount '/tank/iso': directory is not empty
property may be set but unable to remount filesystem

aber der Ordner "samba" fehlt immernoch, genauso wie der /tank/nfs ordner. Wie kriege ich die Ordner wieder? Und wie kriege ich samba wieder ans laufen??

Ich nutze ZOL auf einem Proxmox 5.1

wenn ich einen neuen Ordner /tank/samba erstelle, ist der 148GB groß bzw sind verfügbar. Das entspricht meiner SSD und nicht meines HDD-Pools!

meine VMs laufen alle ohne probleme, auch die, die auf /tank zugreifen.
 
Zuletzt bearbeitet:
Hab geupgradet, das lief ganz gut.

Ich habe nun insgesamt zwei der drei HDDs ersetzt und resilvert ohne Fehler. Problem ist nun: Ein Ordner fehlt! und zwar /tank/samba. Dort habe ich eine Samba-Freigabe erstellt. auch ist sambashare off:

Code:
zfs get sharesmb tank
NAME  PROPERTY  VALUE     SOURCE
tank  sharesmb  off       local

wenn ich das auf on setze, kommt:
Code:
 zfs set sharesmb=on tank
cannot mount '/tank': directory is not empty
cannot mount '/tank/Backup': directory is not empty
cannot mount '/tank/iso': directory is not empty
property may be set but unable to remount filesystem

aber der Ordner "samba" fehlt immernoch, genauso wie der /tank/nfs ordner. Wie kriege ich die Ordner wieder? Und wie kriege ich samba wieder ans laufen??

Bei dir weiß ich echt gar nicht, wo ich anfangen soll :wall:
Erstens: Samba!=sharesmb
Zweitens: Du redest von Ordnern (Directories), meinst aber Filesysteme, die du mit zfs create pool/fs angelegt hast, oder?
Deswegen macht sharesmb auf einem Pool auch keinen Sinn, sondern auf einem FS, also zfs set sharesmb=on tank/iso
Und überhaupt hat das alles gar nix mit deinem Plattentausch zu tun!
Ohne Ausgabe von zfs list kommen wir hier nicht weiter.

cu
 
Zuletzt bearbeitet:
ich lerne halt noch :)

nein, ich rede von Ordnern, die ich auf dem /tank angelegt habe. Hat ja schließlich bis zum Festplattentausch funktioniert. Der Platz wird ja auch weiterhin belegt (da waren gute 200GB in dem /tank/samba ordner)

Code:
zfs list
NAME                           USED  AVAIL  REFER  MOUNTPOINT
rpool                         84.1G   141G    96K  /rpool
rpool/ROOT                    7.52G   141G    96K  /rpool/ROOT
rpool/ROOT/pve-1              7.52G   141G  7.52G  /
rpool/data                    68.0G   141G  1.16G  /rpool/data
rpool/data/subvol-102-disk-1   965M  19.1G   965M  /rpool/data/subvol-102-disk-1
rpool/data/subvol-103-disk-1   491M  9.52G   491M  /rpool/data/subvol-103-disk-1
rpool/data/subvol-103-disk-2    96K  10.0G    96K  /rpool/data/subvol-103-disk-2
rpool/data/subvol-103-disk-3    96K  20.0G    96K  /rpool/data/subvol-103-disk-3
rpool/data/subvol-104-disk-1   795M  9.22G   795M  /rpool/data/subvol-104-disk-1
rpool/data/subvol-110-disk-1   512M  9.50G   512M  /rpool/data/subvol-110-disk-1
rpool/data/subvol-110-disk-2    96K   100G    96K  /rpool/data/subvol-110-disk-2
rpool/data/subvol-114-disk-1   810M  14.2G   810M  /rpool/data/subvol-114-disk-1
rpool/data/subvol-115-disk-1   426M  7.58G   426M  /rpool/data/subvol-115-disk-1
rpool/data/subvol-117-disk-1  10.5G  9.54G  10.5G  /rpool/data/subvol-117-disk-1
rpool/data/subvol-119-disk-1   925M  14.1G   925M  /rpool/data/subvol-119-disk-1
rpool/data/subvol-120-disk-1  2.27G  17.7G  2.27G  /rpool/data/subvol-120-disk-1
rpool/data/subvol-122-disk-1   593M  15.4G   593M  /rpool/data/subvol-122-disk-1
rpool/data/subvol-124-disk-1   502M  15.5G   502M  /rpool/data/subvol-124-disk-1
rpool/data/subvol-126-disk-1   501M  15.5G   501M  /rpool/data/subvol-126-disk-1
rpool/data/subvol-127-disk-1   421M  15.6G   421M  /rpool/data/subvol-127-disk-1
rpool/data/subvol-128-disk-1   354M  15.7G   354M  /rpool/data/subvol-128-disk-1
rpool/data/subvol-129-disk-1   680M  24.4G   576M  /rpool/data/subvol-129-disk-1
rpool/data/subvol-132-disk-1   785M  14.3G   673M  /rpool/data/subvol-132-disk-1
rpool/data/subvol-133-disk-1   921M  14.3G   728M  /rpool/data/subvol-133-disk-1
rpool/data/subvol-141-disk-1  1.21G  7.00G  1020M  /rpool/data/subvol-141-disk-1
rpool/data/subvol-151-disk-1  3.73G  11.7G  3.30G  /rpool/data/subvol-151-disk-1
rpool/data/vm-108-disk-1      33.8G   141G  33.8G  -
rpool/data/vm-108-disk-2        92K   141G    92K  -
rpool/data/vm-210-disk-1      1.49G   141G  1.49G  -
rpool/data/vm-250-disk-1      2.20G   141G  2.20G  -
rpool/data/vm-300-disk-1      2.25G   141G  2.25G  -
rpool/swap                    8.50G   143G  6.19G  -
tank                          1.01T   767G   260G  /tank
tank/Backup                    201G   767G   201G  /tank/Backup
tank/base-101-disk-1          18.4G   767G  18.4G  -
tank/base-101-disk-2          35.5G   767G  35.5G  -
tank/iso                      28.2G   767G  28.2G  /tank/iso
tank/subvol-100-disk-1        8.45G  41.6G  8.45G  /tank/subvol-100-disk-1
tank/subvol-104-disk-1         160K   500G   160K  /tank/subvol-104-disk-1
tank/subvol-109-disk-1         162M  39.8G   162M  /tank/subvol-109-disk-1
tank/subvol-111-disk-2         128K   500G   128K  /tank/subvol-111-disk-2
tank/subvol-111-disk-3         128K   500G   128K  /tank/subvol-111-disk-3
tank/subvol-116-disk-1        2.60G  29.4G  2.60G  /tank/subvol-116-disk-1
tank/subvol-123-disk-1         469M  49.5G   469M  /tank/subvol-123-disk-1
tank/subvol-125-disk-1        3.91G  28.1G  3.91G  /tank/subvol-125-disk-1
tank/subvol-151-disk-1         123G   377G   123G  /tank/subvol-151-disk-1
tank/subvol-151-disk-2        57.2G   443G  57.1G  /tank/subvol-151-disk-2
tank/subvol-151-disk-3         213K   500G   128K  /tank/subvol-151-disk-3
tank/subvol-180-disk-1        4.04G  11.4G  3.64G  /tank/subvol-180-disk-1
tank/subvol-180-disk-2         116G   411G  89.5G  /tank/subvol-180-disk-2
tank/vm-105-disk-1            16.7G   767G  16.7G  -
tank/vm-106-disk-1            29.8G   767G  29.8G  -
tank/vm-106-disk-2            47.3G   767G  47.3G  -
tank/vm-107-disk-1            35.3G   767G  35.3G  -
tank/vm-107-disk-2            18.1G   767G  18.1G  -
tank/vm-108-disk-1            19.8G   767G  19.8G  -
tank/vm-220-disk-1            2.64G   767G  2.64G  -

auch "tank/Backup 201G 767G 201G /tank/Backup" funktioniert nicht. Gehe ich in den Ordner, bzw /tank reicht da schon, rein per mc, lande ich auf der SSD mit 141/148GB und die ganzen 200GB an Backups sind auch nicht auffindbar

das selbe gilt für /tank/iso


Code:
zfs get mounted tank
NAME  PROPERTY  VALUE    SOURCE
tank  mounted   no       -

ist das so richtig?

ich glaube nicht:

Code:
zfs mount
rpool/ROOT/pve-1                /
rpool                           /rpool
rpool/ROOT                      /rpool/ROOT
rpool/data                      /rpool/data
rpool/data/subvol-102-disk-1    /rpool/data/subvol-102-disk-1
rpool/data/subvol-103-disk-1    /rpool/data/subvol-103-disk-1
rpool/data/subvol-103-disk-2    /rpool/data/subvol-103-disk-2
rpool/data/subvol-103-disk-3    /rpool/data/subvol-103-disk-3
rpool/data/subvol-104-disk-1    /rpool/data/subvol-104-disk-1
rpool/data/subvol-110-disk-1    /rpool/data/subvol-110-disk-1
rpool/data/subvol-110-disk-2    /rpool/data/subvol-110-disk-2
rpool/data/subvol-114-disk-1    /rpool/data/subvol-114-disk-1
rpool/data/subvol-115-disk-1    /rpool/data/subvol-115-disk-1
rpool/data/subvol-117-disk-1    /rpool/data/subvol-117-disk-1
rpool/data/subvol-119-disk-1    /rpool/data/subvol-119-disk-1
rpool/data/subvol-120-disk-1    /rpool/data/subvol-120-disk-1
rpool/data/subvol-122-disk-1    /rpool/data/subvol-122-disk-1
rpool/data/subvol-124-disk-1    /rpool/data/subvol-124-disk-1
rpool/data/subvol-126-disk-1    /rpool/data/subvol-126-disk-1
rpool/data/subvol-127-disk-1    /rpool/data/subvol-127-disk-1
rpool/data/subvol-128-disk-1    /rpool/data/subvol-128-disk-1
rpool/data/subvol-129-disk-1    /rpool/data/subvol-129-disk-1
rpool/data/subvol-132-disk-1    /rpool/data/subvol-132-disk-1
rpool/data/subvol-133-disk-1    /rpool/data/subvol-133-disk-1
rpool/data/subvol-141-disk-1    /rpool/data/subvol-141-disk-1
rpool/data/subvol-151-disk-1    /rpool/data/subvol-151-disk-1
tank/subvol-100-disk-1          /tank/subvol-100-disk-1
tank/subvol-104-disk-1          /tank/subvol-104-disk-1
tank/subvol-109-disk-1          /tank/subvol-109-disk-1
tank/subvol-111-disk-2          /tank/subvol-111-disk-2
tank/subvol-111-disk-3          /tank/subvol-111-disk-3
tank/subvol-116-disk-1          /tank/subvol-116-disk-1
tank/subvol-123-disk-1          /tank/subvol-123-disk-1
tank/subvol-125-disk-1          /tank/subvol-125-disk-1
tank/subvol-151-disk-1          /tank/subvol-151-disk-1
tank/subvol-151-disk-2          /tank/subvol-151-disk-2
tank/subvol-151-disk-3          /tank/subvol-151-disk-3
tank/subvol-180-disk-1          /tank/subvol-180-disk-1
tank/subvol-180-disk-2          /tank/subvol-180-disk-2

kein Wunder. /tank ist nicht gemounted. Wie kriege ich das gemounted?

Code:
 zfs mount -a
cannot mount '/tank': directory is not empty
cannot mount '/tank/Backup': directory is not empty
cannot mount '/tank/iso': directory is not empty

das sind aber mit zfs create tank/xy angelegte FS!

liegt es daran, dass zfs overlay off ist?

Edit: ja, ich habe "zfs set overlay=on tank" gesetzt, dann zfs mount -a und schon ist alles wieder da :)
 
Zuletzt bearbeitet:
Wenn es funktioniert, ist ZFS ganz nett :)

Meine Daten sind nun alle wieder da bis auf meine 200 GB Backups. tank/Backup ist zwar gemountet, Proxmox zeigt mir auch an, dass 200GB belegt sind, aber der Ordner ist leer?
 
noch besser funktioniert zfs, wenn man sich auch ein wenig einliest...
also wo ist jetzt dein smbshare hin?
was kommt bei ls -l /tank/Backup und bei ls -l /tank ?
und noch mal: tank/iso und tank/backup sind nicht einfach nur Ordner, das sind Filesysteme, gemountet nach /tank/iso bzw. /tank/backup.
Und hör endlich auf auf dem Pool im root rumzupfuschen, das macht man unterhalb des Pools!
Defaults verändern, ohne zu wissen was sie bewirken und hinterher vergessen machts nicht leichter!


cu
 
Zuletzt bearbeitet:
Ich hab mich ja eingelesen, letztes Jahr. Lief halt so gut, dass ich kaum was machen musste :)

Mein Sambashare ist wieder da, und /tank/samba ist ein Ordner, per hand erstellt (mkdir /tank/samba). Die restlichen sind Filesysteme, da gebe ich dir recht (erstellt mit "zfs create tank/iso").

Ich bin per user angemeldet, vergesse nur immer "sudo" mit zu kopieren :fresse:

Code:
ls -l /tank/Backup
total 2
drwxr-xr-x 2 root root 2 Feb  8 11:50 dump
drwxr-xr-x 2 root root 2 Feb  8 11:50 images
drwxr-xr-x 2 root root 2 Feb  8 11:50 private
drwxr-xr-x 3 root root 3 Feb  8 11:50 template

das ist ja auch soweit alles richtig, aber diese Ordner sind alle leer (ncdu /tank/Backup sagt "1 KiB")
 
Ich versteh nur Bahnhof.

Habe gestern mal FreeNAS in ner Vm ausprobiert. Irgendwie nicht ganz selbsterklärend um am Ende machte der Samba-Share Probleme, selbst als es gar keine Freigabe mehr gab. Und das quasi unter Idealbedingungen durch die VM, Laufwerke lagen alle auf meiner SSD.
Nach diesem kleinen Ausflug hat es mir dann auch wieder gereicht.
:wink:

Mein Tipp: mach die ersten Versuche mit einem Solarish + Napp-It. Die Anleitung von Gea ist prima. Ich installier' immer manuell (momentan noch mit Solaris 11.3) wie in Abschnitt 5 beschrieben. Der einfachste Installationsweg ist bei Solaris, für die VM nicht eine vmx3net-NIC auszuwählen, sondern es bei E1000 für die NIC zu belassen. Dann findet der Solaris-Installer die NIC direkt bei der Installation und richtet auch das Netzwerk direkt ein. Nach der Solaris-Installation kannst du dann als root napp-it direkt mit einem Befehl installieren ("wget -O - http://www.napp-it.org/nappit | perl") und bist schon "ready-to-go".

Zumindest für Testzwecke und um mit den Grundlagen warm zu werden. Produktiv würde ich dann schon lieber eine vmxnet3 nehmen und auch eine feste IP-Adresse (soll ja'n Server werden).

ZFS + Linux ist halt... frickelig. Wie's mit BSD aussieht, weiss ich allerdings nicht.
 
Zuletzt bearbeitet:
ja du liest ja auch hier immer nur die hälfte, echt mühsam.
also wo ist jetzt ls -l /tank

und : du -h /tank/Backup
 
Zuletzt bearbeitet:
sry :fresse2:

Code:
 ls -l /tank
total 2495199
drwxr-xr-x  6 root    root             6 Feb  8 11:50 Backup
drwxr-xr-x  3 root    root             3 Jul 27  2017 iso
drwxr-xr-x  2 user	  user             2 Feb  8 11:59 nfs
drwxr-xr-x  2 user	  user            23 Feb  8 12:38 samba
drwxr-xr-x  2 user	  user             2 Feb  8 12:52 sharesmb
drwxr-----  2 root    root             2 Oct  2 11:10 subvol-100-disk-1
drwxr-----  2 root    root             2 Apr 23  2017 subvol-104-disk-1
drwxr-----  2 root    root             2 Jan 23 13:58 subvol-109-disk-1
drwxr-xr-x  2 root    root             2 Jun 11  2017 subvol-111-disk-2
drwxr-xr-x  2 root    root             2 Jun 11  2017 subvol-111-disk-3
drwxr-----  2 root    root             2 Jan 16 15:34 subvol-116-disk-1
drwxr-----  2 root    root             2 Jan 15 14:03 subvol-123-disk-1
drwxr-----  2 root    root             2 Jan 15 14:14 subvol-125-disk-1
drwxr-----  2 root    root             2 Aug 23 09:56 subvol-151-disk-1
drwxr-----  2 root    root             2 Aug 23 09:56 subvol-151-disk-2
drwxr-----  2 root    root             2 Aug 23 09:56 subvol-151-disk-3
drwxr-----  2 root    root             2 Feb  2 10:44 subvol-180-disk-1
drwxr-----  2 root    root             2 Feb  2 10:44 subvol-180-disk-2
drwxrwxrwx  3 user	  users           4 May 14  2017 Tank

Code:
du -h /tank/Backup
512     /tank/Backup/dump
512     /tank/Backup/private
512     /tank/Backup/images
512     /tank/Backup/template/cache
1.0K    /tank/Backup/template
3.0K    /tank/Backup
 
drwxr-xr-x 2 user user 2 Feb 8 12:52 sharesmb :wall:

mach mal zfs list -t snapshot |grep tank
vielleicht hast nen snapshot, in dem was drin is
 
ja den habe ich vorhin testweise neu erstellt, ob ein ZFS-FS schneller ist als ein Ordner auf einem ZFS-FS.

Ich habe snapshots, ja. Aber die sind ja nicht in tank/Backup.

Hier mal ein Bild von /tank/Backup, eingebunden in Proxmox.
Backup.PNG

wie du siehst, zeigt der mir an, dass über 200GB belegt sind. Was ja auch stimmt, da sollten so um die 15 Backups drin sein. Aber der Ordner ist leer.

edit: Tatsache, ein Neustart bewirkt manchmal wunder :fresse: Nun ist alles wieder da. Danke dir für deine Unterstützung :wink:

aber eine Frage habe ich noch:

mein ZFS-Mirror der SSDs hat "compression on", während der HDD-Raidz1 Pool "compression lz4" hat. Gibt es da einen Unterschied?
 
Zuletzt bearbeitet:
ZOL hat wohl doch noch ein paar Bugs ...
compression=on bedeutet in den neueren Versionen durchgängig compression=lz4
Um das mit den Snapshots sauber zu steuern zu können solltest du keine Unterordner unter deinem Pool machen, sondern Filesysteme mit zfs create tank/ebene1 oder tank/ebene1/ebene2 anlegen
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh