[Sammelthread] ZFS Stammtisch

Nachdem ich OmniOS (Napp it to go) auf einen stick gepackt habe und auf dem n40l gestartet habe kommt die ganze zeit diede nachricht (auch im idle, wenn der pc nichts macht).
Zudem blinkt halt der usb stick ununterbrochen was heisst das ständiger zugriff auf den stick herscht. Wollte nur fragen ob das normal ist.
 

Anhänge

  • ImageUploadedByHardwareluxx1367687961.430218.jpg
    ImageUploadedByHardwareluxx1367687961.430218.jpg
    21,2 KB · Aufrufe: 145
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
user root erhält alle Fehler und Hinweise der Programme auf die Console die als root gestartet werden -
also z.B alle napp-it Aufrufe per sudo.

Ein aktuelles napp-it unterdrückt diese Meldungen nach einem reboot.

Es handelt sich hier vermutlich um den Echtzeit-Status (Die Ampel).
Die läuft noch 90s nach dem letzten Seitenaufruf.
 
ok super also nichts schlimmes^^
------
Nappit-to-go hat ganz gut geklappt. Super Arbeit!!!!
Trotzdem noch was^^:
1. Wie kann ich bei OmniOS den Hostnamen ändern? (ist das überhaupt möglich?)
2. Der Mirror von 2 Sticks hat soweit geklappt. Bringt es was ein 3-way mirror zu machen (performance-technisch?)
Also mein Nappit bei OI mit einer HDD war schon schneller als mit meinen beiden USb-Sticks jetzt. (Sind aber auch keine sehr guten Sticks).
Habe hier noch einen liegen und würde gerne wissen ob es sich bemerkbar macht (z.B. in Nappit) wenn ich ein 3way Mirror mache.
3. Warum kann ich nappit - Menu -> Pools -> Benchmark den rpool nicht testen? (Würde gerne damit gucken ob sich ein 3way mirror signifikant auf die read-perf auswirkt)
4. In Nappit haben meine Benutzer (inkl. dem root) immer ein pw. Wie kann ich dem "richtigen" root von Ominos auch ein pw verpassen?
5. Eine Sache ist mir noch aufgefallen: Wenn ich OmniOS starte kommt ja am Anfang eine Art Boot-Manager wo man "default" oder "nappit mit mediatomb" etc auswählen kann. Als Standard wird das letzte "Nappit mit Mediatomb" gestartet. Habe nach dem booten in nappit mediatomb und ssh deaktiviert und das bleibt auch nach einem neustart so obwohl ja im boot-manager aber " nappit mit mediatomb" standardmäßig gebootet wird. Kann ich diesen Bootmanager bearbeiten dass trotzdem "default" gebootet wird?

edit:
6. Mir ist auch aufgefallen dass nach diesem "boot-manager" von Ominos nur der erste Stick blinkt (Zugriff) bis man sich mit einem User bei OmniOS anmelden kann. Ist das so korrekt, weil eig. würde ja das OS schneller starten wenn beide/alle mirrors benutzt werden.
(Im BIOS habe ich aber auch nur den ersten Stick als first-boot-device , da ich im N40L als second-device nicht den zweiten Stick wählen kann. Daran liegt es aber nicht oder?)
 
Zuletzt bearbeitet:
Hallo,

> 3. Warum kann ich nappit - Menu -> Pools -> Benchmark den rpool nicht testen?

weil zum Test der freie Speicherplatz auf dem rpool größer sein muss, als die doppelte Menge des Hauptspeichers.
Die Chance das dies bei einem USB-Stick nicht so ist ist ziemlich groß.
Jetzt kannst gern bei Dir nachschauen und berichten, ob Dich diese Masnahme vor einem Überlaufen des FS geschützt hat.
 
6. Mir ist auch aufgefallen dass nach diesem "boot-manager" von Ominos nur der erste Stick blinkt (Zugriff) bis man sich mit einem User bei OmniOS anmelden kann. Ist das so korrekt, weil eig. würde ja das OS schneller starten wenn beide/alle mirrors benutzt werden.
(Im BIOS habe ich aber auch nur den ersten Stick als first-boot-device , da ich im N40L als second-device nicht den zweiten Stick wählen kann. Daran liegt es aber nicht oder?)

Ist doch RAID 1, da wird doch normalerweise nur von einem Datenträger gelesen und nur beim schreiben werden beide Datenträger genutzt. Damit das ganze schneller geht, solltest du wirklich über bessere USB Sticks nachdenken.
 
ok super also nichts schlimmes^^
------
Nappit-to-go hat ganz gut geklappt. Super Arbeit!!!!
Trotzdem noch was^^:
1. Wie kann ich bei OmniOS den Hostnamen ändern? (ist das überhaupt möglich?)
2. Der Mirror von 2 Sticks hat soweit geklappt. Bringt es was ein 3-way mirror zu machen (performance-technisch?)
Also mein Nappit bei OI mit einer HDD war schon schneller als mit meinen beiden USb-Sticks jetzt. (Sind aber auch keine sehr guten Sticks).
Habe hier noch einen liegen und würde gerne wissen ob es sich bemerkbar macht (z.B. in Nappit) wenn ich ein 3way Mirror mache.
3. Warum kann ich nappit - Menu -> Pools -> Benchmark den rpool nicht testen? (Würde gerne damit gucken ob sich ein 3way mirror signifikant auf die read-perf auswirkt)
4. In Nappit haben meine Benutzer (inkl. dem root) immer ein pw. Wie kann ich dem "richtigen" root von Ominos auch ein pw verpassen?
5. Eine Sache ist mir noch aufgefallen: Wenn ich OmniOS starte kommt ja am Anfang eine Art Boot-Manager wo man "default" oder "nappit mit mediatomb" etc auswählen kann. Als Standard wird das letzte "Nappit mit Mediatomb" gestartet. Habe nach dem booten in nappit mediatomb und ssh deaktiviert und das bleibt auch nach einem neustart so obwohl ja im boot-manager aber " nappit mit mediatomb" standardmäßig gebootet wird. Kann ich diesen Bootmanager bearbeiten dass trotzdem "default" gebootet wird?

edit:
6. Mir ist auch aufgefallen dass nach diesem "boot-manager" von Ominos nur der erste Stick blinkt (Zugriff) bis man sich mit einem User bei OmniOS anmelden kann. Ist das so korrekt, weil eig. würde ja das OS schneller starten wenn beide/alle mirrors benutzt werden.
(Im BIOS habe ich aber auch nur den ersten Stick als first-boot-device , da ich im N40L als second-device nicht den zweiten Stick wählen kann. Daran liegt es aber nicht oder?)

1.
napp-it menu system - network -hostname

2.
praktisch nein (minimal schnellere gui, für das NAS garnichts)

3.
bereits erklärt, Performance ist aber nur gui, nicht NAS-relevant

4.
console: passwd root

5.
der Bootmanager heißt Grub und er unterstützt eine der vielen Wahnsinnsfeatures von Solaris, nähmlich
Boot-Environments, das sind bootfähige Systemsnapshots die manuell oder bei Updates angelegt werden.
Man kann ein BE beim Booten anwählen oder per menu Snaps - Bootenvironments einen als default aktivieren.

Man muss nur wissen, dass immer der letzte Änderungsstand eines BE benutzt wird. Wenn man also in ein anders
BE bootete, dort was löscht und neu in den BE bootet, bleibt die Datei auch gelöscht. (Anders als z.B. bei Esxi).
Will man also einen aktuellen Stand "einfrieren", dann einen BE erstellen und nicht aktivieren.

6.
Es ist ja Software-Raid. Das wird erst nach dem eigentlichen Booten aktiv und beschleunigt ZFS typisch
dann aber alle Lesevorgänge (ZFS liest bei Raid-1 parallel von beiden Datenträgern).
Falls der erste Stick ausfällt, im Bios den zweiten als Bootstick definieren (ihn aber an seinem Platz belassen)
 
Ok soweit alles klar. Danke!
(Wenn der 3way mirror nicht sonderlich viel bringt dann werde ich es bei den beiden Sticks belassen :) Neue kaufen werde ich mir erstmal keine.)

1.Zurzeit habe ich aber noch probleme mit APF-TimeMashine. Wie gesagt ich bin von OI auf Omni gewechselt. Habe in Nappit eigentlich die User wieder eingerichtet aber TimeMashine will nicht wirklich klappen.
Also Verbinden etc kann er sich und er kann auch ein Backup anlegen (ein neues Backup), aber auf das alte kann TimeMaschine nicht zugreifen.
(es wird dann nicht auf den alten Ordner "Florians MacBook Air.sparsebundle" zugegriffen,
sondern ein neuer Ordner "Florians MacBook Air 1.sparsebundle" angelegt.
Ich glaube das ist ein Berechtigungsproblem. Kann ich in Nappit vielleicht dem ZFS-Folder "zpool/timemachine" alle Rechte erstmal entfernen und dann die Rechte für "root" und dem user "mac" rekursiv neuanlegen? (Habe das schon versucht bei "alc extension - ACL on folders" aber geklappt hat es nicht.

2. Mit WinSCP kann ich ja das backup von Nappit einfach zurückspielen (copy & paste). Ist dies auch möglich wenn Nappit läuft? oder ist es sauberer wenn ich nappit vorher via Web-GUI kurz deaktiviere?
 
Zuletzt bearbeitet:
Ok soweit alles klar. Danke!
(Wenn der 3way mirror nicht sonderlich viel bringt dann werde ich es bei den beiden Sticks belassen :) Neue kaufen werde ich mir erstmal keine.)

1.Zurzeit habe ich aber noch probleme mit APF-TimeMashine. Wie gesagt ich bin von OI auf Omni gewechselt. Habe in Nappit eigentlich die User wieder eingerichtet aber TimeMashine will nicht wirklich klappen.
Also Verbinden etc kann er sich und er kann auch ein Backup anlegen (ein neues Backup), aber auf das alte kann TimeMaschine nicht zugreifen.
(es wird dann nicht auf den alten Ordner "Florians MacBook Air.sparsebundle" zugegriffen,
sondern ein neuer Ordner "Florians MacBook Air 1.sparsebundle" angelegt.
Ich glaube das ist ein Berechtigungsproblem. Kann ich in Nappit vielleicht dem ZFS-Folder "zpool/timemachine" alle Rechte erstmal entfernen und dann die Rechte für "root" und dem user "mac" rekursiv neuanlegen? (Habe das schon versucht bei "alc extension - ACL on folders" aber geklappt hat es nicht.

2. Mit WinSCP kann ich ja das backup von Nappit einfach zurückspielen (copy & paste). Ist dies auch möglich wenn Nappit läuft? oder ist es sauberer wenn ich nappit vorher via Web-GUI kurz deaktiviere?

1.
ich würde einfach mal alles freischalten (jeder=modify recursiv)
dann eventuell schauen ob die uid von user mac identisch zu OI gesetzt ist. (winscp-> owner erfragen)

2.
perfekt wäre
/etc/init.d/napp-it stop
restore
/etc/init.d/napp-it start

aber was soll schon groß passieren, einfach machen
 
Kurze Frage: Nun steht das fertige Debian Wheezy mit FreeBSD Kernel bereit. Darunter lässt sich ZFS nutzen ABER wie stabil ist das Ganze? Ist das so ähnlich wie das ZFSonLinux-Projekt oder "besser"?
 
disk vdev pool

Hallo,

wenn ich einen Pool raidz(x) betreiben möchte stellt sich für mich folgende Frage:
wie viele Platten sollte man in einem vdev höchstens verwenden?
Bei Raidz1 2,4,8 daten-disks + parity-disk würde ja noch in das Schema passen: pro vdev maximal 9 Platten.

- vdev raidz1 mit 9 Platten -
Bei einem Plattenverlust und nach erfolgten Austausch dieser Platte:
Wie lange dauert es bis der Pool wieder den Status "online" bekommt?
Welche Faktoren beeinflussen die Dauer der Reparaturphase maßgeblich?

Sicher spielt hier auch die Größe des Filesystems eine entscheidende Rolle.
Ab welcher Plattengröße sollte man raidz2 oder raidz3 einsetzen, weil die voraussichtliche Dauer der Reparatur ein nicht mehr vertretbares Risiko darstellt?
 
Wie gross ist denn jede einzelne Platte? Also bei 3TB Platten würde ich bei dieser Grösse zum raidz2 raten.
Die Dauer des Rebuilds hängt von den Geschwindigkeiten der HDDs (5200rpm, 7200rpm, etc) und des belegten Speicherplatzes ab.
 
Zuletzt bearbeitet:
Wie gross ist denn jede einzelne Platte? Also bei 3TB Platten würde ich bei dieser Grösse zum raidz2 raten.
Die Dauer des Rebuilds hängt von den Geschwindigkeiten der HDDs (5200rpm, 7200rpm, etc) und des belegten Speicherplatzes ab.

Alle Platte sind das selbe Fabrikat und haben 1 Tbyte / 7200rpm und der Pool ist zu 50% belegt.
Wo würdet Ihr den die "Schmerzgrenze" setzen? Ich würde das gerne über Nacht erledigt wissen.

Das selbe Szenario mit 2 Tbyte / 7200rpm Pool ist zu 50% belegt.
Dauert das dann in etwa doppelt so lange?
 
Der Scrub hat letztens bei mir afair 10h gedauert. RAIDZ2 mit 8x2 TB (zwei davon älter, die HD203WI hat die niedrigsten Transferraten) und damals noch etwa halber Belegung. Ähnliches würd ich für nen Resilver rechnen. Die jeweilige Zielplatte ist bei homogenem Pool dann halt limitierend, sagen wir es ist ne ST2000DM001, dann bollert die mit 150 MB/s avg zu. Ists ne HD154UI (wie bei mir letztens testweise im ersten Resilver), dann sinds noch 80 MB/s avg theoretisch, praktisch warens eher 70.

Doppelte Resilver-Menge -> knapp doppelte Zeit, denn Platten gewinnen zwar immer noch massiv an Speicher, aber kaum mehr an Performance. Aber kommt natürlich drauf an, wie alt deine angepeilten 1TB bzw. 2TB sind...
 
Scrub/resilver dauert schon seine Zeit. Mein System 4x 3TB raidz1 (WD Green) dauert um die 8h. (75% voll)
 
Zuletzt bearbeitet:
ok super also nichts schlimmes^^
------
Nappit-to-go hat ganz gut geklappt. Super Arbeit!!!!
Trotzdem noch was^^:
1. Wie kann ich bei OmniOS den Hostnamen ändern? (ist das überhaupt möglich?)
2. Der Mirror von 2 Sticks hat soweit geklappt. Bringt es was ein 3-way mirror zu machen (performance-technisch?)
Also mein Nappit bei OI mit einer HDD war schon schneller als mit meinen beiden USb-Sticks jetzt. (Sind aber auch keine sehr guten Sticks).
Habe hier noch einen liegen und würde gerne wissen ob es sich bemerkbar macht (z.B. in Nappit) wenn ich ein 3way Mirror mache.
3. Warum kann ich nappit - Menu -> Pools -> Benchmark den rpool nicht testen? (Würde gerne damit gucken ob sich ein 3way mirror signifikant auf die read-perf auswirkt)
4. In Nappit haben meine Benutzer (inkl. dem root) immer ein pw. Wie kann ich dem "richtigen" root von Ominos auch ein pw verpassen?
5. Eine Sache ist mir noch aufgefallen: Wenn ich OmniOS starte kommt ja am Anfang eine Art Boot-Manager wo man "default" oder "nappit mit mediatomb" etc auswählen kann. Als Standard wird das letzte "Nappit mit Mediatomb" gestartet. Habe nach dem booten in nappit mediatomb und ssh deaktiviert und das bleibt auch nach einem neustart so obwohl ja im boot-manager aber " nappit mit mediatomb" standardmäßig gebootet wird. Kann ich diesen Bootmanager bearbeiten dass trotzdem "default" gebootet wird?

edit:
6. Mir ist auch aufgefallen dass nach diesem "boot-manager" von Ominos nur der erste Stick blinkt (Zugriff) bis man sich mit einem User bei OmniOS anmelden kann. Ist das so korrekt, weil eig. würde ja das OS schneller starten wenn beide/alle mirrors benutzt werden.
(Im BIOS habe ich aber auch nur den ersten Stick als first-boot-device , da ich im N40L als second-device nicht den zweiten Stick wählen kann. Daran liegt es aber nicht oder?)

5.
Der Systemsnap, der dort bei dir gebootet wird wurde nach der Installation von Mediatomb erstellt und heißt deshalb so. Da es der letzte ist, der während der Installationsroutine erstellt wird ist das der aktive. Alle Änderungen die du im laufenden System machst werden angewendet und auch bei einem Neustart nicht verworfen. Du kannst mit dem Befehl beadm die Boot-Environments anzeigen und bearbeiten (beadm list zeigt alle BE an).
 
Problem

Hi,

habe ein kleines Problem:

über napp it (OI) braucht es ewig bis die Untermenüs aufgehen (Disk, Pool, Create oder sonstiges)

Er rödelt ewig bei "processing, please wait..."

Edit: Alle Menüs die nichts mit den Disks / Controller zutun hat sind schnell.

Hat jemand das Problem auch bzw. ist das normal? In meiner Test-VM war das nicht (kein HW-Controller)

Hardware:

Supermicro X9SCM-F
Xeon E3 1230 V2
16 GB Ram
IBM M1015 (IT-Mode)
2x 3TB WD Red
256 GB SSD / ESXi Store

ESXi 5.1 U1,

Danke für eure Tipps ;)

Gruß Snap
 
Zuletzt bearbeitet:
Hast Du die Platten schlafen legen lassen? Dann dauerts bei mir auch immer lang.

nein - ist gerade erst installiert worden. keine weiteren Konfigurationen

Mir ist aufgefallen, dass der Zugriff über gparted auch schleppend langsam ist.

Edit: Hab den Controller gerade mal an eine Server 2012 VM durchgegeben. Dort ist alles OK. Zugriff da, Performance auch wie zu erwarten.
 
Zuletzt bearbeitet:
Info:

neue OmniOS stable r511006 (build 8d266aa) ist verfügbar
ReleaseNotes

Update von Vorversion (bloody oder stable):

1. Check Publisher:
pkg publisher

Es ist entweder
pkg.omniti.com/omnios/bloody oder pkg.omniti.com/omnios/release (stable)

Falls bloody eingestellt ist, den Publisher entfernen und release wählen:
pkg unset-publisher omnios
pkg set-publisher -g http://pkg.omniti.com/omnios/release omnios

Jetzt kann man updaten
pkg update
reboot

Nach dem Reboot ist man auf OmniOS stable release r511006 build 8d266aa
 
Zuletzt bearbeitet:
Danke für die Info!
Bei mir klappt aber der Befehl "pkg set-publisher -g pkg.omniti.com/omnios/release omnios" nicht. Da steht "unable to contact valid repository".
Wenn ich jetzt "pkg publisher" eingebe, ist die zeile URI leer, weder release noch bloody.

Edit: Gelöst-> einfach ein http:// vor der pkg quelle
 
Zuletzt bearbeitet:
Backup Strategie

Hallo,

ich bin gerade dabei mir eine Backup-Strategie für meinen Server zu erarbeiten und bräuchte dazu Hilfe/Unterstützung. Ich benutze Nas4Free mit ZFS. Es gibt einen Pool und bisher zwei Datasets. Das eine Datasets wird für normalen Fileserver Betrieb mit SMB/AFP/FTP/etc. benutzt und auf dem anderen Dataset liegen VM's für Proxmox, die per NFS freigegeben sind.
Nun möchte ich nachts meine Daten abwechselnd auf zwei unterschiedliche USB Platten sichern, also in einer Nacht auf USB-Platte-1, in der nächsten Nacht auf USB-Platte-2, in der nächsten wieder auf USB-Platte-1 usw. Die Platten sollen am Abend immer umgesteckt werden und per Zeitschaltuhr gegen 3 Uhr hochgefahren werden. ZFS beitet ja u.a. auch die Möglichkeit von automatischen Snapshots, kann ich dafür irgendwie verwenden? Mit rsync habe ich bisher leider noch keine Erfahrung. Wäre super wenn Ihr mir da helfen könntet das umzusetzen.


Alex
 
Ich kenne mich leider nicht mit NAS4Free aus aber unter Linux lässt sich das per Shell-Skript und cronjob erledigen.
Im Skript wird um 03:01Uhr die Platte gemountet und anschließend mit rsync oder rdiff-backup gesynct. Sollte kein Hexenwerk darstellen. Musst du mal schauen ob NAS4Free Skripte & Cronjobs zulässt.

MfG
MrDeluxe
 
Hallo,

ich bin gerade dabei mir eine Backup-Strategie für meinen Server zu erarbeiten und bräuchte dazu Hilfe/Unterstützung. Ich benutze Nas4Free mit ZFS. Es gibt einen Pool und bisher zwei Datasets. Das eine Datasets wird für normalen Fileserver Betrieb mit SMB/AFP/FTP/etc. benutzt und auf dem anderen Dataset liegen VM's für Proxmox, die per NFS freigegeben sind.
Nun möchte ich nachts meine Daten abwechselnd auf zwei unterschiedliche USB Platten sichern, also in einer Nacht auf USB-Platte-1, in der nächsten Nacht auf USB-Platte-2, in der nächsten wieder auf USB-Platte-1 usw. Die Platten sollen am Abend immer umgesteckt werden und per Zeitschaltuhr gegen 3 Uhr hochgefahren werden. ZFS beitet ja u.a. auch die Möglichkeit von automatischen Snapshots, kann ich dafür irgendwie verwenden? Mit rsync habe ich bisher leider noch keine Erfahrung. Wäre super wenn Ihr mir da helfen könntet das umzusetzen.


Alex

Vieleicht hilft das weiter:

faq:0006 [NAS4Free]
 
2. Anlauf...

Nutzt irgendwer ZFS unter Debian GNU/kFreeBSD und kann seine Erfahrungen darunter teilen?
 
Das würde mich auch interessieren, also los meldet euch falls bei euch sowas läuft. :d

Hallo,

ich habe zwar kein Debian sondern openSUSE mit einem Pool von 3 vdev a 2x1TB SATA-HDDs (mirror aus 5 Jahre alten Samsungs), slog sowie cache sind SSDs über zfsonlinux laufen. Auf dem Pool betreibe ich 6 - 12 VMs bei 16GB RAM parallel. Funktion recht gut und stabil, manchmal allerdings einige Aussetzer in Videos bei höherer Schreiblast, die ich in einer VM abspiele, dürfte wohl an etwas wenig RAM liegen. Mit noch 2 oder 4 zusätzlichen oder SAS-HDDs sollte das behebbar sein, stört mich aber z.Zt. nicht sonderlich.
 
Naja gut ZFSonLinux ist wieder was anderes als Debian GNU/kFreeBSD.

What is Debian GNU/kFreeBSD ?

Debian GNU/kFreeBSD is an operating system from Debian, but which uses the kernel of FreeBSD instead of the Linux kernel (thus the name). Some day, most applications would exist both in Debian GNU/kFreeBSD and in Debian GNU/Linux.

d.h. ZFS ist im FreeBSD kernel enthalten und muss nicht seperat als Paket installiert werden, die Vorteile sollten klar sein.
 
Hallo gea und alle anderen,

ist zwar kein ZFS-Problem, eher ein AIO-Problem, aber gibt es für das Board Supermicro X9SRL ähnliche Empfehlungen für BIOS-Settings wie beim X8-SIL?
Also
- disable Watchdog functionality
- disable: „Active State Power Management“. (!!! needed, or net-transfer-errors)

Sind das prinzipielle Settings für alle Supermicroboards?

Gruß Millenniumpilot
 
Die ACL ist "folder only", also die Vorgabe für SMB wenn neue Dateien in dem Ordner angelegt werden (sofern aclinherit=passthrough).
Wichtiger wären die Datei-ACL

Ansonsten:
Die einzige Chance, NFS + Solaris SMB gut hinzubekommen sind
- NFS und SMB voll aufmachen (guestok)
- oder dem Solaris SMB User die UID geben, die für NFS benutzt wird

- Bei SMB, Finger weg von Unix permissions (Ein Setzen von Unixpermissions per chmod löscht ACL Vererbungen. SMB ist ACL only und benutzt für SMB Windows SID statt Unix UIDs)

ansonsten:
Wenn NFS + Benutzer benötigt werden: SMB und NFS4 kann das, NFS3 bildet alles nur auf hosts ab und man kann dann manuell versuchen, die UID konsistent zu halten.
Kann ich die ACL-Vererbungen wiederherstellen? Ich habe alles per chmod geändert und jetzt funktioniert verschieben/umbenennen per SMB/NFS "beschränkt". Ich bin bereit auf NFS zu verzichten und nur SMB zu nutzen :) Nur weiß ich leider nicht, wie ich es am besten machen soll.

Die ACL ist "folder only", also die Vorgabe für SMB wenn neue Dateien in dem Ordner angelegt werden (sofern aclinherit=passthrough).
Wichtiger wären die Datei-ACL

Meinst du sowas?
zfs set aclinherit=passthrough xxx/xxx

Ich kann leider per napp-it die ACL-Berechtigungen nicht auf "file_inherit, folder_inherit" setzen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh