[Sammelthread] ZFS Stammtisch

Habe ein Problem. Habe auf einem N40L jetzt OI und Napp-It installiert.
Wenn ich auf unter Napp-It menu Platten gehe dann zeigt mir napp-it alle Platten an (4 + 1xOS) alle mit stat "ok". (habe vorher alle Platten mir Gparted gelöscht und GPT initialisiert).
Die OS Platte ist mit "MSDOS" und die anderen wie gesagt alle mit "GPT" initialisiert. (bzw Parition-table GPT).
Wenn ich nun ein pool createn (raidz1) oder mir die SMARTWerte angucken will sagt er immer "no disk avaiable bzw er zeigt mir 4x3TB nicht mehr an).
Neugestartet habe ich schon, keine Änderung. Habt ihr eine Lösung?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das Dokument ist letztmalig am 21.1.2013 geändert, also durchaus aktuell.
Aber Spass beiseite, es ist eine funktionierende Anleitung für einen ESXi Server mit einem virtuellen ZFS SAN storage in einer Box.

ansonsten:
-Aktuell würde ich eher zu OmniOS statt OI tendieren
-Für VM's ist Raid-10 besser/schneller als Raid-Z
-iSCSI funktioniert bei all-in-one nicht, stattdessen NFS nehmen

Hy,

als allererstes möchte ich erwähnen, das ZFS und Solaris absolutes Neuland ist für mich, deswegen nicht zu laut lachen bei manchen Fragen :)

ich versuche jetzt laut deiner Anleitung OpenIndiana zu installieren. (zuerst mal OpenIndiana - Ich habe deine seitenlange Anleitung gesehen bezüglich OmniOS in ESXi, und als absoluter Neuling in dieser Umgebung schaut mir die Installation von OpenIndiana einfacher aus)

Leider habe ich keinen LSI Raid Kontroller sondern einen Adaptec 71605 der über passtrough durchgereicht wird. Treiber habe ich von der Adaptecseite für Solaris 11 64Bit.

Als Installations ISO verwende ich OmniOS_Text_r151004.iso.

Zwecks reinem Test habe ich zuerst keinen Adaptec Treiber hinzugefügt. Die Installation erfolgte wie in deiner Anleitung problemlos bis zum Reboot.

Leider komme ich nach dem Reboot nur auf eine Konsole wo ich mich mit dem Login und PW einloggen kann.

Da stehe ich jetzt an, denn ist weit und breit nichts von einer GUI zu sehen wie in deiner Anleitung.

Bin dankbar über jeden Tipp

EDIT : ich hab die falsche datei verlinkt. das waere ja OmniOS. es war oi-dev-151a7-text-x86.iso die hier.
 
Zuletzt bearbeitet:
Hy,
ich versuche jetzt laut deiner Anleitung OpenIndiana zu installieren. (zuerst mal OpenIndiana - Ich habe deine seitenlange Anleitung gesehen bezüglich OmniOS in ESXi, und als absoluter Neuling in dieser Umgebung schaut mir die Installation von OpenIndiana einfacher aus)
[....]
Als Installations ISO verwende ich OmniOS_Text_r151004.iso.
[....]
Da stehe ich jetzt an, denn ist weit und breit nichts von einer GUI zu sehen wie in deiner Anleitung.

dann nimm doch auch Openindiana...die LIVE version hat einen Desktop...OmniOS hat nur den TEXT installer. :wink:
Hier: Download | OpenIndiana
 
dann nimm doch auch Openindiana...die LIVE version hat einen Desktop...OmniOS hat nur den TEXT installer. :wink:
Hier: Download | OpenIndiana

Ich habs mir fast schon gedacht, nur ich war zu dumm den richtigen (Live) download zu finden :)

Danke für den Link

EDIT:

Ich bin ja wirklich ein Dussl, ist ja die gleiche Seite. Ich habe halt immer die Serverversion genommen und nicht die Desktopvariante!!

Wer lesen kann, ist manchmal im Vorteil, steht ja eh alles auf der Downloadseite :rolleyes:
 
Zuletzt bearbeitet:
Habe ein Problem. Habe auf einem N40L jetzt OI und Napp-It installiert.
Wenn ich auf unter Napp-It menu Platten gehe dann zeigt mir napp-it alle Platten an (4 + 1xOS) alle mit stat "ok". (habe vorher alle Platten mir Gparted gelöscht und GPT initialisiert).
Die OS Platte ist mit "MSDOS" und die anderen wie gesagt alle mit "GPT" initialisiert. (bzw Parition-table GPT).
Wenn ich nun ein pool createn (raidz1) oder mir die SMARTWerte angucken will sagt er immer "no disk avaiable bzw er zeigt mir 4x3TB nicht mehr an).
Neugestartet habe ich schon, keine Änderung. Habt ihr eine Lösung?

Die Platten müssen Solaris2 Partitionen haben.
Einfach mal mit napp-it Menü Platte - initialisieren die Platten neu initialisieren.
(Wobei ich nicht weiß, ob der N40 onboard Controller 3 TB Platten unter Solaris kann)
 
Die Platten müssen Solaris2 Partitionen haben.
Einfach mal mit napp-it Menü Platte - initialisieren die Platten neu initialisieren.
(Wobei ich nicht weiß, ob der N40 onboard Controller 3 TB Platten unter Solaris kann)

Danke, ebend getestet, dass funktioniert. Es funktioniert aber auch wenn ich in Gparted die Festplatte nicht mit "GPT" sondern mit "MSDOS" formatiere. Soweit ich gesehen habe initialisiert napp-it die Platten auch mit "MSDOS". Ist die MSDOS-Parititontabelle nicht viel zu "alt". Für neuere Platten wird doch immer empfohlen statt MBR GPT zu benutzen wenn die Platten größer als 2TB sind. (Ist jedenfalls bei Windows so.)
PS: Habe auch mal FreeNas getestet, da funktioniert das auch mit GPT und ohne das die Platten Solaris2-Partitionen haben. Leider ist dort der LAN-Speed nur 55MB/s (bei OI hatte ich 84-90MB/s).
 
Danke, ebend getestet, dass funktioniert. Es funktioniert aber auch wenn ich in Gparted die Festplatte nicht mit "GPT" sondern mit "MSDOS" formatiere. Soweit ich gesehen habe initialisiert napp-it die Platten auch mit "MSDOS". Ist die MSDOS-Parititontabelle nicht viel zu "alt". Für neuere Platten wird doch immer empfohlen statt MBR GPT zu benutzen wenn die Platten größer als 2TB sind. (Ist jedenfalls bei Windows so.)
PS: Habe auch mal FreeNas getestet, da funktioniert das auch mit GPT und ohne das die Platten Solaris2-Partitionen haben. Leider ist dort der LAN-Speed nur 55MB/s (bei OI hatte ich 84-90MB/s).

Solaris-ZFS initialisiert die Platten beim Anlegen eines vdevs.
Es muss halt ein passendes/lesbares/unterstütztes Vor-Format haben.

Ergänzung:
BSD unterstützt GPT. Jedoch sind diese Pools später nicht in Solaris importierbar.
Portable BSD ZFS Pools müssen in BSD im Geom Format erstellt werden !!!
 
Zuletzt bearbeitet:
Solaris-ZFS initialisiert die Platten beim Anlegen eines vdevs.
Es muss halt ein passendes/lesbares/unterstütztes Vor-Format haben.

Ergänzung:
BSD unterstützt GPT. Jedoch sind diese Pools später nicht in Solaris importierbar.
Portable BSD ZFS Pools müssen in BSD im Geom Format erstellt werden !!!

Gut zu wissen, danke! Heisst das BSD-ZFS die Platten nicht bzw. anders initialisiert beim Erstellen des vdevs als Solaris und die Pools dann nicht kompatibel aufgrund der initialisierung sind?

PS: gibts eine Moeglickeit in OI einen User oder sogar root automatisch anzumelden? Mein Server soll eig durchstarten und napp-it starten ohne das ich mich immer erst einloggen muss.
 
Zuletzt bearbeitet:
Gut zu wissen, danke! Heisst das BSD-ZFS die Platten nicht bzw. anders initialisiert beim Erstellen des vdevs als Solaris und die Pools dann nicht kompatibel aufgrund der initialisierung sind?

PS: gibts eine Moeglickeit in OI einen User oder sogar root automatisch anzumelden? Mein Server soll eig durchstarten und napp-it starten ohne das ich mich immer erst einloggen muss.

Das bedeuted lediglich dass Solaris keine GPT Partitionen mag.
Napp-it startet übrigens ohne dass ein Benutzer angemeldet ist (per init script beim Start).
Für ein remote login muss also lokal niemand angemeldet sein.
 
Hy

kann mir wer bitte einen Tipp geben wie ich bei OpenIndiana einen Raidtreiber nachträglich installiere.

Ich öffne unter Apllications/system Tools/Device Driver Utility/

dort wird mir sofort der Raidcontroller rot angezeigt, meine Treiber habe ich als CD gemounted und alternativ ins /tmp verzeichniss kopiert. Die Treiber sind in einem Ordner DU.

Da ich leider echt momentan 0 Ahnung von dem Betriebssystem habe, schaffe ich es nicht auf diese Treiber zuzugreifen.

Bin über jeden Tipp, kleine Anleitung dankbar.
 
Zuletzt bearbeitet:
Hy

kann mir wer bitte einen Tipp geben wie ich bei OpenIndiana einen Raidtreiber nachträglich installiere.

Leider nein, aber sind auf der CD überhaupt Treiber für Solaris/OI dabei?
Außerdem ist es für ZFS praktischer, wenn der Raid-Controller sich "dumm stellt" und die Platten einfach durchreicht, manche Controller lassen sich mit sog. IT-Firmware flashen, möglicherweise erkennt OI das Gerät dann auch.

Vielleicht sagst du uns noch welchen Controller du hast.
 
Hy ich verwende den Adaptec 71605,

ich habe die Solaris 11 Treiber von der HP runtergeladen und eben diese Treiber als CD gemounted im ESXi.

Alternativ sind die Treiber auch als "normales" Directory dabei.

Thx
 
Zuletzt bearbeitet:
Hy ich verwende den Adaptec 71605,

ich habe die Solaris 11 Treiber von der HP runtergeladen und eben diese Treiber als CD gemounted im ESXi.

Alternativ sind die Treiber auch als "normales" Directory dabei.

Thx

Klingt vielleicht hart, ist aber so:
Der Controller taugt nicht für ZFS - am Besten bei ..bay verkaufen und einen LSI HBA Controller kaufen.
(eventuell einen billigen kompatiblen IBM M1015 und auf LSI 9211 IT mode umflashen)

Bei Solaris & Co gilt zudem:
Immer "Mainstream" nehmen das per default unterstützt wrd.
Solaris ist nicht wie Windows oder Linux, wo man fast alles zum Laufen bringt.
 
Mein ZFS auf dem (gepatchten) ESXi-5.1-Server läuft jetzt schon eine Weile ganz rund mit OmniOS und bin eigentlich ganz zufrieden. Aber mich nervt noch, dass ich ohne weitere Hardware kein Mirror der Festplatte mit virtuellen Gast-Platten bekomme, bzw. nichtmal den Zustand der Platte auslesen kann. Ein Ausfall ist kein Weltuntergang, aber beunruhigend ist das schon. Zudem vermisse ich das Webinterface und die OpenVZ-Funktionen von Proxmox. Das ist wohl wieder eher eine Virtualisierungsfrage, aber ich wollte mal nach euren Bauchgefühl/Glaskugelblick fragen wegen meines Problems mit Proxmox/KVM, bei gleicher Hardware und gleichem Gast:

Sobald beim Starten von egal welchelm Illumos-basiertem Gast-OS mein IMB BR10i-Controller durchgereicht wird, fährt er nicht hoch.
Es tauchen zwei Fehlermeldungen auf:
WARNING: devi_bus information is not set for isa0.
WARNING: devi_bus information is not set for vgatext0.

Google ist wenig hilfreicht, man findet allerhöchstens den Quellcode der die Warnung ausspuckt, geht in der Funktion um's Initialisieren des Error-Handlings, FMA capabilities von PCIe-Geräten.
KVM/SeaBios meckert auch über's Laden des Karten-Bios, aber das dürfte egal sein, weil in FreeBSD kann ich den Controller trotzdem nutzen!

Haltet ihr es für möglich, dass einfach mein BR10i (LSI-geflasht) auf die weise wie es durchgereicht wird nicht mit dem Illumos-Treibern mag und ein Wechsel auf eine M1015, den ich eh mal vollziehen wollte sobald ich eine gebraucht für <100€ finde, das Problem beheben würde oder sitzt der Fehlerteufel eher in meinem System, dem "nur" Workstationboard P8B WS?

Bin einfach unentschlossen ob ich's gut sein lassen soll wie's läuft oder Zeit und Geld in die Suche nach dem perfekteren System investieren soll ;)
 
Klingt vielleicht hart, ist aber so:
Der Controller taugt nicht für ZFS - am Besten bei ..bay verkaufen und einen LSI HBA Controller kaufen.
(eventuell einen billigen kompatiblen IBM M1015 und auf LSI 9211 IT mode umflashen)

Bei Solaris & Co gilt zudem:
Immer "Mainstream" nehmen das per default unterstützt wrd.
Solaris ist nicht wie Windows oder Linux, wo man fast alles zum Laufen bringt.

Naja, vielleicht teste ich ja mal einen IBM an, habe ich mir sowieso schon mal überlegt.

Trotzdem schade, irgendwie muss man den doch zum laufen bringen, umsonst gibts ja keine Treiber dafür :)
 
Das bedeuted lediglich dass Solaris keine GPT Partitionen mag.
Napp-it startet übrigens ohne dass ein Benutzer angemeldet ist (per init script beim Start).
Für ein remote login muss also lokal niemand angemeldet sein.

Stimmt, napp-it geht auch ohne Benutzeranmeldung :) Sehr schön.
Nachdem ich die Platten alle initialisiert hatte (msdos) und dann ein vdev angelegt habe, hat napp-it/ZFS-Solaris die Platten wieder als gpt-table angezeigt. Solaris/OI muss ja dann doch irgendwie mit GPT zurecht kommen :)

Habe dennoch ein paar Fragen:
1) Kann man sich bei Napp-it auch die CPU-Temp angucken? (CPU & RAM auslastung ist schon sehr schön), vllt kannst du (gea) das noch irgenwie nachrüsten? (Ich meine das bei FreeNAS gesehen zu haben und ein schlechtes feature ist das ja nicht :) )
2) zpool status sagt mir zwar das alles bestens ist, jedoch schlägt er mir vor den zpool abzugraden (obwohl ich doch die neuste V28 habe). Habe mir mal die "fehlenden" features mit zpool upgrade -v angeguckt und da steht irgendwas von flags... sollte ich das machen?
3) Die Checksummen-Umstellung von Fletcher2 auf Fletcher4 soll keine großen Performance-Verluste verursachen. Kann ich nachdem ich ein zpool via napp-it erstellt habe, mit dem Terminal von OI den Checksummen-Algorithmus ändern, obwohl schon Daten drauf sind? Und wieviel mehr "Sicherheit" bringt der Wechsel von Fletcher2 auf 4?
4) Unter OI habe ich bei der Installation den Nutzer "Florian" angelegt, wollte diesen jetzt auch bei Napp-It nochmal anlegen da mir dort nur root angezeigt wird und ich die Freigaben gerne unter dem Namen "Florian" einstellen würde. Jedoch sagt mir Napp-It das der User schon vorhanden ist. Wie kann ich den OI-User in Napp-It "einbinden"? (Dazu muss ich sagen dass ich im Solaris/Linux Bereich noch sehr wenig Erfahrung habe).
Mein eigentlicher Plan ist es unter dem vdev raidz1 zwei ZFS-Folder anzulegen. Einmal "backup" und einmal "TimeMachine". (netatalk hab ich schon mit nappit installiert). Ich würde gerne "backup" als Windowsfreigabe mit dem User "Florian" und "TimeMachine" für meinen MAC wenn es geht auch mit dem User "Florian" freigeben.
 
Zuletzt bearbeitet:
1. nicht so einfach
Mir fällt da nur ipmitool auf ipmi Boards ein

2. Bei illumos & Co ist ZFS 5000 mit feature flags aktuell
ZFS V. 28 ist die letzte Version, dia alle ZFS Plattformen verstehen.
Google: feature flags

3. Kann man ändern, man muss dann aber die Daten umkopieren
Obs was bringt ???

alle änderbaren Eigenschaften anzeigen: zfs set

4. Napp-it zeigt (V.0.9) nur die Benutzer an, die ein SMB Passwort haben.
Das wird gesetzt, wenn:
- user in napp-it angelegt werden oder wenn
- per CLI passwd Florian aufgerufen wird
 
Zuletzt bearbeitet:
Doch, ich denke schon. Native 4K-Laufwerke werden kommen (wenn gewisse Betriebssysteme endlich damit umgehen können), dann wars das.

Sorry, das liegt nicht am OS, sondern an der unvollständigen Implementation der ATA Schniittstelle, die ist schlichtweg nicht in der Lage andere Sektorgrössen als 512 Byte zu verwalten, da hierfür kein Konfigurationssektor in den Firmwares/BIOSsen implemmentiert ist (Y2K Bug mit 2- statt 4stelligen Jahreszahlen lässt grüssen)
In der ATA Spezifikation selber sind im Prinzip beliebige Sektorgrössen möglich.
Selbst ein XP kann mit Sektorgrössen von 4K umgehen, wenn der Datenträger diese meldet (was derzeit nur an USB oder FW möglich ist- wie es bei Thunderbolt aussieht kann ich nicht sagen) >> dann können sogar Partitionen mit 16 TiB unter XP angelegt oder verwaltet werden.
 

Da mir keiner weiterhelfen konnte habe ich jetzt, nach einem Biosupdate, Solaris 11 installieren können.

Sieht so aus, wie es aussehen sollte:

sol.PNG

... somit läuft alles Erstmal wie gewollt.

Grüße :)
 
Ich experimentiere gerade mit lofi rum.
Anlegen, importieren, exportieren geht ja hervorragend über die napp-it-Oberfläche.
Das Löschen eines encrypted pool geht aber nicht über die napp-it Oberfläche. Richtig?
Aber warum muss OI zuerst neu gestartet werden um diesen pool zu löschen. Vorher wird mir der Zugriff auf das Verzeichnis und die Dateien verweigert. Wie kann ich einen pool ohne Neustart löschen?

Ist für die Zukunft ein zusätzlicher napp-it User (außer admin und operator) geplant, der nur Zugriff auf das encrypted pool extension bekommt, um seinen pool anlegen, connecten, disconnecten und löschen? Als admin möchte ich sehr ungern mein napp-it Passwort rausgeben - es kann einfach zu viel verbogen werden.
 
Ich experimentiere gerade mit lofi rum.
Anlegen, importieren, exportieren geht ja hervorragend über die napp-it-Oberfläche.
Das Löschen eines encrypted pool geht aber nicht über die napp-it Oberfläche. Richtig?
Aber warum muss OI zuerst neu gestartet werden um diesen pool zu löschen. Vorher wird mir der Zugriff auf das Verzeichnis und die Dateien verweigert. Wie kann ich einen pool ohne Neustart löschen?

Menü Pools - encrypted pools - disconnect
-> dies exportiert den Pool und meldet die lofi devices ab

Auf Wunsch kann man den Ordner mit den lofi Dateien für den verschlüsselten Pool dann
per SMB wegsichern (beliebige Datenträger falls Dateien <= 2 GB) oder auch löschen.
Ein Neustart ist nicht notwendig.

Restore: Den Ordner zurückkopieren
Importieren (mit PW): Menü Pools - encrypted pools - connect


Ist für die Zukunft ein zusätzlicher napp-it User (außer admin und operator) geplant, der nur Zugriff auf das encrypted pool extension bekommt, um seinen pool anlegen, connecten, disconnecten und löschen? Als admin möchte ich sehr ungern mein napp-it Passwort rausgeben - es kann einfach zu viel verbogen werden.

Eine Anregung für die Wunschliste
 
Mal ne Frage mehr aus Neugier:
Hat sich schonmal jemand an ZFS auf Gentoo Linux probiert? Ist ZFS auf Linux überhaupt zu empfehlen oder gibt es triftige Gründe das nur auf Solaris anzupacken?
 
ZFS on Linux läuft auch gut.
Du hängst halt bei der Poolversion (glaube es war v28) fest und der Samba/CIFS Support ist nicht genau so performant wie unter Solaris.
Wenn man damit leben kann spricht nichts dagegen.
 
Mal ne Frage mehr aus Neugier:
Hat sich schonmal jemand an ZFS auf Gentoo Linux probiert? Ist ZFS auf Linux überhaupt zu empfehlen oder gibt es triftige Gründe das nur auf Solaris anzupacken?

Für ein reines NAS oder SAN gibt es sehr gute Gründe für Solaris (auf unterstützter Hardware) z.B.
- (Open)Solaris wurde als System rund um ZFS und nur für ZFS entwickelt, Es unterstützt auch nur ZFS, deshalb:
- DVD einschieben, installieren, läuft: schnell und stabil nach wenigen Minuten mit SMB, NFS und iSCSI
- Die meisten ZFS Server laufen unter Solaris (Ausgereift, exzellente Dokumentation). Googeln zu ZFS: Die meiste Info zu Solaris

Besonderheiten des Solaris SMB Server:
Windows kompatible ACL statt Posix ACL, Snapshots als vorherige Version, benutzt echte Windows SID statt Unix UID/GID)

- NFS Server, als ZFS Eigenschaft
- Comstar (integriertes Packet für Blockdevices, iSCSI, FC)
- Crossbow (Netzwerk-Stack für virtuelle Netze, vlans, virtuelle Switche etc)
- ausgereiftes Service und Fault Management, Dtrace, Rollen basierte Security, komplette Unterstützung für ACL etc.

Man merkt einfach, dass alles aus einer Hand stammt (Sun), für den Unternehmenseinsatz entwickelt wurde und alles extrem stressfrei arbeitet.


Es gibt aber auch Gründe gegen Solaris z.B.:

- Vertrautheit mit einem System
- Nicht NAS oder SAN spezifische Software oder Erweiterungen die es vielleicht für Linux aber nicht für Solaris gibt.
 
Ich nutze ZFSonLinux seit über 6 Monaten ohne Probleme daheim hatte vorher auch Oi aber bin mit den ACLs nicht zurecht gekommen und hatte nur stress damit, selbst bei uns in der Firma (Weltweites Unternehmen mit sehr sehr großer IT INfra) wird es in Production env genutzt zwar nicht bei kritischen Anwendungen aber Fazit der IT ist das es läuft und das ohne größere Probleme.
 
Man merkt einfach, dass alles aus einer Hand stammt (Sun), für den Unternehmenseinsatz entwickelt wurde und alles extrem stressfrei arbeitet.

Es sei denn, es hat mal einen schlechten Tag und zerschießt dir deinen Pool: ZFS with L2ARC bug, panic loop | s!mplex http://mail.opensolaris.org/pipermail/zfs-discuss/2012-December/052944.html

Die gelobte "Enterprise"-Herkunft kann man auch ganz schnell umdrehen: keine Patches, außer man zahlt. Keine Source-Einsicht. V28+ bedeutet Vendor-Lockin, u.a. keine Verschlüsselung.

Ich bin mittlerweile bei ZFS auf FreeBSD+GELI angelangt und bis jetzt zufrieden.
 
Zuletzt bearbeitet:
Gerade der Punkt
Besonderheiten des Solaris SMB Server:
Windows kompatible ACL statt Posix ACL, Snapshots als vorherige Version, benutzt echte Windows SID statt Unix UID/GID)
spricht für mich eigentlich klar für Solaris weil ich mit AD arbeite.

Ich hab jetzt im Moment noch keine konkreten Pläne auf ZFS zu setzen aber da ich jetzt weitestgehend so ziemlich alles virtualisiert hab und mein Fileserver wirklich fast reiner Fileserver ist ist der Schritt weg von meinem RAID Controller (was mangels Unterstützung von Platten > 2 TB irgendwann kommen wird) wohl dann auch durchaus der Punkt an dem ich die Entscheidung pro oder contra ZFS treffen werde.
 
Habe ein saublödes Problem mit ACL (OmniOS installiert aber generelles Problem)
Ich kann die ACL ja nicht für die Freigabe selbst mit Windows-Clients setzen, sondern nur für die darin enthaltenen Ordner... einzeln für die Ordner :wall:
Gibt es da keinen Shortcut wie ich auf Ebene der ZFS-FS oder Freigaben das setzen kann?

Ich dachte ich wäre ganz schlau und gebe das root FS tank frei... Aber das enthält per SMB natürlich keine Ordner, da backup,bilder,filme,musik richtige ZFS-Filesystems und keine schnöden Ordner sind.
Code:
root@plankton:/tank# zfs list -o name,sharesmb
NAME                        SHARESMB
tank                        name=tank$
tank/backup                 name=backup
tank/bilder                 name=bilder
tank/filme                  name=filme
tank/musik                  name=musik

Hat hier jemand noch eine Idee? Ich kann ja schlecht in der Freigabe bilder für jeden Ordner die ACL-Rechte setzen, da erschieße ich mich vorher!
 
Habe ein saublödes Problem mit ACL (OmniOS installiert aber generelles Problem)
Ich kann die ACL ja nicht für die Freigabe selbst mit Windows-Clients setzen, sondern nur für die darin enthaltenen Ordner... einzeln für die Ordner :wall:
Gibt es da keinen Shortcut wie ich auf Ebene der ZFS-FS oder Freigaben das setzen kann?

Ich dachte ich wäre ganz schlau und gebe das root FS tank frei... Aber das enthält per SMB natürlich keine Ordner, da backup,bilder,filme,musik richtige ZFS-Filesystems und keine schnöden Ordner sind.
Code:
root@plankton:/tank# zfs list -o name,sharesmb
NAME                        SHARESMB
tank                        name=tank$
tank/backup                 name=backup
tank/bilder                 name=bilder
tank/filme                  name=filme
tank/musik                  name=musik

Hat hier jemand noch eine Idee? Ich kann ja schlecht in der Freigabe bilder für jeden Ordner die ACL-Rechte setzen, da erschieße ich mich vorher!

Man kann schon von Windows aus die ACL für den Freigabeordner selbst setzen.
Man muss sich halt als root per SMB anmelden. Geht aber nur mit Windows Pro Versionen und mit der
Einschränkung, dass nur allow-Regeln gesetzt werden dürfen da deny Regeln von Solaris anders ausgewertet werden.

Über Windows-Computerverwaltung ließen sich sogar die share-level ACL regeln.
Ist aber von Windows aus etwas fummellig.

Ansonsten:
Wenn kein napp-it benutzt wird: ein kleines shell script schreiben, das mit dem Ordner als Option aufgerufen wird
und per chmod die ACL setzt. Chmod + ACL von Hand ist nur was für Masochisten.
 
hallo freunde,

ich bräuchte mal Hilfe zu folgendem Problem:

Ich habe eine OpenIndiana+Napp-It (0.9a6) und bin extrem zufrieden. Jetzt ist mir aber der Speicherplatz ausgegangen. Ich habe ein großes Verzeichnis auf einen anderen Server kopiert und wollte diesen auf meinem Napp-it Server löschen. Doch ich bekomme immer die Meldung das nicht genügend Speicherplatz zur Verfügung steht. Ich habe es über mein Windows Client probiert (als Root) aber auch in der Shell auf dem Server direkt. Im Monitor wird mir unter CAP 90,4% belegt angezeigt.
Die Frage: Wie kann ich wieder auf dem Server platz schaffen bzw. die Dateien löschen?

---------- Post added at 12:49 ---------- Previous post was at 11:59 ----------

OK Problem gelöst :-)
Durch löschen der Snapshots konnte ich wieder jede menge Platz frei schaufeln und wieder ganz normal Dateien löschen.
Unter "Snapshots -> Mass_Delete" kann man die gewünschten oder alle Snapshots löschen.
Da ich täglich Snapshots erstellt habe kamen jede menge GB zusammen.

Gruß
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh