[Sammelthread] ZFS Stammtisch

Hi ZFS-GEMEINDE

Ich hätte eine kleine Frage:
Habe bis jetzt FreeNAS benutzt.Auf meiner neuen Hardware läuft openindiana mit napp-it. Ich habe eine einzelne 3TB Festplatte die ich unter FreeNas benutzt habe, die auch unter napp-it unter DISKS-all disks angezeigt wird. Leider kann ich nichts importieren oder neu hinzufügen.. Hat jemand von euch ähnliche Probleme?

Eventuell ein Partitionierungsproblem.
FreeBSD kann Platten In GEOM und GPT Format nutzen.
Solaris erkennt GPT Partitionen nicht.

Neu formatieren?

oder
der Controller unterstützt unter Solaris keine 3 TB disk.
(z.B.LSI 1068 Controller können keine 3 TB disks, LSI 2008 Controller dagegen schon.)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Findest du den Pentium nicht ein bischen schwach auf der Brust. Nicht dass der Prozessor nachher eine Bremse in deinem System ist.

In das Lian Li Gehäuse bekommst du doch nur 5 Platten rein, da ist die AOC-USAS2-L8e unnötig.

Der Server soll nur als fileserver herhalten. Was ich so gelesen habe, soll der für zfs ausreichen. Das System wird auch nur 8gb RAM haben.

In das Gehäuse passen insgesamt 8 Platten rein. Meine Planung: 2 x 2,5 (systemplatten) und 6 x 3,5 (datenplatten; 2 x 3 raidz).
Die restlichen 4 SATA möchte ich als Reserve haben und vielleicht rausführen.
 
Der Server soll nur als fileserver herhalten. Was ich so gelesen habe, soll der für zfs ausreichen. Das System wird auch nur 8gb RAM haben.

In das Gehäuse passen insgesamt 8 Platten rein. Meine Planung: 2 x 2,5 (systemplatten) und 6 x 3,5 (datenplatten; 2 x 3 raidz). Die restlichen 4 SATA möchte ich als Reserve haben und vielleicht rausführen.

Solaris & Co brauchen ca 2 GB RAM für das OS.
Der Rest ist für die Nutzer (bringt Geschwindigkeit) durch Lesecache und Schreiboptimierung (Schreiboperationen gehen erst ins RAM, werden dort gesammelt und gehen optimiert nach ein paar Sekunden auf die Platte)

Ich würde aber keinen Pool mehr mit Raid-Z aufbauen. (Viel zuviel schlechte Erfahrung mit Plattenzuverlässigkeit). Wenn da eine Platte ausfällt, ist der gesamte Pool bis zum erfolgreichen Rebuild vom Totalverlust bedroht.

Ich würde auch immer entweder komplett auf Performance optimieren (2fach oder 3fach Mirrors nutzen) oder auf maximal Platz (Raid-Z2 oder Z3 vdevs). 6 Platten mit 2 x Raid-Z hat die I/O Schreibperformance zweier Platten und die Kapazität von 4 Platten, maximal eine Platte pro vdev darf ausfallen. Ein Raid-Z2 aus 6 Platten hat auch die 4fache Kapazität bei der I/O Schreibleistung einer Platte. Es dürfen aber 2 beliebige Platten gleichzeitig ausfallen. Für einen normalen Fileserver oder Backupsystem sicher die bessere Wahl. Einen Webserver, Datenbankserver oder ESXi Storage würde ich aber immer mit Mirrors bauen, desto mehr mirrors desto besser. (ZFS I/O Schreib-Performance skaliert mit der Anzahl der vdevs.) Hier zählt I/O. Bei einem Fileserver ist I/O aber nicht ganz so wichtig. Da zählt mehr die sequentielle Schreib-Leseleistung. Und da ist selbst ein einzelnes Raid-Z2/3 mit 8 GB RAM sehr gut.
 
Zuletzt bearbeitet:
AOC-USAS2-L8e ist der Richtige für ZFS
(und die billigste Alternative zum LSI 9211)

Der AOC-USAS2-L8i ist aber i.d.R. billiger und kann auch in den IT-Modus geflasht werden. Wenn du also nicht mehr als 63 Platten brauchst würde ich den kaufen.


Ich würde aber keinen Pool mehr mit Raid-Z aufbauen.

Ich persönlich auch nicht - aber trotzdem glaube ich, dass es für einen Homserver eine nennenswerte Alternative darstellt, die das beste Verhältnis von Speicherplatz zu Geldeinheiten bietet. Würde ich daher nicht kategorisch ausschließen - jeder hat da andere Prioritäten :)
 
Ich wollte 2 Raidz nehmen, weil ich so die Pools leichter auswechseln kann und nicht gezwungen bin, 6 gleich große Platten zu kaufen. Ich habe noch 3 x 1TB und wollte mir noch 3 x 2,5TB dazu kaufen. Wenn ich in Zukunft Platz brauche, würde ich die 1TB Platten gegen ?TB tauschen. Die ganz wichtigen Daten wollte ich auf beiden Raidz ablegen, in ZFS gibt es doch dafür eine Parameter?!? (Vorsichtshalber: Ich weiß, dass ein Raid kein Backup ersetzt :) )

Danke für die Bestätigung, dass 8GB ausreichen. Damit ist die Diskussion mit meinem Gewissen (16GB) auch abgeschlossen. Der CPU sollte für File-Server Aufgaben doch reichen bzw. sich eher langweilen??

Als OS dachte ich an illumian oder OpenIndiana. Mal sehen. :)

---------- Post added at 11:14 ---------- Previous post was at 11:09 ----------

Der AOC-USAS2-L8i ist aber i.d.R. billiger und kann auch in den IT-Modus geflasht werden.
Gibt es dafür HowTo? Was Hardware flashen angeht, bin ich ein Greenhorn. Wobei die Differenz auch nur ca. 15€ ist.

Der Server ist ein Homeserver und ich wollte eigentlich nicht über 8 Platten (im Notfall 12) hinaus bauen. Wenn der Platz mal zu eng wird, will ich die Platten austauschen.
 
Um in die Diskussion auch nochmals einzusteigen:
Wenn man 8 Platten hat würden sich für mich gedanklich folgende Gebilde ergeben:
1. 1x RaidZ1 > 1vDev zu 8 Platten, langsam, "unsicher" (1 Platte darf ausfallen)
2. 1x RaidZ2 > 1vDev zu 8 Platten, langsam aber sicherer (2 Platten können ausfallen)
3. 1x RaidZ3 > 1vDev zu 8 Platten, langsam, sicher (3 Platten können ausfallen)
4. 2x RaidZ1 > 2vDevs zu je 4 Platten, 2xPerformance, 2 Plattenausfälle möglich
5. 2x RaidZ2 > 2vDevs zu je 4 Platten, 2xPerformance, 4 Plattenausfälle möglich
6. 4x Mirror > 4vDevs zu je 2 Platten, höchste Performance, 4 Plattenausfälle möglich

Stellt sich mir die Frage was davon überhaupt sinnvoll ist. Alle Gebilde mit nur einem vDev erscheinen unattraktiv da einfach zu langsam. Aber wie steht ihr zu zwei RaidZ1/2 mit je vier Platten? Eine ähnliche Frage oder Konstellation wie bei kettil.
 
2. 1x RaidZ2 > 1vDev zu 8 Platten, langsam aber sicherer (2 Platten können ausfallen)
3. 1x RaidZ3 > 1vDev zu 8 Platten, langsam, sicher (3 Platten können ausfallen)
Verwendet man primär, wenn man Speicherplatz braucht und beliebige Festplatten ausfallen dürfen, auch mit 10 oder 12 HDDs.

4. 2x RaidZ1 > 2vDevs zu je 4 Platten, 2xPerformance, 2 Plattenausfälle möglich
auch mit 3-6x Raidz1 bestehend aus nur 3 HDDs.

6. 4x Mirror > 4vDevs zu je 2 Platten, höchste Performance, 4 Plattenausfälle möglich
wenn man Backups der Daten hat, da nicht ein ganzer Mirror ausfallen darf, sonst sind auch alle Daten weg.

Es gibt auch sinnvolle Setups mit 8-20 HDDs im Raid 0 oder 10 (deine Lösung Nummer 6). Kommt halt immer auf den Anwendungszweck drauf an.
 
Gibt es dafür HowTo? Was Hardware flashen angeht, bin ich ein Greenhorn. Wobei die Differenz auch nur ca. 15€ ist.

Der Server ist ein Homeserver und ich wollte eigentlich nicht über 8 Platten (im Notfall 12) hinaus bauen. Wenn der Platz mal zu eng wird, will ich die Platten austauschen.

Flashen ist absolut risikolos und läuft quasi von selbst. Hier kannst du die IT-Firmware inkl. Flash-Tool downloaden Super Micro Computer, Inc. - Products | Accessories | Add-on Cards | AOC-USAS-L8i
 
Hallo,
ich habe ein paar Probleme mit der NFS Server konfiguration. Ich nutze OpenIndiana 148 a oder b.

Ich benötige bei den Freigaben den selben Zugriff wie bei Linux mit no_root_squash. Leider reicht es nicht, wenn ich "zfs set sharenfs=rw,root=host1:host2 tank/nfs" auf dem NFS Server ausführe.
Hat da evtl jemand eine Idee?

Ich habe noch eine weitere Kuriosiät:
Beim OpenIndiana share habe ich immer ein "+" am Ende der Zugriffsrechte, z.B
-rwxrwxrwx+ ... Dateiname.
Wenn ich ein NFS share von einem Linux Server mounte, habe ich kein "+" bei den Zugriffsrechten.

Konkret geht es bei mir darum, dass ich einen OpenVZ-Container auf einem OpenIndiana NFS share haben möchte.
Vielleicht hat hier jemand schon mehr Erfahrung?

LG Ghandalf
 
Moin,

Hallo,
ich habe ein paar Probleme mit der NFS Server konfiguration. Ich nutze OpenIndiana 148 a oder b.

Ich benötige bei den Freigaben den selben Zugriff wie bei Linux mit no_root_squash. Leider reicht es nicht, wenn ich "zfs set sharenfs=rw,root=host1:host2 tank/nfs" auf dem NFS Server ausführe.
Hat da evtl jemand eine Idee?

Wie wärs, wenn du die NFS Option no_root_squash bei den Optionen mit angibst? ;)

zfs set sharenfs=rw,no_root_squash,root=host1:host2 tank/nfs

Vielleicht nimmst du dann auch gleich noch ein paar andere dazu wie noatime und async…

Ich habe noch eine weitere Kuriosiät:
Beim OpenIndiana share habe ich immer ein "+" am Ende der Zugriffsrechte, z.B
-rwxrwxrwx+ ... Dateiname.
Wenn ich ein NFS share von einem Linux Server mounte, habe ich kein "+" bei den Zugriffsrechten.

Das + zeigt an, dass dieses Objekt ACLs enthält, Wenn du mal einen ls -lV auf das Objekt machst, dann siehst du auch die ganzen ACLs. Ich nehme mal an, das du das NFS von Linux aus über NFSv3 exportierst, da werden keine ACLs mit übertragen, bei NFSv4 schon.

Gruß,
budy
 
Hallo,
ich habe ein paar Probleme mit der NFS Server konfiguration. Ich nutze OpenIndiana 148 a oder b.

Ich benötige bei den Freigaben den selben Zugriff wie bei Linux mit no_root_squash. Leider reicht es nicht, wenn ich "zfs set sharenfs=rw,root=host1:host2 tank/nfs" auf dem NFS Server ausführe.
Hat da evtl jemand eine Idee?

Ich habe noch eine weitere Kuriosiät:
Beim OpenIndiana share habe ich immer ein "+" am Ende der Zugriffsrechte, z.B
-rwxrwxrwx+ ... Dateiname.
Wenn ich ein NFS share von einem Linux Server mounte, habe ich kein "+" bei den Zugriffsrechten.

Konkret geht es bei mir darum, dass ich einen OpenVZ-Container auf einem OpenIndiana NFS share haben möchte.
Vielleicht hat hier jemand schon mehr Erfahrung?

LG Ghandalf

Ich nehme da immer den einfachsten Weg (sicheres Netz) und setze das Share auf die ACL everyone@=modify mit Vererbung für neue Files und Directories. Damit habe ich vollen NFS Zugriff von jedem Host.

Wurden bereits Files angelegt, so müssen deren Berechtigungen rekursiv zurückgesetzt werden (chmod oder napp-it ACL extension.)

Alternativ kann einem Host mit den NFS Share settings Root Rechte eingeräumt werden. Sollte auch funktionieren.

Das + nach den Unix Permissions bedeutet übrigens, dass auf die Datei oder den Ordner ACL gesetzt sind. Solaris setzt sehr stark auf (Windows kompatible) ACL. Das ist bei NFS zwar ein Extra-Punkt zum Beachten aber ein Segen, wenn man einen Windows kompatiblen SMB Server möchte.


Ergänzung
Ich weiß nicht ob die no_root_squash als share-Option bei Solaris funtioniert.

http://mon.iihe.ac.be/trac/t2b/wiki/Solaris
Avoiding root squashing

Root squashing is the default behaviour for NFS shares in Solaris. It means that trying to access as root on a Solaris share will result in a no-access because root is mapped to nobody account on the Solaris side. This may be very annoying when doing some administration tasks. One solution is to allow no_root_squash from a particular machine on which users has no access. Here is an example of such a share allowing no root squash from host fs.wn.iihe.ac.be :

share -F nfs -o rw,root=fs.wn.iihe.ac.be /storage/localgrid
You can also specify a list of hosts separated by semicolons.

Das wiki bezieht sich zwar auf Solaris, ich vermute aber dass es bei OI genauso ist.
Der share-Befehl als Gegenstück zum Linux no_root_squash sollte demnach root= sein
 
Zuletzt bearbeitet:
Moin,

Wie wärs, wenn du die NFS Option no_root_squash bei den Optionen mit angibst? ;)

zfs set sharenfs=rw,no_root_squash,root=host1:host2 tank/nfs

Hi,

das habe ich ausprobiert, aber das funktioniert nicht.
Fehlermeldung:
Code:
zfs set sharenfs=rw,no_root_squash,root=proxmox1:proxmox2:proxmox3 tank/proxmox_nfs
cannot set property for 'tank/proxmox_nfs': 'sharenfs' cannot be set to invalid options

Vielleicht nimmst du dann auch gleich noch ein paar andere dazu wie noatime und async…
noatime funktioniert leider auch nicht, zumindest nicht mit zfs set sharenfs..

Das + zeigt an, dass dieses Objekt ACLs enthält, Wenn du mal einen ls -lV auf das Objekt machst, dann siehst du auch die ganzen ACLs. Ich nehme mal an, das du das NFS von Linux aus über NFSv3 exportierst, da werden keine ACLs mit übertragen, bei NFSv4 schon.

Gruß,
budy
Danke, die NFS Version 4 konnte ich jetzt deaktivieren, also habe jetzt kein "+" mehr bei den Zugriffsrechten.

Ich nehme da immer den einfachsten Weg (sicheres Netz) und setze das Share auf die ACL everyone@=modify mit Vererbung für neue Files und Directories. Damit habe ich vollen NFS Zugriff von jedem Host.
Hallo,
ich habe den NFS Share in napp-it angelegt und bei Folder-ACL: o=full, g=full, e=full eingetragen. War das falsch?


Wurden bereits Files angelegt, so müssen deren Berechtigungen rekursiv zurückgesetzt werden (chmod oder napp-it ACL extension.)

Alternativ kann einem Host mit den NFS Share settings Root Rechte eingeräumt werden. Sollte auch funktionieren.

Das + nach den Unix Permissions bedeutet übrigens, dass auf die Datei oder den Ordner ACL gesetzt sind. Solaris setzt sehr stark auf (Windows kompatible) ACL. Das ist bei NFS zwar ein Extra-Punkt zum Beachten aber ein Segen, wenn man einen Windows kompatiblen SMB Server möchte.


Ergänzung
Ich weiß nicht ob die no_root_squash als share-Option bei Solaris funtioniert.

Solaris
Avoiding root squashing

Root squashing is the default behaviour for NFS shares in Solaris. It means that trying to access as root on a Solaris share will result in a no-access because root is mapped to nobody account on the Solaris side. This may be very annoying when doing some administration tasks. One solution is to allow no_root_squash from a particular machine on which users has no access. Here is an example of such a share allowing no root squash from host fs.wn.iihe.ac.be :

share -F nfs -o rw,root=fs.wn.iihe.ac.be /storage/localgrid
You can also specify a list of hosts separated by semicolons.

Das wiki bezieht sich zwar auf Solaris, ich vermute aber dass es bei OI genauso ist.
Der share-Befehl als Gegenstück zum Linux no_root_squash sollte demnach root= sein

Danke euch beiden für die Hilfe!

Noch zur Info: Ich nutze nur NFS Version 3.

Leider hat es immer noch nichts geholfen.
Ich erlaube jetzt eh schon alles als root, aber trotzdem hilft es nichts:

Code:
zfs get sharenfs tank/proxmox_nfs
NAME              PROPERTY  VALUE                                                                               SOURCE
tank/proxmox_nfs  sharenfs  rw,noaclfab,root_mapping=0,anon=0,root=@10.199.199.0/24:proxmox1:proxmox2:proxmox3  local
Hier sind alle Hosts mit "root" eingetragen, ich deaktiviere ACL, ich habe zur Sicherheit "root" noch die UID 0 zugewiesen, wie auch allen anderen Usern, für die es keine UID gibt.
ABER: Nichts hat geholfen und bei Linux funktioniert es wunderbar.

Bin schon langsam am verzweifeln, da nichts hilft!

LG Ghandalf
 
Zuletzt bearbeitet:
Ich nutze NFS3 mit ESXi.
Da setze ich die shareNFS lediglich auf on ohne Optionen und setze die ACL everyone@ mit Vererbung.
Neu angelegte Dateien haben dann die richtigen Rechte (everyone darf ändern)

Ich würde jetzt erst mal alle permissions recursiv auf jeder darf alles setzen (chmod -r 777 oder napp-it ACL extension).
Dann! den NFS shared folder auf everyone@=modifiy mit folder und file Vererbung für neue Dateien setzen.
Dann sollte es erst mal funktionieren.
 
Ich nutze NFS3 mit ESXi.
Da setze ich die shareNFS lediglich auf on ohne Optionen und setze die ACL everyone@ mit Vererbung.
Neu angelegte Dateien haben dann die richtigen Rechte (everyone darf ändern)

Ich würde jetzt erst mal alle permissions recursiv auf jeder darf alles setzen (chmod -r 777 oder napp-it ACL extension).
Dann! den NFS shared folder auf everyone@=modifiy mit folder und file Vererbung für neue Dateien setzen.
Dann sollte es erst mal funktionieren.

Danke für die Hilfe!
Brauche ich für "everyone@=modifiy mit folder und file Vererbung für neue Dateien setzen" eine Napp-It ACL Lizenz?
Habe nirgends die Möglichkeit zur Vererbung gefunden, ohne nach einer Lizenz gefragt zu werden. Habe noch keine Napp-It Version 0.8 installiert, bin bei 0.7l.
Das werde ich am Dienstag dann ausprobieren, sofern keine Lizenz von Nöten ist.

Ich habe inzwischen es auch zum Laufen gebracht, es ist nur die Frage, ob das so gut ist oder nicht:
Code:
zfs set sharenfs=rw,noaclfab,root_mapping=0,nosuid,root=@10.199.199.0/24:proxmox1:proxmox2:proxmox3 tank/proxmox_nfs
Ausschlaggebend war "nosuid". Jetzt gibt es aber keine SUID und SGUID Attribute mehr.

Wenn ich den Share nur auf "on" setze, habe ich keine Rechte "root" zu sein, sprich ich kann weder chown root:root ... machen, noch sonst etwas was mit dem User "root" zu tun hat.

Grüße Ghandalf
 
Brauche ich für "everyone@=modifiy mit folder und file Vererbung für neue Dateien setzen" eine Napp-It ACL Lizenz?
Habe nirgends die Möglichkeit zur Vererbung gefunden, ohne nach einer Lizenz gefragt zu werden. Habe noch keine Napp-It Version 0.8 installiert, bin bei 0.7l.
Das werde ich am Dienstag dann ausprobieren, sofern keine Lizenz von Nöten ist.

Basis ACL lassen sich unter dem Menü ZFSfolder setzen.
Mit der napp-it ACL extension sind allow Rechte für user oder Trivial-ACL (entsprechen den Unix permissions) auch frei. Daneben lassen sich auch komplexere ACL kostenlos entweder per CLI oder von einigen Windowsversionen aus setzen.
 
Zuletzt bearbeitet:
Hallo,

nachdem ich jetzt 3 Tage FreeNAS ausgiebig getestet habe, suche ich jetzt nach einer stabilen und "einfachen" Alternative. Ich habe keinen großen Plan von Linux, deshalb weiß ich nicht ob openindiana mit napp-it, das Richtige für mich ist. Oder wie sieht es mit FreeBSD 8.2 bzw. 9.0 aus? Was würdest ihr einem Anfänger empfehlen?

Gruß Noise
 
Zuletzt bearbeitet:
Hallo,

nachdem ich jetzt 3 Tage FreeNAS ausgiebig getestet habe, suche ich jetzt nach einer stabilen und "einfachen" Alternative. Ich habe keinen großen Plan von Linux, deshalb weiß ich nicht ob openindiana mit napp-it, das Richtige für mich ist. Oder wie sieht es mit FreeBSD 8.2 bzw. 9.0 aus? Was würdest ihr einem Anfänger empfehlen?

Gruß Noise

Einfacher als FreeNAS wird es wohl kaum werden ... was hast du denn vor?
 
Freies ZFS >V.28

Derzeit gibt es ZFS Verschlüsselung nur von Oracle mit ZFS ab V.31.
Aber man verliert dabei die Pool Kompatibilität mit FreeBSD, Illumos basierten (Illumian, OpenIndiana, SmartOS), Linux oder OSX
- die sind alle auf ZFS V.28.

Ich erwarte auch kein freies ZFS > V.28
Viel wahrscheinlicher sind Feauture-Flags:
http://blog.delphix.com/csiden/files/2012/01/ZFS_Feature_Flags.pdf
 
Einfacher als FreeNAS wird es wohl kaum werden ... was hast du denn vor?

Okay, einfach ist nicht so wichtig.Ich habe nächste Woche Urlaub und damit ausreichend Zeit.
Ich habe mir einen LSI9211-8i gekauft und fahren den für ZFS im IT Mode. Leider hatte ich mit FreeNAS sehr große Probleme. Ich konnte keine anonymen Freigaben auf Netzlaufwerke machen. Als ich dieses Problem beseitig hatte, viel andauernt der Share aus bzw. hat sich automatisch neugestartet.

Ich möchte: Raid 1 mit ZFS auf einem 2TB Laufwerk. Freigabe 375GB TimeMachine Backup und der Rest ist als Datengrab gedacht. Das Datengrab möchte ich gerne per CIFS und per AFP ansprechen.

Ich habe mir schonmal Freebsd 9 mit KDE installiert.
 
Hat schonmal jemand ein Solaris11 sauber unter ProxMox (Debian KVM Hypervisor á la ESXi) zum laufen bekommen und funktioniert virtio für Netzwerk und Disk für den Solaris-Gast?
Frage mich gerade ob ich ESXi nehmen soll oder ob ProxMox schon ein würdiger Konkurrent ist.
 
Okay, einfach ist nicht so wichtig.Ich habe nächste Woche Urlaub und damit ausreichend Zeit.
Ich habe mir einen LSI9211-8i gekauft und fahren den für ZFS im IT Mode. Leider hatte ich mit FreeNAS sehr große Probleme. Ich konnte keine anonymen Freigaben auf Netzlaufwerke machen.

Würde dir OpenIndiana oder Solaris 11 empfehlen - die Freigaben bzw. andere Einstellungen dann mit napp-it vornehmen, das funktioniert mittlerweile sehr gut und läuft vor allem auch stabil.

Bei dem LSI Controller kann ich dir noch den Tipp geben vorab das neueste Bios und die neueste Firmware Revision aufzuspielen (falls du das nicht schon gemacht hast) - hat bei mir zahlreiche Probleme beseitigt. Das geht auch am besten unter den o.g. Betriebssystemen (einfach sasflash runterladen von der LSI-Page - ist dann ein Befehl in der Shell)
 
Zuletzt bearbeitet:
Würde dir OpenIndiana oder Solaris 11 empfehlen - die Freigaben bzw. andere Einstellungen dann mit napp-it vornehmen, das funktioniert mittlerweile sehr gut und läuft vor allem auch stabil.

Bei dem LSI Controller kann ich dir noch den Tipp geben vorab das neueste Bios und die neueste Firmware Revision aufzuspielen (falls du das nicht schon gemacht hast) - hat bei mir zahlreiche Probleme beseitigt. Das geht auch am besten unter den o.g. Betriebssystemen (einfach sasflash runterladen von der LSI-Page - ist dann ein Befehl in der Shell)

Hi,

vielen Dank!

Ich bin mir ziemlich sicher das mein Controller das aktuellste BIOS hat. p12 oder wie das heißt. Ich habe mir jetzt ein Pool mit 2TB Laufwerken erstellt die als Mirror konfiguriert sind. Danach habe ich eine ZFS Dataset: TimeMachine und Storage erstellt. Anscheind hat alles prima funktioniert. Allerdings konnte ich bei keinem der beiden Datasets eine Größe angeben. Bei der TimeMachine möchte ich allerdings sehr gerne die Größe begrenzen.

Im Moment habe ich nämlich zwei gleich Große Datasets beide 1.6TB.

Vielen Dank! Bis hier hin war es wirklich spielend leicht, bin anderes von Linux gewöhnt ^^
 
Allerdings konnte ich bei keinem der beiden Datasets eine Größe angeben. Bei der TimeMachine möchte ich allerdings sehr gerne die Größe begrenzen.

Das kannst du einfach mit Quotas regeln, z.B. würde
zfs set quota=100G zpool/time-machine
den verfügbaren Speicherplatz für das Dateisystem 'time-machine' im storage pool auf 100 GB begrenzen.
 
Beim installieren von netatalk bekomme ich öfters den Fehler "no acceptable C compiler found in $PATH" . Laut Google suche müsste der Compiler aber immer mit installiert worden sein. :/

So installiert habe ich nun alles, jetzt brauche ich nur noch Durchblick bei den Rechten.
http://wiki.openindiana.org/oi/Using+OpenIndiana+as+a+storage+server

Hier komme ich leider nicht weiter.

Ich möchte SMB anonym und TimeMachine ebenfalls.

TimeMachine Share über AFP habe ich soweit das ich mich mit meinem User einloggen kann. Aber das möchte ich ja eben nicht.

Bei dem SMB klappt gar nichts. Der Share ist sichtbar in Windows, aber ich kann mich auch nicht mit meinem Benutzer einloggen und anonym schon gar nicht.
 
Zuletzt bearbeitet:
Wie bereits gesagt, würde die Freigaben/Benutzerverwaltung mit napp-it erledigen, das funktioniert mittlerweile problemlos.
Die ACLs für die CIFS-Freigaben am besten komplett von Windows aus setzen wie in dem Tut beschrieben http://napp-it.org/doc/downloads/napp-it.pdf
 
Basis ACL lassen sich unter dem Menü ZFSfolder setzen.
Mit der napp-it ACL extension sind allow Rechte für user oder Trivial-ACL (entsprechen den Unix permissions) auch frei. Daneben lassen sich auch komplexere ACL kostenlos entweder per CLI oder von einigen Windowsversionen aus setzen.

Hallo Gea,

habe es jetzt ausprobiert und leider hat es nicht funktioniert.
Ich muss unbedingt bei der NFS-Freigabe statt "on" "rw=@"IP-Range",root="IP-Range"" angeben, da sonst alle Dateien, welche "root" besitzt auf "nobody", bzw. "2147483649 2147483652" gesetzt werden. Des Weiteren habe ich dann wieder diese Zugriffsprobleme.

Ich denke, dass der Unterschied zwischen einem ESXi Datastore und OpenVZ Container Store ist, dass beim ESXi die virtuellen Systemdateien in einer vm-Datei zusammengefasst werden und bei OpenVZ sind alle Dateien sichtbar wie bei einem nicht virtualisiertem Linux. Daher müssen hier alle Rechte sehr genau gesetzt werden.

Ich hatte sogar am Donnerstag noch eine eventuelle Lösung gefunden gehabt:
Code:
zfs get sharenfs tank/proxmox_nfs
NAME              PROPERTY  VALUE                                                                               SOURCE
tank/proxmox_nfs  sharenfs  rw,noaclfab,root_mapping=0,nosuid,root=@10.199.199.0/24:proxmox1:proxmox2:proxmox3  local
Ausschlaggebend ist hier "nosuid". Damit deaktiviere ich wohl SUID komplett, aber damit scheint das OpenVZ System zu laufen. Leider ist so immer noch ein Unterschied zwischen dem Linux NFS-Server und dem OpenIndiana NFS-Server. Beim Linux Server funktionierts mit gesetztem SUID-Bit und beim OpenIndiana Server nicht, auch nicht mit Illumian.

Grüße Ghandalf
 
Aktueller Status:



Hmm, wenn ich das hier richtig verstehe laut Anleitung:

everybody@=modify dann muss ich hier

freigabe.png

den Eintrag auf modify setzen das darf ich aber wohl nicht..., weil es ein Premiumfeature ist ?

Error:

error.png
 
Aktueller Status:



Hmm, wenn ich das hier richtig verstehe laut Anleitung:

everybody@=modify dann muss ich hier


den Eintrag auf modify setzen das darf ich aber wohl nicht..., weil es ein Premiumfeature ist ?

Error:

Korrekt. Im Script ist diese Funktion aber noch gesperrt. Ich möchte aber die Teile der Erweiterung, die für Zuhause ausreichen, freigegeben und dazu gehören triviale ACL oder ACL für einen Benutzer hinzufügen oder rekursives reset aller ACL auf modify.

Dies ist im nächsten nightly build enthalten.
Oder von www.napp-it.org/doc/downloads/acllib.zip herunterlader und die Datei /var/web-gui/data/napp-it/zfsos/_lib/acllib.pl ersetzen.

ansonsten zum NFS Problem von Ghandalf
ESXi legt auch pro VM einen Ordner mit einem halben Dutzend Dateien an. Falls der noch leere NFS Ordner das ACL everyone@ = modify mit Vererbung hat, haben dies auch die per NFS hinzugefügten Dateien. Der Schlüssel ist die Vererbung für neue Dateien.

Eventuell mit dieser ACL Extension alle ACL recursiv auf modify zurücksetzen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh