[Sammelthread] ZFS Stammtisch

@ layerbreak - danke für die Zusammenfassung!

Hier Good Cheap Server - HP Proliant Microserver 4 BAY - OWNERS THREAD - Page 14 - Overclockers UK Forums hat es noch Infos zur Geschwindigkeit Microserver mit SE11 und napp-it.

Dann habe ich noch ein wenig wegen Festplatten gegrübelt. Diesmal aber über die Menge ;-)
Der leere Schacht bietet sich an für 2x 2.5 Zoll (da könnte man dann das OS gespiegelt draufpacken) oder 2.5 Zoll und 3.5 Zoll (2.5 für OS und dann hätte man 5x 3.5 SATA):

http://www.amazon.de/ICY-BOX-IB-172...Q7II/ref=sr_1_1?ie=UTF8&qid=1300602892&sr=8-1
und
2x 2,5" SATA HDD Wechselrahmen auf 5,25" Schacht | SATA / SAS | Wechselrahmen, Backplanes & RAID für Festplatten | Systemkomponenten | LINDY DE

Dafür müsste man aber den Onboard ESata wieder nach innen führen. Dachte erste an den Dremel. Eigentlich müsste aber auch ein halbe Höhe Slotblech möglich sein und dann von ESata auf das Slotblech und von dort nach oben zum Einschub.

PS: Hat jemand nen Tip wie ich einfach (!) die Netzwerkperformance messen kann zwischen ZFS Kiste und einem Win-Rechner?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Coole Sache!

1) Nur die neuere Version ist für Win 7 geeignet
2) Bei mehr als 2 GB RAM auf Host können sich die Ergebnisse verfälschen (ich habe 8 GB)
3) Habe mich parallel mit Napp-it anmelden wollen -> zack, Microserver ist aus. Sachen gibt's...

So, nun orgelt er. Mal schauen was nun geht.

Ah, ok. Keine Ahnung ob der von alleine stoppt. schreiben 40 Mb/s auf's NAS und 56 zurück. Zwei alte 7k Platten im Spiegel. Ohne VErschlüsselung.
Auf die VelocyRaptor 10k, 300 GB (die nebenbei angenehm leise ist): 41 und 64.



Gruss,
Otto
 
Zuletzt bearbeitet:
eine kleine Anmerkung noch zum Thema 4k und ashift

Es kommen ja immer mehr 4k PLatten und ich nehme an dass es irgendwann nur
noch 4k Platten gibt, da damit bei großen Platten und großen Daten weniger
"Verschnitt" abfällt. Es wird also bald auch schnelle, große, 24/7 mit besserer mtbf
4k Platten geben.

In den nächsten Hauptversionen von *Solaris* wird dazu ashift=12 sicher als zfs-Eigenschaft
implementierte werden. Es gibt dazu auch einen regen Austausch in den Illumos/ OI
developer Maillisten. Falls man es jetzt schon probieren möchte (ich habs noch nicht)
so gibt es dazu ein modifiziertes zpool unter

ZFS, zpool v28, OpenSolaris / OpenIndiana b147, 4k drives and you | Grant Pannell
http://wiki.openindiana.org/oi/SATA+-+Advanced+Format+and+4K+Sector+drives

!! nicht getesteter beta-code !! nicht mit kritischen Daten versuchen
- aber jemand muss es halt testen, damit es auch als stable gilt....

samt Peformance Vergeich. Beim Lesen scheint es praktisch nichts zu bringen,
beim Schreiben ca 10% bessere Werte. Es bringt damit deutlich weniger, als eine
schnellere Festplatte.

@otto
Performancemssungen Win -> Server gehen auch mit (freien) Tools wie z.b.
atto benchmark
chrystalmark


Gea
 
Zuletzt bearbeitet:
@otto123

Schau mal hier:
ICY DOCK MB994SP-4S 4 x 2.5" HDD in 1 x 5.25" bay SAS / SATA Hot Swap Backplane RAID cage
Damit kannst du den Platz des 5,25"-Bays besser nutzen und kostet net viel ;)

Probier doch mal nfs unter Windows aus. Wenn das noch funktioniert hast du mehr davon, als von Samba...
Btw.: hab mal mit 2 5400er SATA im Mirror mit compression und dedup getestet (nfs unter Linux über Gbit) - 105MB lesend, 60-70MB schreibend. Aber halt geringe IOPS.

MfG ccmonster
 
Zuletzt bearbeitet:
@otto123

Schau mal hier:
ICY DOCK MB994SP-4S 4 x 2.5" HDD in 1 x 5.25" bay SAS / SATA Hot Swap Backplane RAID cage
Damit kannst du den Platz des 5,25"-Bays besser nutzen und kostet net viel ;)

Probier doch mal nfs unter Windows aus. Wenn das noch funktioniert hast du mehr davon, als von Samba...
Btw.: hab mal mit 2 5400er SATA im Mirror mit compression und dedup getestet (nfs unter Linux über Gbit) - 105MB lesend, 60-70MB schreibend. Aber halt geringe IOPS.

MfG ccmonster

Hoi, danke für die Infos!

Edit: NExenta auf dem kleinen Xeon macht im Schnitt 80 mb/s. Beim Schreiben aber immer Einbrüche: Von knapp 100 Mb/s auf 20 und wieder hoch. Werde nun mal NFS probieren. Erst mal schauen was das überhaupt ist und wo man das verbindet... ISCIS sollte ja auch gehen. Da muss ich mich aber komplett einlesen.

Wegen Icy Dock, schaut sehr schick aus - aber woher nehme ich die vier Anschlüsse her??
Edit: 50 Mecken. Das ist cool. Hoffentlich ist der Lüfter kein Rasenmäher.

Edit II: NFS unter Win 7 pro kann man scheinbar vergessen. Bei Ultimate und Enterprise ist es dabei. Toll :-(

Gruss,
Otto

---------- Beitrag hinzugefügt um 11:30 ---------- Vorheriger Beitrag war um 09:42 ----------

@otto
Performancemssungen Win -> Server gehen auch mit (freien) Tools wie z.b.
atto benchmark
chrystalmark
Gea

Hoi,

glaube der ATTO misst Mist. Immer über 100 Mb/s Write und das obwohl nur eine alte 7k Platte und Verschlüsselung an. Read mit 40 Mb/s klingt realistisch.

Ach ja, für die Optimierer und Stromsparer - in der aktuellen c't wurde ein 300 Watt ATX Netzteil mit Energy Star Gold vorgestellt -> sehr effizient. Fehlt aber noch Importeur.

Gruss
Otto
 
Zuletzt bearbeitet:
Moin,

so nach nun einer Woche mit SW-RAID auf Debian hasse ich das Teil bereits. Videos lassen sich nicht sauber streamen - habe dauernd Artefakte und "Hänger" beim Abspielen auf den Clients. Selbst bei kleinen Videofiles in SD.

Ergo kommt nun wieder ZFS auf die Büchse. Ich tendiere, da ja nun Nexenta meine Hardware scheinbar NICHT mag nun zu Solaris 11 Express mit napp-it. Ich hoffe AFP lässt sich derweile verwalten @Gea? :)

Als Systemplatte kommt diesmal eine 80GB Intel SSD in den Server, die nach von einem verstorbenen MacBook "über" ist.

Kleine Frage - wie mach ich das mit Solaris 11 Express denn, dass der die SSD sowohl als Systemplatte als auch als Cache-Platte nutzt? Oder macht es mehr Sinn als Systemplatte meine IDE weiter zu verwenden und die SSD ZUSÄTZLICH einzubauen?

Daten für den Server sind wie folgt:
- GigaByte GA-MA770T-UD3 Board
- AMD 245e CPU (Athlon X2, 2.9GHz, DualCore, EnergyEfficient)
- 16GB ECC RAM (yey!)
- Intel SASUC8i IT Firmware/LSI

Platten:
- 6x Hitachi 1TB 24/7
- 3x WD 1.5TB EARS :/
- 2x Samsung 1.5TB

Würde 2 Pools bauen: Aus den 1.5ern den Mediapool im RAIDz1 & für die restlichen Daten auf Basis der Hitachis einen RAIDz2 ODER 3x RAIDz1 zusammengefasst (RAID10 quasi).

Allerdings muss ich dazusagen, dass die Daten im Nexenta damals auf den Hitachis lagen - könnte es sein, dass die EARS Platten auch in Debian mit dem SW-RAID5 verlangsamt haben? Kann ich mir ehrlich gesagt selber nicht sooo unbedingt vorstellen.

Sorry für die aktuell vielen Fragen - ich hoffe ich habe hier bald wieder selber ein laufendes System und kann auch bei Fragen helfen!

Ciao
Dennis
 
Die Diskussion läuft hier leider manchmal etwas aus dem Gleis, also bisschen aufpassen :)

Der Thread befindet sich hier durchaus richtig - Problem ist nunmal, dass es in beide Bereiche passt. Die gesamte ZFS Geschichte ist eben auch heimfähig geworden und nur weil einige Leute hier das ganze recht "ambitioniert" betrachten und das Minimum an Transferraten auf Gigabit setzen... Gerade auf nem Homeserver braucht man das nicht, es läuft dort aber auch sehr gut.
 
Moin,

so nach nun einer Woche mit SW-RAID auf Debian hasse ich das Teil bereits. Videos lassen sich nicht sauber streamen - habe dauernd Artefakte und "Hänger" beim Abspielen auf den Clients. Selbst bei kleinen Videofiles in SD.

Ergo kommt nun wieder ZFS auf die Büchse. Ich tendiere, da ja nun Nexenta meine Hardware scheinbar NICHT mag nun zu Solaris 11 Express mit napp-it. Ich hoffe AFP lässt sich derweile verwalten @Gea? :)

welcome back.
AFP macht nach wie vor Probleme, wenn die ZFS-Eigenschaft nbmand
(z.B. wg system-file-locking zwischen NFS und CIFS) eingeschaltet wird.
für AFP also immer ausschalten

Als Systemplatte kommt diesmal eine 80GB Intel SSD in den Server, die nach von einem verstorbenen MacBook "über" ist.

Kleine Frage - wie mach ich das mit Solaris 11 Express denn, dass der die SSD sowohl als Systemplatte als auch als Cache-Platte nutzt? Oder macht es mehr Sinn als Systemplatte meine IDE weiter zu verwenden und die SSD ZUSÄTZLICH einzubauen?

Ersteres ist nicht supported und nicht zu empfehlen.
Also am Besten von IDE booten und die Intel als read-cache-drive

Daten für den Server sind wie folgt:
- GigaByte GA-MA770T-UD3 Board
- AMD 245e CPU (Athlon X2, 2.9GHz, DualCore, EnergyEfficient)
- 16GB ECC RAM (yey!)
- Intel SASUC8i IT Firmware/LSI

Platten:
- 6x Hitachi 1TB 24/7
- 3x WD 1.5TB EARS :/
- 2x Samsung 1.5TB

Würde 2 Pools bauen: Aus den 1.5ern den Mediapool im RAIDz1 & für die restlichen Daten auf Basis der Hitachis einen RAIDz2 ODER 3x RAIDz1 zusammengefasst (RAID10 quasi).

Raid-10 basiert immer auf mirror-vdevs und ist in jedem Falls immer der
schnellste Pool (nicht nur sequentiell sondern vor allem bei IOPS)
Wenn es schnell sein soll, also 3 x mirrored vdevs aus den Hitachis
machen. Wenn es groß sein soll, würde ich eher einen Pool aus
einem raid-z2 vdev machen.

Gea
 
Zuletzt bearbeitet:
welcome back.
AFP macht nach wie vor Probleme, wenn die ZFS-Eigenschaft nbmand
(z.B. wg system-file-locking zwischen NFS und CIFS) eingeschaltet wird.
für AFP also immer ausschalten

Danke für den Hinweis - läuft es denn mit dem abgeschalteten "nbmand" sauber? Habe hier NUR Macs im Netzwerk und dann macht es IMHO wenig Sinn SMB zu nutzen... Vor allem: geht das aus napp-it raus?

gea schrieb:
Ersteres ist nicht supported und nicht zu empfehlen.
Also am Besten von IDE booten und die Intel als read-cache-drive

gea schrieb:
Raid-10 basiert immer auf mirror-vdevs und ist in jedem Falls immer der
schnellste Pool (nicht nur sequentiell sondern vor allem bei IOPS)
Wenn es schnell sein soll, also 3 x mirrored vdevs aus den Hitachis
machen. Wenn es groß sein soll, würde ich eher einen Pool aus
einem raid-z2 vdev machen.

Gea

Och es geht mir ansich mehr um die Datensicherheit, da dort sämtliche Firmendaten, Privatdaten, Bilder etc. liegen. Von daher dachte ich schon an die 3x mirrored vdevs. Eben erhöhte Sicherheit. Große Daten werden darauf und davon eher nicht geschrieben, eher Dokumente.

Hm.. kleine Frage noch dazu: Wie war das? Ich bekomme KEINE Updates für Solaris 11 Express, oder? :/ (Wenn ich es nicht kaufe und nur evaluiere).
 
Zuletzt bearbeitet von einem Moderator:
Die Diskussion läuft hier leider manchmal etwas aus dem Gleis, also bisschen aufpassen :)

Der Thread befindet sich hier durchaus richtig - Problem ist nunmal, dass es in beide Bereiche passt. Die gesamte ZFS Geschichte ist eben auch heimfähig geworden und nur weil einige Leute hier das ganze recht "ambitioniert" betrachten und das Minimum an Transferraten auf Gigabit setzen... Gerade auf nem Homeserver braucht man das nicht, es läuft dort aber auch sehr gut.

Keine Angst, ich halte als Normalnutzer und DAU die Fahne hoch ;-)
Und: Ist doch toll, dass auch der Normalnutzer langsam an Profiware teilhaben kann.

Gruss,
Otto

In den 3.5 Zoll Einschub könnte man natürlich 2.5 Zoll 15 k SAS Platten...
 
Danke für den Hinweis - läuft es denn mit dem abgeschalteten "nbmand" sauber? Habe hier NUR Macs im Netzwerk und dann macht es IMHO wenig Sinn SMB zu nutzen... Vor allem: geht das aus napp-it raus?

ja, läßt sich im menu folder ein/ ausschalten
(direkt neben share AFP)

Och es geht mir ansich mehr um die Datensicherheit, da dort sämtliche Firmendaten, Privatdaten, Bilder etc. liegen. Von daher dachte ich schon an die 3x mirrored vdevs. Eben erhöhte Sicherheit. Große Daten werden darauf und davon eher nicht geschrieben, eher Dokumente.

Alternativ könnte man auch 2 x 3way mirror (ultrasicher, ultraschnell, wenig Kapazität) oder raid-z2 nehmen (sicher, langsamer, viel Kapazität). Normales Raid-10 liegt dazwischen.


Hm.. kleine Frage noch dazu: Wie war das? Ich bekomme KEINE Updates für Solaris 11 Express, oder? :/ (Wenn ich es nicht kaufe und nur evaluiere).

Das Problem: Es ist in diesem Fall wohl kein "only non-comercial or demo-use".
Das heisst ohne Geld an Oracle darf es gar nicht eingesetzt werden -
im Gegensatz zu Nexenta oder OpenIndiana.

Ansonsten wäre das nicht so tragisch.
Wenn es ein neues Solaris gibt, einfach das aufspielen wenn es was Wichtiges, Neues bietet.

Gea
 
@Gea: Danke für die schnellen Infos. Irgendwie ist das ein extrem bitterer Beigeschmack.

Die Frage ist - juckt das wen? Ich mein, ich habe eine 1-Personen Firma (Freelancer). Da ich aber JEDE Software kaufe die ich nutze (zuletzt letzten Monat Adobe CS5 Design Standard (und das tat echt weh ;)) - widerspricht das eigentlich meiner Auffassung. Allerdings habe ich auch wenig Lust jetzt sauviel Geld an Oracle zu zahlen. Also wäre das auch schon wieder raus.

Was bleibt? Nexenta mag meine Hardware nicht; OpenIndiana scheint noch sehr buggy zu sein.

FreeBSD 8.2 hat ZFS v15 "onboard". Habe gerade die Bootinstall-CD mal gestartet und der LSI/Intel wird auch tadellos erkannt.

Was würde gegen FreeBSD 8.2 sprechen? :/

Man das läuft alles andere als erfreulich ab - was wünschte ich mir es würde einfach ein OpenSolaris geben - aber dafür wird es auch keine Updates mehr geben, oder?
 
Zuletzt bearbeitet von einem Moderator:
@Gea: Danke für die schnellen Infos. Irgendwie ist das ein extrem bitterer Beigeschmack.

Die Frage ist - juckt das wen? Ich mein, ich habe eine 1-Personen Firma (Freelancer). Da ich aber JEDE Software kaufe die ich nutze (zuletzt letzten Monat Adobe CS5 Design Standard (und das tat echt weh ;)) - widerspricht das eigentlich meiner Auffassung. Allerdings habe ich auch wenig Lust jetzt sauviel Geld an Oracle zu zahlen. Also wäre das auch schon wieder raus.

Was bleibt? Nexenta mag meine Hardware nicht; OpenIndiana scheint noch sehr buggy zu sein.

FreeBSD 8.2 hat ZFS v15 "onboard". Habe gerade die Bootinstall-CD mal gestartet und der LSI/Intel wird auch tadellos erkannt.

Was würde gegen FreeBSD 8.2 sprechen? :/

Man das läuft alles andere als erfreulich ab - was wünschte ich mir es würde einfach ein OpenSolaris geben - aber dafür wird es auch keine Updates mehr geben, oder?

OpenSolaris ist tot. Letzte freie Version war OpenSolaris Dev-Build 148
=praktisch derzeitiges OpenIndiana Build 148

Bei meinen älteren Storagemaschinen nutze ich noch Nexenta,
bei meinen neuerem All-In-Ones überall OpenIndiana und kann
sagen, dass es bei mir in allen Storagerelevanten Dingen stabil läuft.
- kein Wunder, ist ja auch zu bestimmt >95% identisch mit SE11 Build 151a.

Ich würde mal OpenIndiana probieren.
Stable ist auf Q1.2011 angekündigt
http://wiki.openindiana.org/oi/OpenIndiana+Releases

Gea
 
OpenSolaris ist tot. Letzte freie Version war OpenSolaris Dev-Build 148
=praktisch derzeitiges OpenIndiana Build 148

Bei meinen älteren Storagemaschinen nutze ich noch Nexenta,
bei meinen neuerem All-In-Ones überall OpenIndiana und kann
sagen, dass es bei mir in allen Storagerelevanten Dingen stabil läuft.
- kein Wunder, ist ja auch zu bestimmt >95% identisch mit SE11 Build 151a.

Ich würde mal OpenIndiana probieren.
Stable ist auf Q1.2011 angekündigt
OpenIndiana Releases - OpenIndiana - OpenIndiana Wiki

Gea

Naja ansich wollte ich gerne auch auf der Maschine virtualisieren. Das sollte mit OpenIndiana mit VirtualBox auch kein Problem sein, oder?

Bin halt etwas skeptisch was meine Daten angeht und etwas, was nicht "stable" ist.
 
Naja ansich wollte ich gerne auch auf der Maschine virtualisieren. Das sollte mit OpenIndiana mit VirtualBox auch kein Problem sein, oder?

Bin halt etwas skeptisch was meine Daten angeht und etwas, was nicht "stable" ist.

ZFS selber ist schon stable, wie das mit Virtualbox aussieht kann ich nicht sagen.
Ich virtualisiere ausschliesslich mit ESXi - und das ist ultra stabil.

Ich würde einen Typ1-Virtualisierer ohnehin wenn möglich immer einem Typ-2 vorziehen, der
auf einem Full-feature-OS aufsetzt. Kleinere Sachen zum Testen mache ich aber teils auch mit Fusion auf
meinem Macbook.

Gea
 
Ähm bitte nicht mißverstehen - ich habe hier 2-3 Entwicklungs "Debian" Systeme laufen. Die sind aber wirklich nur "on top". ESXi wäre mit Kanonen auf Spatzen geschossen.

Ich denke ich werde aber auf meinem Mac Pro diese VMs virtualisieren (der hat ja nun mehr als Genug Power) und den Filer wirklich "nur" als Filer nehmen.

Erstmal teste ich in Fusion hier lokal und sehe dann was es wird.

Vielen Dank auf jeden Fall für die Infos :-)
 
Ähm bitte nicht mißverstehen - ich habe hier 2-3 Entwicklungs "Debian" Systeme laufen. Die sind aber wirklich nur "on top". ESXi wäre mit Kanonen auf Spatzen geschossen.

Ich denke ich werde aber auf meinem Mac Pro diese VMs virtualisieren (der hat ja nun mehr als Genug Power) und den Filer wirklich "nur" als Filer nehmen.

Erstmal teste ich in Fusion hier lokal und sehe dann was es wird.

Vielen Dank auf jeden Fall für die Infos :-)

ESXi ist eigentlich richtig klein und fein, gerade mal 80 MB groß -
die Management-Software ist klasse, aber Win-only

Man könnte aber die VM's auch bei Fusion per NFS auf den Filer legen
um ZFS Snaps zu haben. (TimeMachine ist dagegen recht übel)

Gea
 
Aktuell ist das hier mehr eine Grundsatzfrage. Hatte mir ZFSguru eben mal ansehen wollen und was sehe ich?

A word of caution, though! The current release, 0.1.7, is still lacking major core features, such as replacing failed disks, managing spindown control on your disks,

OpenIndiana bekomme ich VMware Fusion noch nicht einmal gestartet. Aktuell sieht es fast so aus als wäre FreeBSD 8.2 die einzige Möglichkeit :/

Nexenta lief ja nicht schlecht, aber es fror eben ab & an komplett ein und die Fehlermeldungen lasen sich mehr als kritisch: [Bash] Nexenta log - Pastebin.com

PS. Boote gerade OpenIndiana auf dem Server zum Test. (LiveCD)
 
Zuletzt bearbeitet von einem Moderator:
Aktuell ist das hier mehr eine Grundsatzfrage. Hatte mir ZFSguru eben mal ansehen wollen und was sehe ich?



OpenIndiana bekomme ich VMware Fusion noch nicht einmal gestartet. Aktuell sieht es fast so aus als wäre FreeBSD 8.2 die einzige Möglichkeit :/

Nexenta lief ja nicht schlecht, aber es fror eben ab & an komplett ein und die Fehlermeldungen lasen sich mehr als kritisch: [Bash] Nexenta log - Pastebin.com

Die Fehler lesen sich für mich eigentlich so, dass eine Platte Probleme hat und
diese den ganzen Controller blockieren. Hatte ich mit einer defekten
Platte und AHCI auch schonmal.

Ansonsten läuft bei mir mit aktuellem Fusion alles ohne Probleme, inkl vmware-tools.
(Solaris 64bit als Typ einstellen), Win, Free-BSD, OI, Nexenta, Se11.

Gea
 
Die Fehler lesen sich für mich eigentlich so, dass eine Platte Probleme hat und
diese den ganzen Controller blockieren. Hatte ich mit einer defekten
Platte und AHCI auch schonmal.

Ansonsten läuft bei mir mit aktuellem Fusion alles ohne Probleme, inkl vmware-tools.
(Solaris 64bit als Typ einstellen), Win, Free-BSD, OI, Nexenta, Se11.

Gea

Ok - hast Recht - ich hatte Andere 64bit ausgewählt - wieso auch immer.

Nun hier mal was positives :) System bootet sauber (recht träge von dem USB-DVD LW). Treiberprobleme: 0

Das ist doch mal was :) Ich bau nun mal die IDE HD ein und die SSD und installiere es auf die IDE.

Frage noch zu "EARS" 4k Problem: Der Mediapool besteht aus 5 Platten, 3 davon haben 4k Cluster - sollte mit 5 Platten doch einigermaßen performant laufen, oder?
 
wegen der 4K Platten würde ich mir keine Gedanken machen.
Beim Schreiben werden ca 10% Performance verschenkt;
wenn es aber zu langsam ist, dann würde ich ohnehin immer
zuerst Raid-10 statt Raid-Z wählen anstatt etwas anderes zu versuhen.

Gea
 
Ich hab nun OpenIndiana mit napp-it laufen. Den Mediapool habe ich aus 3 Mirrors gebaut:

Code:
NAME        STATE     READ WRITE CKSUM
   storage     ONLINE       0     0     0
     mirror-0  ONLINE       0     0     0
       c2t0d0  ONLINE       0     0     0
       c2t1d0  ONLINE       0     0     0
     mirror-1  ONLINE       0     0     0
       c2t2d0  ONLINE       0     0     0
       c2t3d0  ONLINE       0     0     0
     mirror-2  ONLINE       0     0     0
       c2t4d0  ONLINE       0     0     0
       c2t5d0  ONLINE       0     0     0

Die Freigabe per SMB ging prima fix - das macht schon Spaß. Allerdings sind die Übertragungsraten enttäuschend :(

Hatte ich mit Nexenta IMMER mind. 100MB/s, meistens 110MB/s werden die Daten von der internen HDD vom Mac Pro auf den OpenIndiana mit max. 60MB/s kopiert (große Dateien).

Kleines Update:
Habe AFP installiert und siehe da: über 100MB/s :-)

Und direkt die nächste Frage zu AFP.
Löst das nbmand=off das Problem, dass User B nicht den von User A erstellten Ordner löschen darf?

Ich habe versucht es so zu lösen: In der Console in napp-it habe ich eingegeben:
Code:
zfs set nbmand=off storage/Firmendaten

Allerdings stand anschließend (nach Klick auf den Poolnamen) noch immer:
Code:
storage/Firmendaten	nbmand	on	temporary
 
Zuletzt bearbeitet von einem Moderator:
Kleines Update:
Habe AFP installiert und siehe da: über 100MB/s :-)

Und direkt die nächste Frage zu AFP.
Löst das nbmand=off das Problem, dass User B nicht den von User A erstellten Ordner löschen darf?

Ich habe versucht es so zu lösen: In der Console in napp-it habe ich eingegeben:
Code:
zfs set nbmand=off storage/Firmendaten

Allerdings stand anschließend (nach Klick auf den Poolnamen) noch immer:
Code:
storage/Firmendaten	nbmand	on	temporary

nbmand wirkt erst nach einem unmount + mount.
zum Umstellen einfach im Menü folder auf die Eigenschaft klicken.
napp-it macht das dann mit.

Bringt hier aber nichts. nbmand=on sorgt nur dafür, dass überhaubt niemand Files löschen kann

In diesem Fall entweder die Grundeinstellungen im Menü
services-afp-volumes anpassen (siehe netatalk Manual Default: ) oder
direkt beim sharen im Feld allow angeben, wer schreiben darf z.B.
write allowed: peter, paul, mary


Gea
 
nbmand wirkt erst nach einem unmount + mount.
zum Umstellen einfach im Menü folder auf die Eigenschaft klicken.
napp-it macht das dann mit.

Bringt hier aber nichts. nbmand=on sorgt nur dafür, dass überhaubt niemand Files löschen kann

In diesem Fall entweder die Grundeinstellungen im Menü
services-afp-volumes anpassen (siehe netatalk Manual Default: ) oder
direkt beim sharen im Feld allow angeben, wer schreiben darf z.B.
write allowed: peter, paul, mary


Gea

Ok - ich habe die volumes-Datei folgendermaßen angepasst:
Code:
:DEFAULT: options:upriv,usedots,acls
# The "~" below indicates that Home directories are visible by default.
# If you do not wish to have people accessing their Home directories,
# please put a pound sign in front of the tilde or delete it.
# End of File
/storage/Privat Privat  allow:@staff rwlist:user1,user2

Ob ich es nun so mache (Volumes) oder per Share-Menü (beide User "Write Access"), ich kann mit dem jeweils anderen User das Verzeichnis nicht löschen.

Bildschirmfoto-2011-03-20-um-21.06.22.png
 
Zuletzt bearbeitet von einem Moderator:
Ok - ich habe die volumes-Datei folgendermaßen angepasst:
Code:
:DEFAULT: options:upriv,usedots,acls
# The "~" below indicates that Home directories are visible by default.
# If you do not wish to have people accessing their Home directories,
# please put a pound sign in front of the tilde or delete it.
# End of File
/storage/Privat Privat  allow:@staff rwlist:user1,user2

Ob ich es nun so mache (Volumes) oder per Share-Menü (beide User "Write Access"), ich kann mit dem jeweils anderen User das Verzeichnis nicht löschen.

Bildschirmfoto-2011-03-20-um-21.06.22.png

Welches napp-it ist es denn: newest?
wenn nicht auf newest updaten.
(leichte Änderungen in ACL management-
ob es was bringt weiss ich nicht)

welches OSX

Ich hatte auch schon bei den defaults mal die acls weggelassen
und mit upriv und perm gearbeitet.

(Ich habe bei mir trotz sehr vieler Macs netatalk gar nicht bzw. nur
für einzelne für TimeMaschine im Einsatz - auch wenn es schneller ist und Server
selber findet, so tut SMB einfach immer was es soll und es geht halt mit Microsoft AD,
was ich bei netatalk noch nicht geschafft habe)


Gea
 
Zuletzt bearbeitet:
Ich würde mir jetzt die acl anschauen.
Macs können die zwar nicht setzen, müssen sie aber beachten.

Das Dreieck Macs-permissions-acl mit netatalk finde ich aber nicht gut gelöst
eben ganz im Gegensatz zu SMB, das hervorragend in Solaris realisert ist-
wobei ACL editieren ohne Windows Rechner nur per Solaris auch ne Quälerei ist.



Gea
 
Zuletzt bearbeitet:
Servus,

hier die Auflösung: Ich hatte erst das "normale" napp-it installiert. Anschließend das "napp-it04" drüber. Das klappte aber nicht.

Heute habe ich nochmal OpenIndiana neu installiert und direkt napp-it04 installiert. JETZT steht auch NBMAND dort. Vorher NICHT ;)

Mit den Settings:
Code:
:DEFAULT: options:acl,upriv perm:0777

in der Volumes-Datei und frisch neugestartetem netatalk klappt nun auch das erstellen von Verzeichnissen mit User A und dem Löschen dieses mit User B (und andersrum) :)

Genial! :d
 
Servus,

hier die Auflösung: Ich hatte erst das "normale" napp-it installiert. Anschließend das "napp-it04" drüber. Das klappte aber nicht.

Heute habe ich nochmal OpenIndiana neu installiert und direkt napp-it04 installiert. JETZT steht auch NBMAND dort. Vorher NICHT ;)

Mit den Settings:
Code:
:DEFAULT: options:acl,upriv perm:0777

in der Volumes-Datei und frisch neugestartetem netatalk klappt nun auch das erstellen von Verzeichnissen mit User A und dem Löschen dieses mit User B (und andersrum) :)

Genial! :d

Ich hatte eh vor, die default-Installation von 0.414 auf die 0.415 Version zu setzen.
Es gibt da auch noch ein paar andere Bug-Fixes und es gab bisher noch keine
Fehlerhinweise zur aktuellen newest-Version.

Ich nehm das daher als Anlass, die Version 0.415k zur default-Installation zu machen,
zumal es ab dieser Version möglich ist, napp-it per Menü (napp-it - update) up- und downzugraden.


Gea
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh