[Sammelthread] ZFS Stammtisch

Ich bräuchte mal euren Rat, da ich nicht weiter komme. :heul:

Auf meinem aio läuft eine VM mit DVBViewer. Damit die Aufnahmen von jedem PC aus erreichbar sind, habe ich auf dem aio ein FS mit dem Namen dvbviewer angelegt.
Die Aufnahmen laufen als Dienst, daher nutzt mir offensichtlich User/Passwort nichts.

FS: /pool_aio/srv/dvbviewer
Bei SMB steht jetzt dvbviewer, guestok
Folder-ACL: user_root = full_set und everyone@ = modify_set (ändern von everyone@ auf full_set bringt auch nichts)
share-ACL: everyone@ = full_set

Wenn ich jetzt im DVBViewerRecording das FS einbinde, erzeugt es im Log folgenden Eintrag:
Mar 4 13:21:48 aio smbsrv: [ID 138215 kern.notice] NOTICE: smbd[NT Authority\Anonymous]: dvbviewer access denied: IPC only

Wo mach ich hier einen Fehler und wie bekomm ich den Zugang doch noch hin?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Speicherst du die Aufnahmen "lokal" in der VM?
Ich hab die Aufnahmen und den Timeshift Ordner meines MP Tvserver auf einem Share des Fileserver.
Wenn beides auf einem Host ist kann man den ja intern recht zügig anbinden.
 
Nein, das will ich ja eben nicht, sondern die Aufnahmen sollen auf einen ZFS-FS gespeichert werden.
Im Recordingservice hab ich den Pfad als UNC-Pfad angegeben - also \\AIO\dvbviewer, aber ZFS bzw. SMB verweigert den Zugang.
 
Aber genau das hab ich doch.
mein Fileserver hat ein Share und das hab ich der Win VM als Laufwerk gemountet. Dort werden die Aufnahmen und Timeshift abgelegt.
Für den Tv server ist das quasi ein lokales Laufwerk.
 
Zuletzt bearbeitet:
Aber genau das hab ich doch.
mein Fileserver hat ein Share und das hab ich der Win VM als Laufwerk gemountet. Dort werden die Aufnahmen und Timeshift abgelegt.
Für den Tv server ist das quasi ein lokales Laufwerk.

Nee, ist ein Netzlaufwerk und kein Lokales.
Aber offensichtlich handhabt dein MP TVserver Dies anderst.

IMHO klemmt es bei mir mit dem anonymen Gastzugang.
 
Deswegen ja quasi.
Ich kann das wie jedes andere Laufwerk einfach auswählen. Du nicht?

Gesendet von meinem SM-N9005 mit der Hardwareluxx App
 
Ich scrube gerade meinen HD Mirror Pool (2x "Hitachi HDS5C3030ALA630" -> 3TB).
Die Geschwindigkeit fing an mit ~30M/s, ging eine Zeit lang auf 65M/s und pendelt gerade bei ~50M/s.
Ist das normal? Sollte das nicht mit "Vollgas" (~100M/s) von Anfang bis Ende durchlaufen?
 
Servus Freunde,


kann mir jemand von euch, der Napp-it + Replication nutzt, mal bitte erklären, was das "line:809" zu bedeuten hat ?



replication.png

Danke und Gruß,
-xymos.
 
Zuletzt bearbeitet:
Ich scrube gerade meinen HD Mirror Pool (2x "Hitachi HDS5C3030ALA630" -> 3TB).
Die Geschwindigkeit fing an mit ~30M/s, ging eine Zeit lang auf 65M/s und pendelt gerade bei ~50M/s.
Ist das normal? Sollte das nicht mit "Vollgas" (~100M/s) von Anfang bis Ende durchlaufen?

Am Anfang wird Kleinkram (Metadaten) gelesen, das geht langsam. Dann gehts in den sequentiellen Teil, die Platten legen los, und gegen Ende fällt die Transferrate plattentypisch wieder ab. 65 MB/s bei 2 HDDs ist aber jetzt nicht berauschend, als wär der Krempel per USB angebunden...
 
Ich hab auch mal testweise mein Scrub angeschmissen, komme auch nicht über 55Mb/s

Intel Xeon E3-1245
16 GB ECC RAM
2x 1TB WD RED an 3ware 9750-4i
Debian 7.8

Momentan nur 22GB Daten (3 LXC-Instanzen, 2 aktiv) drauf. System liegt auf ein SSD-Raid1 vom 3ware Controller.
 
Am Anfang wird Kleinkram (Metadaten) gelesen, das geht langsam. Dann gehts in den sequentiellen Teil, die Platten legen los, und gegen Ende fällt die Transferrate plattentypisch wieder ab. 65 MB/s bei 2 HDDs ist aber jetzt nicht berauschend, als wär der Krempel per USB angebunden...
Das sehe ich genau so, ist aber "normal" mit SATA-III angebunden.
Habs unter ZoL und FreeBSD getestet, kein Unterschied :(

P0stbote: Da bin ich aber froh dass es nicht nur bei mir so lahm ist :)
 
Ah, okay, fällt mir als Solarisnutzer dann natürlich nicht auf... :fresse:
 
Ich habe eine Frage zu AFP Nutzerrechten. Ich habe mit napp-it einen Pool und ein ZFS Filesystem eingerichtet. Dort sollen drei verschiedene Nutzer jeweils eigene Verzeichnisse bekommen auf denen nur sie zugreifen dürfen. Also Verzeichnis A hat alle Schreib-/Leserechte für Nutzer A, Verzeichnis B hat alle Schreib-/Leserechte für Nutzer B und das gleiche für Nutzer C. Kein Nutzer darf auf die jeweils anderen Verzeichnisse zugreifen. Alle Nutzer haben Macs und greifen über AFP zu. Wie richte ich nun die Nutzer und die Rechte ein?
 
Netatalk für Solaris unterstützt NFS4 ACL.
OSX beachtet die beim Zugriff kann sie aber nicht setzen.

Der Weg ist also folgender
- Nutzer A,B,C unter OmniOS anlegen
- Dateisystem für AFP freigeben
- Ordner A,B,C anlegen

- ACL setzen (Unter OmniOS oder von Windows als root) z.B.
-> everyone@ = modify (default) auf das Dateisystem aber ohne Vererbung auf enthaltene Ordner
-> Ordner A: User A= modify (everyone@ löschen)
-> Ordner B: User B= modify (everyone@ löschen)
-> Ordner C: User C= modify (everyone@ löschen)

Für die Ordner A,B,C die Vererbung aktiv lassen
 
Noch mal zum Thema SCRUB Geschwindigkeit:

Gestern hab ich ein Backup auf eine neue USB-3 Platte gemacht (auch ZFS).
Bei dem Dataset auf der USB-Platte hab ich GZIP als Compression eingestellt.
Gesichert hat er 1.52 TB mit einer Ratio von 1.14x
Code:
backup-usb-1/rsnapshot  refcompressratio      1.14x                        -
backup-usb-1/rsnapshot  written               1.52T                        -
backup-usb-1/rsnapshot  logicalused           1.73T                        -
...

Später lies ich dann noch einen SCRUB drüberlaufen:

scrub repaired 0 in 3h34m with 0 errors on Fri Mar 6 04:23:26 2015

Wenn ich richtig rechne, komme ich hier auf >100MB/s, also um einiges schneller als beim Quell-Pool selbst, obwohl "nur" USB.
 
Netatalk für Solaris unterstützt NFS4 ACL.
OSX beachtet die beim Zugriff kann sie aber nicht setzen.

Der Weg ist also folgender
- Nutzer A,B,C unter OmniOS anlegen
- Dateisystem für AFP freigeben
- Ordner A,B,C anlegen

- ACL setzen (Unter OmniOS oder von Windows als root) z.B.
-> everyone@ = modify (default) auf das Dateisystem aber ohne Vererbung auf enthaltene Ordner
-> Ordner A: User A= modify (everyone@ löschen)
-> Ordner B: User B= modify (everyone@ löschen)
-> Ordner C: User C= modify (everyone@ löschen)

Für die Ordner A,B,C die Vererbung aktiv lassen

Vielen Dank gea!

Kann ich all diese Aktionen auch komfortabel mit Deiner ACL Extension machen?
 
Hi,
Ich möchte meine 4 X 2 TB platten für mein ZFS vorberieten (Nas4Free). Was heisst ich möchte die Platten löschen. Reicht es aus die ersten und letzen Sektoren einer Festplatte zu überschreiben. Siehe faq:0129 [NAS4Free]

Oder ist es sicherer mit dd alles mit NULLEN zu überschreiben?

dd if=/dev/zero of=/dev/ada0
dd if=/dev/zero of=/dev/ada1
dd if=/dev/zero of=/dev/ada2
dd if=/dev/zero of=/dev/ada3

Danke
Marko
 
Ich hab meine Platten nur vom Dateisystem befreit, allerdings haben die davor einiges gerödelt, um den Umstieg auf ZFS zu schaffen. Grundsätzlich würd ich sagen, dass außer der dafür benötigten Zeit wenig gegen ein komplettes Löschen spricht, da hierbei die Platten ja nochmal gestresst werden und die komplette Oberfläche beschrieben wird. Sollte sich im SMART-Status was relevantes ändern -> Vorsicht.

Wenn du dd'st: Gib doch eine bs mit (8MB o.ä.), ansonsten dauert das noch eine Ewigkeit länger (2TB brauchen ja schon ~6h). Sollte auch eigentlich parallel gehen.

@ V.I.P.E.R: 512e heißt ja 4096 mit eingebauter Lüge, daher ashift 12. Ich würd den 9er heute ohne sehr guten Grund nicht mehr anfangen, das gibt doch nur Ärger bei künftigem Austausch.
 
Solange du die Platten nicht verkaufen willst sehe ich keinen Sinn darin sie gründlich zu löschen, was versprichst du dir davon?
 
"Definierter Ausgangszustand"

Das ist eigtl. wünschenswert. Wenn die Zeit da ist, würde ich sie nullen.
 
danke bzzz

Noch was - wie gehe ich am besten vor, wenn ich meinen aktuellen Pool "neu" machen will mit den selben Daten ?
Ich hab mir gedacht ich mach nen Snapshot und sende den auf einen neuen Temporären Pool - lösche meinen Aktuellen und spiele den Snapshot dann wieder ein.
Geht das so ?
 
Jetzt frag ich nochmals nach, da ich der Meinung bin, dass es ein Omnios bzw. ZFS Problem ist und nicht des DVBViewers.

Ich will/brauche einen Gastzugang für ein Filesystem, also für anonymous.

FS: /pool_aio/srv/dvbviewer
Bei SMB steht jetzt dvbviewer, guestok
Folder-ACL: user_root = full_set und everyone@ = modify_set (ändern von everyone@ auf full_set bringt auch nichts)
share-ACL: everyone@ = full_set

Wenn jetzt anonymous auf das FS zugreifen will, erzeugt es im Log folgenden Eintrag:
Mar 4 13:21:48 aio smbsrv: [ID 138215 kern.notice] NOTICE: smbd[NT Authority\Anonymous]: dvbviewer access denied: IPC only
Wenn ich mit einem User, welcher bei napp-it angelegt ist, darauf zugreife ist alles ok.

Wo mach ich hier einen Fehler und wie bekomm ich den Zugang doch noch hin?
 
ZFS guestaccess ist Zugriff ohne Benutzeranmeldung.
Klappt es denn von Windows aus? (Zugriff ohne Login)

Eventuell versucht dvbviewer eine Anmeldung als user Anonymous (was nicht klappt)
Als Option könnte man eventuell guestok ausschalten und einen User Anonymous ohne Passwort anlegen.
Vielleicht wäre dvbviewer damit zufrieden.
 
Ok dann nulle ich sie mit bs=8mb. Hoffe das dauert nicht zuuu lang. Aber besser is um mit sauberen platten zu starten.

Danke.
 
Ok dann nulle ich sie mit bs=8mb. Hoffe das dauert nicht zuuu lang. Aber besser is um mit sauberen platten zu starten.

Danke.

Mal abgesehen vom Datenschutz -
ZFS ist das schnurzegal. Beim normalen Schreiben werden Fehler eh nicht erkannt und ZFS merkt nachher Fehler ohnehin sofort im laufenden Betrieb
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh