[Sammelthread] ZFS Stammtisch

Update ja oder nein?

Eins vornweg: Ich bin blutiger Laie!
Ich betreibe einen N54L mit gea's Napp-it to Go.
Version Omnios: r151006
Napp-It 0.9f1

Ich frage mich, ob es sich lohnt, auf die auf die aktuelle Version r151010 von Omnios zu updaten. Ich nutze es nur für ein raidz1 mit smb Ablagen im Netz. Sonstiges läuft nicht.
das ich wohl den Zwischenschritt über r151008 machen muss, habe ich mit meinem rudimentären englisch schon gesehen.
Oder lasse ich bei meinem (Nicht)Wissen besser die Finger davon?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Rein praktisch kann das so weiterlaufen bis der N54 das Zeitliche segnet.
(Und es nicht gibt was ein Update unbedingt erfordert): ReleaseNotes

Da es sich aber um ein ZFS Bootsystem handelt, könnte man schon das Update versuchen und bei Problemen auf die alte Bootumgebung zurückgehen (BE anlegen). Vorraussetzung: Es gibt noch genug Platz auf dem Stick.

Ich würde es so lassen oder OmniOS 151010 auf einen neuen Stick manuell installieren, dann napp-it und den Pool importieren. Einfach um das mal durchzuspielen. Bei Problemen einfach den alten USB Stick einstecken und das alte OS nehmen.

Falls alles klappt, ein Image vom Bootstick wegsichern.
 
@gea
dann werde ich mal mit einem Stick versuchen ob ich das aktuelle Omnios zusammen mit napp-it zum laufen kriege und mein Pool importiert werden kann...
wenn es nicht klappt habe ich ja die (gespiegelten) alten Sticks.
 
Unterirdische Geschwindigkeit

Hallo zusammen

ich habe ein Problem mit meiner Napp-it/Esxi Anbindung.

Ich nutze einen extra Storage-Server mit 4x Gigabit LAN auf dem nur omnios mit napp-it läuft und mehrere esxis die über iscsi angebunden werden sollen.

Davor hatte ich proxmox mit iscsi Multipath im Einsatz, möchte jetzt aber wieder auf Esxi umsteigen.

Pool und iscsi Target wurden neu angelegt und im esxi taucht auch alles auf. Aber die Geschwindigkeit ist extrem langsam, obwohl der Storage-Server genügend Leistung hat.

Auszug aus der vmkernel.log

Code:
2014-06-20T13:11:26.091Z cpu5:32954)LVM: 13089: One or more LVM devices have been discovered.
2014-06-20T13:11:30.395Z cpu1:32790)NMP: nmp_ThrottleLogForDevice:2321: Cmd 0x1a (0x412e807f6bc0, 0) to dev "mpx.vmhba33:C0:T0:L0" on path "vmhba33:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0
2014-06-20T13:11:30.395Z cpu1:32790)ScsiDeviceIO: 2337: Cmd(0x412e807f6bc0) 0x1a, CmdSN 0xe9a from world 0 to dev "mpx.vmhba33:C0:T0:L0" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2014-06-20T13:13:45.011Z cpu5:33981)World: 14296: VC opID 5D80F1A3-000000EB maps to vmkernel opID 6604335a
2014-06-20T13:13:46.104Z cpu5:33981)World: 14296: VC opID 5D80F1A3-000000EB maps to vmkernel opID 6604335a
2014-06-20T13:15:01.786Z cpu5:33974)World: 14296: VC opID hostd-a097 maps to vmkernel opID 3181d726
2014-06-20T13:16:30.399Z cpu6:32795)NMP: nmp_ThrottleLogForDevice:2321: Cmd 0x1a (0x412e8084d300, 0) to dev "mpx.vmhba33:C0:T0:L0" on path "vmhba33:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0
2014-06-20T13:16:30.399Z cpu6:32795)ScsiDeviceIO: 2337: Cmd(0x412e8084d300) 0x1a, CmdSN 0xead from world 0 to dev "mpx.vmhba33:C0:T0:L0" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2014-06-20T13:17:37.325Z cpu3:33975)World: 14296: VC opID 5D80F1A3-000000ED maps to vmkernel opID 8e197490
2014-06-20T13:18:37.328Z cpu0:33979)World: 14296: VC opID 5D80F1A3-000000EF maps to vmkernel opID 93f329a2
2014-06-20T13:19:31.805Z cpu6:33973 opID=b2fc4414)FS3: 226: <START fbb>
2014-06-20T13:19:31.805Z cpu6:33973 opID=b2fc4414)511744 resources, each of size 0
2014-06-20T13:19:31.805Z cpu6:33973 opID=b2fc4414)Organized as 40 CGs, 64 C/CG and 200 R/C
2014-06-20T13:19:31.805Z cpu6:33973 opID=b2fc4414)CGsize 65536. 0th CG at 65536
2014-06-20T13:19:31.805Z cpu6:33973 opID=b2fc4414)FS3: 228: <END fbb>
2014-06-20T13:19:31.873Z cpu6:33973 opID=b2fc4414)FS3: 226: <START fdc>
2014-06-20T13:19:31.873Z cpu6:33973 opID=b2fc4414)130000 resources, each of size 2048
2014-06-20T13:19:31.873Z cpu6:33973 opID=b2fc4414)Organized as 11 CGs, 64 C/CG and 200 R/C
2014-06-20T13:19:31.873Z cpu6:33973 opID=b2fc4414)CGsize 26279936. 0th CG at 65536
2014-06-20T13:19:31.873Z cpu6:33973 opID=b2fc4414)FS3: 228: <END fdc>
2014-06-20T13:19:31.919Z cpu6:33973 opID=b2fc4414)FS3: 226: <START pbc>
2014-06-20T13:19:31.919Z cpu6:33973 opID=b2fc4414)64512 resources, each of size 4096
2014-06-20T13:19:31.919Z cpu6:33973 opID=b2fc4414)Organized as 63 CGs, 64 C/CG and 16 R/C
2014-06-20T13:19:31.919Z cpu6:33973 opID=b2fc4414)CGsize 4259840. 0th CG at 65536
2014-06-20T13:19:31.919Z cpu6:33973 opID=b2fc4414)FS3: 228: <END pbc>
2014-06-20T13:19:33.292Z cpu6:33973 opID=b2fc4414)FS3: 226: <START sbc>
2014-06-20T13:19:33.292Z cpu6:33973 opID=b2fc4414)32000 resources, each of size 8192
2014-06-20T13:19:33.292Z cpu6:33973 opID=b2fc4414)Organized as 8 CGs, 64 C/CG and 64 R/C
2014-06-20T13:19:33.292Z cpu6:33973 opID=b2fc4414)CGsize 33619968. 0th CG at 65536
2014-06-20T13:19:33.292Z cpu6:33973 opID=b2fc4414)FS3: 228: <END sbc>
2014-06-20T13:19:33.446Z cpu6:33973 opID=b2fc4414)FS3: 226: <START pb2>
2014-06-20T13:19:33.446Z cpu6:33973 opID=b2fc4414)256 resources, each of size 4096
2014-06-20T13:19:33.446Z cpu6:33973 opID=b2fc4414)Organized as 1 CGs, 64 C/CG and 16 R/C
2014-06-20T13:19:33.446Z cpu6:33973 opID=b2fc4414)CGsize 4259840. 0th CG at 65536
2014-06-20T13:19:33.446Z cpu6:33973 opID=b2fc4414)FS3: 228: <END pb2>
2014-06-20T13:19:33.588Z cpu6:33973 opID=b2fc4414)Res3: 5793: SDDir: type: 0x5, fileLength: 0x118, numBlocks: 1
2014-06-20T13:19:33.591Z cpu6:33973 opID=b2fc4414)Vol3: 3456: Created VMFS-5.60 with config 0x6 on vol 'asdf'
2014-06-20T13:19:35.386Z cpu6:33973 opID=b2fc4414)FSS: 5092: No FS driver claimed device 'mpx.vmhba33:C0:T0:L0': Not supported
2014-06-20T13:19:35.386Z cpu6:33973 opID=b2fc4414)Vol3: 714: Couldn't read volume header from control: Not supported
2014-06-20T13:19:35.386Z cpu6:33973 opID=b2fc4414)Vol3: 714: Couldn't read volume header from control: Not supported
2014-06-20T13:19:35.386Z cpu6:33973 opID=b2fc4414)FSS: 5092: No FS driver claimed device 'control': Not supported
2014-06-20T13:19:35.411Z cpu6:33973 opID=b2fc4414)VC: 2059: Device rescan time 1715 msec (total number of devices 5)
2014-06-20T13:19:35.411Z cpu6:33973 opID=b2fc4414)VC: 2062: Filesystem probe time 103 msec (devices probed 5 of 5)
2014-06-20T13:19:35.411Z cpu6:33973 opID=b2fc4414)VC: 2064: Refresh open volume time 0 msec
2014-06-20T13:19:35.475Z cpu6:33973 opID=b2fc4414)Vol3: 661: Unable to register file system asdf for APD timeout notifications: Already exists
2014-06-20T13:19:35.475Z cpu6:33973 opID=b2fc4414)LVM: 13069: File system '[asdf, 53a434e3-837cc82c-bb3d-0015177f414e]' (LV 53a432f4-d9689953-6199-0015177f414e) mounted in 'rw' mode.
2014-06-20T13:19:35.625Z cpu7:35178)World: 14296: VC opID 5D80F1A3-000000DD maps to vmkernel opID 53af03e
2014-06-20T13:19:40.007Z cpu4:33973)World: 14296: VC opID 5D80F1A3-000000F5 maps to vmkernel opID e6268acc
2014-06-20T13:19:42.385Z cpu2:32876)FS3Misc: 1742: Long VMFS rsv time on 'asdf' (held for 1070 msecs). # R: 1, # W: 1 bytesXfer: 3 sectors
2014-06-20T13:19:43.208Z cpu2:32876)FS3Misc: 1742: Long VMFS rsv time on 'asdf' (held for 712 msecs). # R: 1, # W: 1 bytesXfer: 2 sectors
2014-06-20T13:20:00.007Z cpu7:35178)World: 14296: VC opID 5D80F1A3-000000F9 maps to vmkernel opID 53efdddd
2014-06-20T13:20:01.809Z cpu0:33973)World: 14296: VC opID hostd-8667 maps to vmkernel opID 2dbeef7e
2014-06-20T13:20:07.228Z cpu0:35178)FS3Misc: 1742: Long VMFS rsv time on 'asdf' (held for 1573 msecs). # R: 1, # W: 1 bytesXfer: 9 sectors

vmbha33 ist USB-Stick auf dem esxi läuft.

Der Eintrag "long vmfs rsv time" macht mir sorgen, kann aber nicht am Storage liegen, da er im Leerlauf ist.
Problem tritt unter Proxmox nicht auf. Auch Neuinstallation beider Server brachte keinen Erfolg.

Aufbau LAN

Storage-Server: 10.0.200.1, 10.0.200.2, 10.0.200.3, 10.0.200.4
Esxi1: 10.0.200.50, 10.0.200.51

Multipath wurde auch erstmal abgeschaltet.

Weiß von euch jemand weiter? Bin mit meinem Latein am Ende. :confused:

EDIT:

Hat sich erledigt.

Ich besitzte ein X9SCL-F mit einer 82579LM NIC, die Standardmäßig nicht unterstützt wird (wird aber nicht für den iscsi verwendet).
Das Einbinden des benötigten Treiber hat funktioniert, wodurch aber irgendwie die Performance vom iscsi der beiden anderen NICs beeinträchtigt wurde.
Durchs Installieren eines neuen Treiber wurde das Problem behoben.

Nagg-it war also doch nicht schuld ;)
 
Zuletzt bearbeitet:
Hallo zusammen,

bisher habe ich leider nicht so recht gefunden bzgl. Napp-IT und SMB Fehler.
Vielleicht kennt Ihr ja den Fehler und wisst wie ich ihn ggf. beheben kann.

Ich habe mit der Napp-IT VM (napp-it-14b) das Problem, das wenn ich ein Verzeichnis mit einem beginnenden Unterstrich "_" anlege bzw eins entsprechend umbenenne nicht mehr auf den Inhalt zugreifen kann.
Meine SUN Kenntnisse reichen leider nicht um die Rechte zu prüfen. Browsen kann ich es noch und sehe auch alles nur kann ich keine Dateiinhalte mehr lesen.
Ich verwende die "Free Version".

Grüße
 
Ein Problem mit dem Unterstrich ist mir nicht bekannt.

Ich habe es gerade auch mal probehalber getestet und konnte nichts feststellen.
Die Rechte kann man am einfachsten im Menü ZFS-Dateisysteme -> Folder-ACL (bei dem entsprechenden Dateisystem) prüfen.

Alternativ: Setting ACLs on ZFS Files - Oracle Solaris 11.1 Administration: ZFS File Systems
Mit der Free-Version kann man die entweder mit /usr/bin/chmod oder per Windows nach Anmelden als root setzen (dann aber keine deny Regeln benutzen)
 
Hallo gea,

danke für Deine Antwort und den promten Test :d

Bei mir tritt das das Verhalten noch immer auf. Inzwischen habe ich den Pool unter NAS4Free eingelesen und mir die Rechte dort angesehen.
Die sehen dann z.B. so aus

1.
drwxr-x--- 2 root sys 3 Jun 27 03:44 .$EXTEND
2.
drwx------+ 5 nobody nobody 7 Jun 27 01:14 Verzeichnis XYZ

Ich schau mir dies übers Wochenende nochmal genau an. Dazu werde ich die Rechte unter BSD entspr. setzen und ggf. auch napp-it neu deployen.

Grüße
dxy
 
Hallo gea,

danke für Deine Antwort und den promten Test :d

Bei mir tritt das das Verhalten noch immer auf. Inzwischen habe ich den Pool unter NAS4Free eingelesen und mir die Rechte dort angesehen.

Dieser "Lösungsansatz" lässt vermuten, dass du dich mit Unix Permissions auskennst aber mit Windows ACL und Rechtevererbung auf Kriegsfuss stehst. Die unter BSD angezeigten Rechte beziehen sich auf Unix UID/GID Identifikationen die von SAMBA genutzt werden.

Der Solaris CIFS Server nutzt die aber garnicht. Er nutzt Windows SID als Useridentifikation und Windows kompatible nfs4 ACLs. Hier liegt vielleicht auch das Problem. Wenn man unter Solaris Unix permissions setzt, werden die ACL Vererbungen gelöscht da es sowas bei den Permissions nicht gibt. Es bleiben die sehr restrictiven default-ACL. Daher vermutlich das Problem mit Unterordnern.

Korrekt unter Solaris wäre also gewesen.
Aclmode und aclinherit auf pass-through setzen, dann alle ACL recursiv zurücksetzen z.B. auf jeder=full und dann die Rechte wo nötig einschränken. Auf jeden Fall niemals ACL mit Vererbung durch Unix permissions ohne Vererbung überschreiben.
 
Zuletzt bearbeitet:
Hallo Gea,

Danke für Deine Tipps.
Inzwischen habe ich die Rechte komplett neu gesetzt und nun geht's auch :). Ich hatte bis dato nicht vermutet/gewusst, dass Solaris doch um einiges unterschiedlicher ist.
Zum Glück findet man einiges im Netz dazu z.B. bei Oracle und den einen oder andern Block, da ich noch einiges an Wissen aufbauen muss :coffee:.
Ansonsten bin ich mit Napp-It sehr zufrieden es läuft "Out of the Box" bis jetzt sehr stabil und der NFS Server ist deutlich schneller als die BSD Lösungen. Mit NAS4Free bekomme ähnliche Geschwindigkeiten hin aber eben mit viel Tuning der ZFS Parameter.

Grüße
Dxy
 
OmniOS - NappIT Backup auf Synology NAS

Hallo,
vielleicht könnt ihr mir helfen.

Ich habe einen FileServer OmniOS inkl NappIT und ein Synology NAS was ich gerne als Backup Ziel nutzen möchte.
zZ mache ich das backup über eine VM auf meinem ESXi Server aber ich würde gerne das der FileServer die Backups direkt auf das NAS kopiert.

Auf meinem Synology NAS läuft ein rsync Server. und auf dem FileServer auch ich habe auch schon über SSH versucht via rsync zuzugreifen aber der sagt mir das rsync nicht existiert. Ich bin eigentlich kein Depp was sowas angeht aber mit rsync hab ich null Plan.


Gruß,
Nils
 
Bei napp-it ist rsync 3.1.0 dabei
/var/web-gui/data/tools/rsync/rsync

Um es ohne Pfad aufzurufen einen Link setzen.
Ich halte es separat, damit es neben einem selbst
installierten rsync läuft.

Leider immer noch kein Support für Solaris nfs4 ACL.
Das Backup eventuell als "other Job" starten.
 
Zuletzt bearbeitet:
Mediatomb funktioniert bei mir nix, kann mit der Meldung

maintenance svc:/application/mediatomb:default (UPnP Media Server for napp-it) State: maintenance since Fri Jul 11 14:40:33 2014 Reason: Start method failed repeatedly, last exited with status 127. See: SMF-8000-KS See: mediatomb(1) See: MediaTomb - Free UPnP MediaServer See: /var/svc/log/application-mediatomb:default.log Impact: This service is not running.

..aber nix anfangen. Woran liegts?

/var/svc/log/application-mediatomb:default.log

kann ich mir nicht ansehen, weil ich kein zugriff habe als root da drauf. Weiß auch nicht wieso


edit: Habe es mal mit einer sauberen Neuinstallation von OmniOS dann Napp-it dann Mediatomb probiert. Geht leider auch nicht.

hardware ist der Microserver von HP
 
Zuletzt bearbeitet:
@gea

Ich müsste dringend eine alte Solaris 11 mit napp-it 0.8h o.ä. aufziehen. Könntest Du das Perl-Script zur Installation noch bereitstellen? Besten Dank!

upps, ich sehe gerade dass ich die aktuelle Version 0.9f1 auch unter Solaris 11 installieren kann. Ich ziehe meine Bitte also zurück.
 
Zuletzt bearbeitet:
@gea

Ich müsste dringend eine alte Solaris 11 mit napp-it 0.8h o.ä. aufziehen. Könntest Du das Perl-Script zur Installation noch bereitstellen? Besten Dank!

upps, ich sehe gerade dass ich die aktuelle Version 0.9f1 auch unter Solaris 11 installieren kann. Ich ziehe meine Bitte also zurück.

napp-it 0.8 für Solaris 11.0 ist nach wie vor verfügbar:
wget -O - www.napp-it.org/nappit08 | perl

für Solaris 11.1 oder 11.2 dann ein aktuelles napp-it nehmen

siehe
napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana, Solaris and Linux : Changelog (runterscrollen)


@Timmie
zu Mediatomb kann ich aktuell nichts sagen - ich nutze es nicht selber.
 
Zuletzt bearbeitet:
@gea:

Hab es mal erfolgreich installiert gehabt aber mit ner älteren Version von OmniOS, irgendwas unter ...6 mit der aktuellen ...10 (beides Stable) gehts jedenfalls nicht, auch nach ner frischen Installation nicht zumindest bei mir net.
 
Egal ob Mediatomb oder ein anderer Mediaserver.
Es bestehen da Abhängigkeiten und Programme/ Module die aus unterschiedlichen Quellen installiert werden. Man muss also immer wieder mal das Script anpassen wenn sich da was ändert. Entweder einer der Benutzer von Mediatomb prüft an welcher Stelle das Installationsscript fehlschlägt und wie das behoben werden kann oder es muss halt gewartet werden bis zos (hier im Forum) Zeit findet, sich das anzuschauen.
 
Mit welchem Tool kann ich den die OmniOS iso auf einen UsbStick schreiben für die Installation?

Mit UNetBootin bekomm ich einen Kernel Modul Fehler
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Danke jetzt hat es funktioniert, das iso File war korrupt und ich habe den md5-Code nicht kontrolliert.

Nur habe ich jetzt ein neues Problem.
Die Installation und Einrichtung verlief problemlos jedoch habe ich beim Booten/Rebooten ein Problem.

Im Bootloader werden mir 6 verschiedene Optionen angeboten.
OmniOS v11 r15...
...
...
...
omnios-1
...

Die Defaultoption ist omnios-1, einen fehlerfreies Starten (bei dem danach die Freigabe und OmniOS funktioniert) ist nur mit der ersten Option möglich.
Wie kann ich die defaultoption auf OmniOS v11 ändern?

Das Verändern des Default-Parameters in der menu.lst hat schon einmal nichts gebracht.
 
Zuletzt bearbeitet:
Bei größeren Updates wird ein neues BE (Bootumgebung = bootfähiger System-Snapshot) angelegt und aktiviert.
Dann wird man aufgefordert (und sollte das unbedingt auch machen) neu zu booten und landet dann
automatisch in der aktivierten Umgebung (Stand nach dem Update).

Die älteren Bootumgebungen bleiben beim Booten anwählbar
Die Bootumgebungen werden entweder in napp-it im Menü Snapshots - Bootenvironment oder mit beadm vewaltet.
siehe Creating a Boot Environment - Creating and Administering Oracle Solaris 11 Boot Environments
 
Ich habe mal in der Mailing List nachgefragt und die antwort einer Person war, dass er zwar wüsste welche Änderungen vorgenommen werden müssten um den den neuen CiFS 2.1 Kernel von Nexenta zu illumos zu portieren, aber er Hilfe bräuchte da es schon viel arbeit wäre :) Ich musste leider verneinen, da ich zu sowas nicht im stande bin :) Aber vielleicht finden sich ja welche

Je mehr Leute in der Illumos Liste danach fragen, desto eher wird CIFS 2.1 vermutlich umgesetzt.
Mein Eindruck ist schon, dass Nexenta zwar CIFS 2.1 grundsätzlich freigegeben hat, aber dennoch nicht unglücklich ist wenn das nicht allzu schnell im freien Illumos Upstream landet - immerhin ist es ein Alleinstellungsmerkmal.

Es gibt zwar auch unter Solaris & Co immer noch SAMBA-4 als Plan B. Solaris CIFS ist aber soviel einfacher und oft ein viel besserer Ersatz für einen Windows Fileserver so dass ich nur ungern von Solaris CIFS zu SAMBA wechseln möchte.
 
Opneindiana Einstellung ARC bei LiveCD

Moin, moin,

ich habe eine OpenIndiana LiveCD mit einem importierten zpool (32 TB brutto, 10,8 TB netto mit dedup) zu Datensicherungszwecken laufen und festgestellt, dass der pool extrem langsam ist. Ein Blick in den Systemmonitor ergab, dass von den 128 GB verbauten RAM nur etwas über 400 MB verwendet werden. Im Pool ist primarycache=metadata eingestellt. Wie kann man im Livesystem die Verwendung des restlichen RAMs als ARC anstoßen.
 
Sicher, dass das 400 MB verwendet sind? 400 MB frei wäre realistischer...
 
Sicher, dass das 400 MB verwendet sind? 400 MB frei wäre realistischer...

.... also ich stehe jetzt zwar nicht vor dem Möhrchen, aber im Systemmonitor werden immer die verwendeten Resourcen (CPU, RAM) angezeigt, Swap steht auch auf 0 und die Graphen befinden sich nahe null.
 
Frage an gea: Ich bin die Tage von 0.9e1 auf 0.9f1 gegangen (free), triviale ACLs sind jetzt nicht mehr setzbar. Ist das ein Feature?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh