[Sammelthread] ZFS Stammtisch

Ich habe nun gerade die neuste Version von OmniOS installiert. Darauf napp-it mit den afp Paketen. Leider bekomme ich es nicht hin, das OS X Clients auf den AFP Share zugreifen können. Die notwendigen einstellungen (nbmand = off, acl* = passthrou) sind gesetzt. Dennoch wird mir kein Ordner bez. Freigabe angezeigt, wenn ich im Finder auf den Server klicke. Liegt das noch an der "alten" Netatalk Version von der weiter oben die Rede war?

Nutze Mavericks. Da macht ja bei AFP Geschichten eh derzeit etwas Ärger. Allerdings soll SMB von der Performance her recht mies sein. Daher der Gang auf das AFP Protokoll.

Welche Version von netatalk hast du installiert? Die 3.0.4 läuft bei mir ohne Probleme und sehr performant.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich würde ja gerne meine Mac Landschaft auf SMB2 umstellen, aber wie bringe ich meine OmniOS Systeme dazu auch SMB2 anzubieten? Die CIFS-Implementierung bietet ja nur SMB1. Da bleibt ja nur das neueste Samba, aber verträgt sich das alles so richtig? Hab schon mal über den Unsinn nachgedacht ein Windowssystem zu virtualisieren, dann eine iSCSI Verbindung zwischen Windows und OmniOS zu machen und die Macs dann auf die Windowsfreigaben mit SMB2 zu hängen.

Samba wäre eine Performance-Option. Ist aber vom Handling und der Unterstützung von ACL und Windows SID nicht mit dem Solaris CIFS Server vergleichbar.

ansonsten:
Neben Oracle hat Nexenta SMB2 implementiert. Es ist zu hoffen, dass das bald in Illumos landet (und damit in OmniOS).
Als Performance-alternative bleibt AFP und NFS und die geringe Hoffnung dass Apple bei der SMB1 Performance nachbessert.
 
Samba wäre eine Performance-Option. Ist aber vom Handling und der Unterstützung von ACL und Windows SID nicht mit dem Solaris CIFS Server vergleichbar.

ansonsten:
Neben Oracle hat Nexenta SMB2 implementiert. Es ist zu hoffen, dass das bald in Illumos landet (und damit in OmniOS).
Als Performance-alternative bleibt AFP und NFS und die geringe Hoffnung dass Apple bei der SMB1 Performance nachbessert.

Danke, in welcher Version hat denn Oracle SMB2 implementiert, in der Beta von Solaris 11.2? Ich finde keine Hinweise darauf.
 
Es ist zu hoffen, dass das bald in Illumos landet (und damit in OmniOS).

Das wäre super. Habe aber dementsprechend nocht nichts gehört bzw. diesbezüglich kein Ticket bei Illumos gefunden.

...und die geringe Hoffung dass Apple bei der SMB1 Performance nachbessert.

Findet ihr die Performance so schlecht? Was erreicht ihr denn bei Mavericks zu Windows/Solaris CIFS für Durchsatzraten bei 1GBit LAN?
 
Es gab im Dezember dazu eine Diskussion in der auch Nexenta Mitarbeiter beteiligt waren.
Die damals verlinkte Seite bei nexentastor.org ist aber zwischenzeitlich entfernt.

Durchaus möglich, dass Nexenta das jetzt zurückhält und nicht alles offengelegt hat.
Listbox • Email Marketing and Discussion Groups

zur Performance.
Ich habe das schon länger nicht mehr selber getestet.
Alle Tests die ich aber verfolgt habe berichten von deutlich schlechterer Performance als SMB1 zu Windows oder AFP/NFS.
 
Es gab im Dezember dazu eine Diskussion in der auch Nexenta Mitarbeiter beteiligt waren.
Die damals verlinkte Seite bei nexentastor.org ist aber zwischenzeitlich entfernt.

Durchaus möglich, dass Nexenta das jetzt zurückhält und nicht alles offengelegt hat.
Listbox • Email Marketing and Discussion Groups

Gut (oder auch nicht). Können wir nur abwarten und Tee trinken :)

------


1) Der IBM M1015 im IT-Mode ist ja die Wahl für ZFS als HBA. Bin Gerade nur etwas verwirrt. Man soll ja diesen einfach zum LSI 9211-8i flashen können. Im Internet findet man ja zu Hauf "Flash M1015 to LSI 9211-8i". Der LSI 9210-8i sieht dem IBM M1015 aber ähnlicher. Vermutlich ist der 9210 und 9211 identisch, nur die Stecker sind halt wo anders. Man könnte also auch die Firmware vom 9210-8i nehmen? Was mich verwunder ist dass der LSI9220-8i und LSI9240 auch manchmal im Zusammenhang mit dem M1015 vorkommt. z.B. HIER, oder HIER. Auf der LSI-webseite kann ich den 9220-8i aber gar nicht finden.
Meinen die den 9210/9211 wenn man den M1015 im IT-Modus haben will und wenn man den M1015 im RAID-Modus haben will den LSI9220/9240 ?

2) Gibts von IBM eigentlich auch einen 16i (also 16 interne Platten) wie den LSI-9201-16i zum Preis von ca. zwei gebrauchten M1015? Ist ja eigentlich besser einen 16i zu haben als 2x8i wenn man HDDs und keine SSDs verbaut richtig?
 
Zuletzt bearbeitet:
1.
LSI hat rund um den eigentlichen LSI 2008 Controllerchip eine ganze Palette von Controllern geschaffen, die teils unter eigenem Namen wie LSI 9211 (der "Klassiker") oder nur als OEM über andere (9220, M1015) vermarktet werden.

Um den Controllerchip flexibel einsetzen zu können, bietet LSI dazu drei Basis-Firmwarevarianten an (die aber von OEM Herstellern modifiziert werden können), die jeweils andere Treiber benötigen:

- IT Modus, kein Raid, reicht die Platten einfach an das OS durch (gut für ZFS)
- IR Modus, Raid 1/10 gut als Bootcontroller z.B. Windows oder ESXi
- Raid-5 Modus (langsam, kein Cache oder Batterie, braucht teils extra Keys, braucht kein Mensch)

Letzterer ist der Modus mit dem IBM den M1015 ausliefert. Um den Raid-5 Modus zu aktivieren muss aber zusätzlich ein Key gekauft werden. Dafür ist der 1015 aber sehr billig zu haben.

Diese speziellen Anpassungen bei OEM Versionen sind es aber, die einem das Leben schwer machen und die darüber entscheiden, ob und wie Controller zu einem "originalen" LSI Basis-Controller wie dem 9211 geflasht werden können.

Beim IBM M1015 gibt es Anleitungen, wie man daraus quasi einen LSI 9211 entweder im IR oder IT Modus machen kann. Dies wurde bereits tausendfach gemacht und kann als sicher und stabil gelten. Und diese beiden Varianten sind auch die interessantesten. Der LSI 9211 IR bzw IT wird nämlich praktisch in jedem OS von Haus aus unterstützt.


2. Der IBM 1015 ist so billig, weil IBM den quasi beilegt.
Ansonsten muss mal halt teure (LSI oder OEM) 16-fach Controller nehmen oder wenn es genügend Slots hat mehrere billige 8fach
(Ich habe 6 x IBM 1015 in meinen Backupsystemen)
 
Zuletzt bearbeitet:
Ich habe nun gerade die neuste Version von OmniOS installiert. Darauf napp-it mit den afp Paketen. Leider bekomme ich es nicht hin, das OS X Clients auf den AFP Share zugreifen können. Die notwendigen einstellungen (nbmand = off, acl* = passthrou) sind gesetzt. Dennoch wird mir kein Ordner bez. Freigabe angezeigt, wenn ich im Finder auf den Server klicke. Liegt das noch an der "alten" Netatalk Version von der weiter oben die Rede war?

Info:
Es scheint Probleme mit dem aktuellen netatalk auf OmniOS (installiert via IPS repository mawi.uni ulm) zu geben.

Ich habe von Rick eine Mail erhalten, dass er netatalk über pkgin von Joyent erfolgreich auf OmniOS installiert hat.
napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana, Solaris and Linux downloads

Ich habe es selber aber nicht probiert (Setze netatalk nicht ein).


In dem Zusammenhang:
Es gibt auch Probleme mit OSX Mavericks und NFS
NFS, OmniOS and OS X (Mavericks) | STH Forums
 
Das mit dem Netatalk Package von mawi.uni ulm, ist sowieso etwas komisch. Geht man über search findet man die Version service/network/netatalk@3.1.0,5.11-0.151008:20140126T183743Z, da hatte ich ja schon damals direkt nach Erscheinen berichtet hier im Forum, dass sie Fehler hat und nicht funktioniert.

Geht man allerdings auf Packages wird service/network/netatalk 3.1.1,5.11-0.151010:20140515T140543Z gelistet, welche neuer ist, die habe ich allerdings noch nicht getestet, wäre mal interessant zu wissen, ob die ohne Fehler funktioniert:

http://scott.mathematik.uni-ulm.de/...netatalk@3.1.1,5.11-0.151010:20140515T140543Z

http://scott.mathematik.uni-ulm.de/release/p5i/0/service/network/netatalk.p5i

http://scott.mathematik.uni-ulm.de/...netatalk@3.1.1,5.11-0.151010:20140515T140543Z
 
Danke für die Infos.

Was nutzt man denn nun am Besten im Mischbetrieb Mac + Win + interne VM Freigaben? CIFS/SMB für die VMs und Win oder iSCSI für die VM? - Mac dann aktuell nur AFP für Freigaben und TimeMachine?

Ich bin überfordert :P
 
Danke für die Infos.

Was nutzt man denn nun am Besten im Mischbetrieb Mac + Win + interne VM Freigaben? CIFS/SMB für die VMs und Win oder iSCSI für die VM? - Mac dann aktuell nur AFP für Freigaben und TimeMachine?

Ich bin überfordert :P

Bei den File-services:

SMB: Die beste Wahl für allgemeine/ plattformübergreifende Sachen (SMB1 am Mac nicht ganz so schnell wie AFP und NFS)
NFS: Ideal für ESXi oder als schnelle Alternative zu SMB/AFP z.B. für Videoschnitt, ohne Authentifizierung (Mavericks hat aber Probleme mit NFS, siehe mein letzter Beitrag)
AFP: Nötig für Timemachine und recht schnell aber Mac only

iSCSI (und AoE bzw FC)
Das ist kein Fileservice sondern damit stellt man Teile des ZFS Pools einer einzelnen Maschine als Blockdevice ("quasi als virtuelle Festplatte") zur Verfügung.
Diese formatiert das Blockdevice dann z.B. als HFS+ oder NTFS und nutzt das wie eine lokale Festplatte.
 
Zuletzt bearbeitet:
2. Der IBM 1015 ist so billig, weil IBM den quasi beilegt.
Ansonsten muss mal halt teure (LSI oder OEM) 16-fach Controller nehmen oder wenn es genügend Slots hat mehrere billige 8fach
(Ich habe 6 x IBM 1015 in meinen Backupsystemen)

Danke für die ausführliche Antwort gea!
6 Stück ist ja schon eine Menge :) Mit welchem Board? Schätze alle Slots sind dann bei dir belegt.


1) Mal eine Frage zu zfs send/recv: Damit kann man ja schön seine Datasets sichern bzw die Snapshots. Mit ssh geht das ja auch auf entfernten Rechnern/Internet. Da kann ja schonmal ein Bit oder sonstwas umkippen. ZFS bietet intern ja viele sicherheitsmassnahmen wie Checksummem/Raidz/CoW etc. Sind die zB durch ssh verbundene ZFS send und receive funktionen auch geschützt?
Also merkt zfs auf dem backuprechner oder der quelle das ein Bit umgekippt ist? bringt ja nicht viel wenn man ZFS verwendet weil man Datensicherheit haben will , aber beim Kopieren trotzdem ein unbemerkter Fehler passieren kann (Betreffend der Datenkonsistenz). Oder was passiert wenn plötzlich das Internet ausfällt sodass ZFS send nicht zum Abschluss kommen kann. Ist dann der halbe Snapshot drauf?

2) ZFS send/recv geht ja auch inkrementell. Dazu muss man soweit ich weiss immer bei zfs send zwei snapshots angeben. Müssen diese umbeding hintereinander liegen? Also beispiel bei der quelle wurde ein snap1 gemacht. dieser auf das ziel übertragen. Einige zeit vergeht und es haben sich noch snap2,3,4 auf der quelle angesammelt. Nun will ich ein inkrememtelles backup auf das ziel machen. Kann ich dann direkt "zfs send -i /zpool/daten@snap1 /zpool/daten@snap4 | zfs recv /backup/daten" machen oder muss ich alle snapshots nacheinander übertragen? Gibts eine andere/einfachere variante wie ich ein datasets von zeit zu zeit einfach mal backupen kann?
 
Zuletzt bearbeitet:
Sockel 2011 bietet 40 PCIE-Lanes. X9SRL-F + E5-1620 v2 ist optimal hierfür, habe dort alle 7 Slots mit Controllern belegt.

@teqqy, bei mir hat damals das Durchreichen eines IBM M1015 unter KVM nicht funktioniert bei illumos-basierten Gästen. Hab auch ein Thread im Proxmox-Forum erstellt, wie ich gerade sehe gibt es noch mehr mit dem Problem. https://forum.proxmox.com/threads/12741-Problems-with-Illumos-based-VM-amp-passed-through-LSI-Controller
Allerdings besteht das Problem nur wenn man konkret etwas durchreicht. Dass VT-d aktiviert ist hat bei mir damals noch keine Problem gemacht. Unter ESXi funktioniert die Kombination und jedes andere Host-OS funktioniert unter KVM/proxmox auch.
Das ist kein KVM- bzw. Proxmox-Problem sondern ein Illumos/OI Problem, der USB/PCIE-Code ist fehlerhaft laut Aussage der Devs im IRC.
 
Zuletzt bearbeitet:
@bogonil22
1, zfs verwendet auch bei send/receive Prüfsummen, die solche Fehler verhindern. Halbe Snapshots gibt's nicht, diese werden verworfen.
2, Snapshots müssen nicht hintereinander liegen, aber der erste muss zum letzten vorhandenen am Ziel passen. Mit zfs send -I (groß!) werden auch dazwischenliegende Snapshots mitgenommen. Schau dir mal zxfer (https://github.com/allanjude/zxfer) an, das funktioniert blendend.

cu
 
Hi,

nutze OpenIndiana mit napp-it. Soweit ganz zufrieden in den ersten Tagen.

Habe 2 ZFS Pools:
4x 1TB RaidZ
4x 2TB RaidZ2
(Beide Pools sind sogut wie leer)

Darunter läuft ein IBM M1015 im IT Mode

Nun habe ich mal iozone laufen lassen und frage mich, ob die Random Write Rate normal ist? Kommt mir extrem langsam vor mit 5,8 bzw. 6,7 MB/s

oi-zfs-iozone_result.PNG

Auf die Gefahr hin Off-Topic zu laufen, habe ich noch eine Frage: Kann mir jemand "einfach" erklären, was die Permission Group "everyone@" ist?
Musste die Gruppe setzen, damit ein dedizierter Server den Pool als NFS Share nutzen kann. Andererseits wird der gleiche Pool als SMB für andere Clients genutzt, bei dem ich einzelne User berechtige. Soll aber sicher sein und da kommt mir so eine Gruppe namens "everyone" etwas seltsam vor als Neuling ;)

Beste Grüße

Edit: Ok...mit FileSize 1024kb sieht das ganze schon besser aus. Ab 131072kb brichts dann ein auf 15MB/s und dann weiter auf 6...
oi-zfs-iozone_result2.PNG

Auf der Suche nach Vergleichswerten habe ich ähnliche gefunden. Warum bricht das Random Write so ein?
 
Zuletzt bearbeitet:
zu everyone@

NFS arbeitet ja ohne Authentifizierung. Manche Clients schreiben dann Daten unter der eigenen UID, andere benutzen den User nobody. Am einfachsten geht man damit um, indem man die Dateirechte so einstellt dass jeder darauf Zugriff hat. (NFS ist eh nur was für sichere Netze).

Traditionell hat Unix ja die Rechte owner, group and everyone.
Solaris kennt zwar diese "oldstyle" Rechte auch, kennt aber zusätzlich Windowsartige nfs4 ACL (der SMB Server nutzt die ausschließlich). Da gibt es ein Pendant zu diesen alten Unixpermissions als ACL mit ACL-Vererbung. Zur Unterscheidung haben die ein @ am Ende.

owner@
group@
everyone@


zur Performance:
Manche Benchmarks messen reine sequentiuelle Streaming Performance. Da kommen dann tolle Werte.
Sobald aber mehrere Prozesse schreiben/ lesen, entscheidet die I/O Performance und da trennt sich dann schnell die Spreu vom Weizen.

Dazu kommt, dass ein Raid-Z nur die I/O Performance einer einzigen Platte hat (weil alle Köpfe für jeden Datenblock positioniert werden müssen).

- - - Updated - - -

Das mit dem Netatalk Package von mawi.uni ulm, ist sowieso etwas komisch. Geht man über search findet man die Version service/network/netatalk@3.1.0,5.11-0.151008:20140126T183743Z, da hatte ich ja schon damals direkt nach Erscheinen berichtet hier im Forum, dass sie Fehler hat und nicht funktioniert.

Geht man allerdings auf Packages wird service/network/netatalk 3.1.1,5.11-0.151010:20140515T140543Z gelistet, welche neuer ist, die habe ich allerdings noch nicht getestet, wäre mal interessant zu wissen, ob die ohne Fehler funktioniert:

http://scott.mathematik.uni-ulm.de/...netatalk@3.1.1,5.11-0.151010:20140515T140543Z

http://scott.mathematik.uni-ulm.de/release/p5i/0/service/network/netatalk.p5i

http://scott.mathematik.uni-ulm.de/...netatalk@3.1.1,5.11-0.151010:20140515T140543Z

Ich habe mir das nochmal genauer angeschaut und meinen afp Installer so modifiziert, das man damit verschiedene Versionen installieren kann.

Das Ergebnis:
omnios + setup of netatalk via IPS and mavi uni ulm: error=no share available
omnios + compile netatalk 3.1.1 manually: error=server version not supported


http://napp-it.org/extensions/afp_en.html
http://forums.servethehome.com/index.php?threads/problem-with-acl-on-afp-share-napp-it-omnios.3850/


Mal sehen, wer zuerst eine Lösung findet!
 
mal 'ne "doofe" Zwischenfrage zu Scrub und Shutdown.

Ein laufender Scrub wird beim herunterfahren ...

a) abgbrochen
b) beim System-Neustart neu gestartet (bei 0%)
c) beim System-Neustart wieder aufgenommen
 
Nochmal @Mac OS X

Apple wird Developern zufolge einige Änderungen vornehmen. So gibt es einen neuen Diagnosemodus, mit dem sich die Netzwerkeinstellungen prüfen lassen. Beim Bereitstellen von Dateien soll nun nicht mehr AFP, sondern SMB 3 als Standardprotokoll verwendet werden. SMB 2, AFP und CIFS funktionieren aber weiter. Mit SMB 3 sollen Ende-zu-Ende-Verschlüsselungen zum Standard werden, um Dateien auch in unsicheren Netzwerken austauschen zu können. Dabei wird AES-CCM verwendet, zudem gibt es AES-CMAC-Signaturen zur Verifikation der Datenintegrität.

Apple lässt Entwickler OS X Server 4 testen | Mac & i

Ist doch gut, oder?
 
Bezieht sich auf das kommende OSX 10.10 aber Hört sich erstmal gut an. Dachte das zur Zeit OSX nur SMB1 kann, und nicht SMB2?! Mal gucken ob mit der kommenden Integration von SMB3 auch die Performance steigt, weil diese ja von vielen bemängelt wird. Wenn dann wird wahrscheinlich die Performance zur steigen wenn client und server SMB3 fähig sind. Soweit ich weiss ist Win7 und Server2008r2 das nicht, erst ab Win8

----
Mal ne andere Frage: Als Backup habe ich zur Zeit ein N40L mit 4x3TB (wd green, ich weiss nicht optimal aber die hatte ich übrig und der HP läuft nur wenn Backup gemacht wird) im Raidz1. Langsam aber sicher wirds eng mit dem Platz. Mit einem Bios mod kann ich die Anzahl der Platten im N40L auf 6 steigern. Das heisst ich würde dann 6x 3TB im raidz1 haben. Das sind schon recht viele Platten bei der größe für ein raidz1 richtig? Besser wäre ein raidz2 aber das ist ja "nur" der Backupserver. meint ihr das ist noch vertretbar 6x3TB raidz1 als Backup?
 
Zuletzt bearbeitet:
SMB 3 is the default protocol for sharing files in OS X Yosemite. SMB 3 helps protect
against tampering and eavesdropping by encrypting and signing data “in-flight.” In
addition to SMB 3, OS X Yosemite maintains support for SMB 2, AFP and SMB
network file sharing protocols, automatically selecting the appropriate protocol as
needed.

SMB 3 provides end-to-end encryption to protect data and secure communication on
untrusted networks. SMB 3 uses AES CCM for encryption to ensure communications
between client and server are private.

To guard against tampering, SMB 3 adds a signature to every packet transmitted over
the wire. SMB 3 uses AES-CMAC to validate the integrity of the signature, ensuring
the packets have not been intercepted, changed or replayed and that communication
between hosts is authenticated and authorized.
OS X Yosemite | Software | Forum | MacTechNews.de
 
Das heisst ich würde dann 6x 3TB im raidz1 haben. Das sind schon recht viele Platten bei der größe für ein raidz1 richtig? Besser wäre ein raidz2 aber das ist ja "nur" der Backupserver. meint ihr das ist noch vertretbar 6x3TB raidz1 als Backup?

wo willst du denn die 6. Platte einbauen?
man kann zwar 6 Platten verbauen, aber nur 5x 3,5 " und 1x 2,5 " (2in1 Einschub im 5,25 " Schacht)

Ansonsten wäre ein Raidz1 mit 6 Platten als Backup noch vertretbar, wenn auch Performancetechnisch nicht optimal (5/8=0,675) -> ein Raidz1 aus 5 Platten ist optimaler (4/8 = 0,5)
 
wo willst du denn die 6. Platte einbauen?
man kann zwar 6 Platten verbauen, aber nur 5x 3,5 " und 1x 2,5 " (2in1 Einschub im 5,25 " Schacht)

Ansonsten wäre ein Raidz1 mit 6 Platten als Backup noch vertretbar, wenn auch Performancetechnisch nicht optimal (5/8=0,675) -> ein Raidz1 aus 5 Platten ist optimaler (4/8 = 0,5)

1) Stimmt die Plattenanzahl wäre echt nicht optimal, mhhh. Obwohl mir gerade einfällt das ich zur Zeit (3+1) also 4 HDDs im Raidz1 habe, was ja dann auch nicht optimal ist zur Zeit. Die volle GBit-Lan werden trotzdem erreicht. Das ist schon ausreichend als Performance für dieses System. Zwar dauert sogar jetzt schon ein scrub ca. 15h (was dann noch länger dauern wird) aber ich denke das kommt eher durch die limitierte CPU Leistung als durch die unoptimale HDD konfig.
2) Man kann (laut Googlesuche) in den N40L zwei HDDs übereinander stapeln im 5,25zoll Schacht. Dadurch kann man die HDDs natürlich nicht mehr so schön rein- & rausnehmen wie die anderen 4 Platten.
 
Zuletzt bearbeitet:
Ich habe mir das nochmal genauer angeschaut und meinen afp Installer so modifiziert, das man damit verschiedene Versionen installieren kann.

Das Ergebnis:
omnios + setup of netatalk via IPS and mavi uni ulm: error=no share available
omnios + compile netatalk 3.1.1 manually: error=server version not supported


napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana, Solaris and Linux downloads
Problem with ACL on AFP share (Napp-IT / OmniOS) | STH Forums


Mal sehen, wer zuerst eine Lösung findet!

Update
Steffen (mawi.uni Ulm) hat sein netatalk Packet gefixt und eben auf netatalk 3.1.2 upgedatet.
Mein afp installer läuft jetzt wieder auf OI, OmniOS und Solaris (-> netatalk 3.1.2, gibts seit vorgestern)
 
Danke für die Updates, leider funktioniert das Ganze nicht mit einer alten Version von OmniOS (keine AFP Shares werden angezeigt), also wollte ich schnell eine neue VM mit der aktuellen Omni Version installieren.

TLS Email funktioniert bei mir nach der neuen Install Methode nicht, wenn ich den Test mache:

Software error:

Can't locate Net/SSLeay.pm in @INC (@INC contains: /var/web-gui/data/napp-it/CGI /usr/perl5/site_perl/5.16.1/i86pc-solaris-thread-multi-64int /usr/perl5/site_perl/5.16.1 /usr/perl5/vendor_perl/5.16.1/i86pc-solaris-thread-multi-64int /usr/perl5/vendor_perl/5.16.1 /usr/perl5/5.16.1/lib/i86pc-solaris-thread-multi-64int /usr/perl5/5.16.1/lib . /var/web-gui/data/napp-it/zfsos/_lib/illumos /var/web-gui/_my/zfsos/_lib /var/web-gui/data/napp-it/zfsos/15_jobs and data services /var/web-gui/data/napp-it/zfsos/15_jobs and data services/04_TLS Email) at /var/web-gui/data/napp-it/CGI/Net/SMTP/TLS.pm line 89.
BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/Net/SMTP/TLS.pm line 89.
Compilation failed in require at /var/web-gui/data/napp-it/zfsos/15_jobs and data services/04_TLS Email/09_TLS-test/action.pl line 70.
BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/zfsos/15_jobs and data services/04_TLS Email/09_TLS-test/action.pl line 70.

For help, please send mail to this site's webmaster, giving this error message and the time and date of the error.
Software error:

[Fri Jun 6 21:37:21 2014] admin.pl: Can't locate Net/SSLeay.pm in @INC (@INC contains: /var/web-gui/data/napp-it/CGI /usr/perl5/site_perl/5.16.1/i86pc-solaris-thread-multi-64int /usr/perl5/site_perl/5.16.1 /usr/perl5/vendor_perl/5.16.1/i86pc-solaris-thread-multi-64int /usr/perl5/vendor_perl/5.16.1 /usr/perl5/5.16.1/lib/i86pc-solaris-thread-multi-64int /usr/perl5/5.16.1/lib . /var/web-gui/data/napp-it/zfsos/_lib/illumos /var/web-gui/_my/zfsos/_lib /var/web-gui/data/napp-it/zfsos/15_jobs and data services /var/web-gui/data/napp-it/zfsos/15_jobs and data services/04_TLS Email) at /var/web-gui/data/napp-it/CGI/Net/SMTP/TLS.pm line 89.
[Fri Jun 6 21:37:21 2014] admin.pl: BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/Net/SMTP/TLS.pm line 89.
[Fri Jun 6 21:37:21 2014] admin.pl: Compilation failed in require at /var/web-gui/data/napp-it/zfsos/15_jobs and data services/04_TLS Email/09_TLS-test/action.pl line 70.
[Fri Jun 6 21:37:21 2014] admin.pl: BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/zfsos/15_jobs and data services/04_TLS Email/09_TLS-test/action.pl line 70.
Compilation failed in require at admin.pl line 538.

For help, please send mail to this site's webmaster, giving this error message and the time and date of the error.
[Fri Jun 6 21:37:21 2014] admin.pl: [Fri Jun 6 21:37:21 2014] admin.pl: Can't locate Net/SSLeay.pm in @INC (@INC contains: /var/web-gui/data/napp-it/CGI /usr/perl5/site_perl/5.16.1/i86pc-solaris-thread-multi-64int /usr/perl5/site_perl/5.16.1 /usr/perl5/vendor_perl/5.16.1/i86pc-solaris-thread-multi-64int /usr/perl5/vendor_perl/5.16.1 /usr/perl5/5.16.1/lib/i86pc-solaris-thread-multi-64int /usr/perl5/5.16.1/lib . /var/web-gui/data/napp-it/zfsos/_lib/illumos /var/web-gui/_my/zfsos/_lib /var/web-gui/data/napp-it/zfsos/15_jobs and data services /var/web-gui/data/napp-it/zfsos/15_jobs and data services/04_TLS Email) at /var/web-gui/data/napp-it/CGI/Net/SMTP/TLS.pm line 89. [Fri Jun 6 21:37:21 2014] admin.pl: [Fri Jun 6 21:37:21 2014] admin.pl: BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/Net/SMTP/TLS.pm line 89. [Fri Jun 6 21:37:21 2014] admin.pl: [Fri Jun 6 21:37:21 2014] admin.pl: Compilation failed in require at /var/web-gui/data/napp-it/zfsos/15_jobs and data services/04_TLS Email/09_TLS-test/action.pl line 70. [Fri Jun 6 21:37:21 2014] admin.pl: [Fri Jun 6 21:37:21 2014] admin.pl: BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/zfsos/15_jobs and data services/04_TLS Email/09_TLS-test/action.pl line 70. [Fri Jun 6 21:37:21 2014] admin.pl: Compilation failed in require at admin.pl line 538.
 
Für verschlüsselte TLS Alert und Status-Mails z.B. an Googlemail müssen net-ssleay
und das Perl Modul Net::SMTP::TLS installiert werden.

Die Fehlermeldung läßt darauf schließen, dass zumindest ersteres fehlt.

Die Installation erfolgt mit:

## Step 1: install net-ssleay
- check publisher: pkg publisher
- if perl.omniti.com is missing: (Da gibt es das Packet)

pkg set-publisher -g http://pkg.omniti.com/omniti-perl/ perl.omniti.com
pkg install net-ssleay

Läuft das ohne Fehler?

siehe:
(Die blau unterlegten Befehle als root an der Console eingeben)
napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana, Solaris and Linux downloads
 
Hatte ich gemacht, da gab es wohl dann Fehler... Muss ich heute im Laufe des Tages mal noch einmal überprüfen. Nach der Installation von OmniOS gab es per pkg update zumindest neue SSL Version, weiss nicht was sonst noch. Ich verusche jetzt erst einmal die net-ssleay zu installieren und teste bevor ich das pkg update mache.
 
Gerade die neue netatalk Version getestet und nun funktioniert auch bei mir alles richtig.

Ich bedanke mich sehr herzlich für die Mühe!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh