[Sammelthread] ZFS Stammtisch

@gea: verwende ja schon lange dein Napp-IT System und bin top zufrieden. Beim Blick auf die Synology fällt einem immer wieder die für den Otto-Normal einfache Benutzeroberfläche und Rechteverwaltung auf.
Bei der GUI bin ich flexibel. Was mir bei der Rechteverwaltung gefällt, ist, das diese einfach auf der Synology einrichtbar ist. Beim Napp-IT ist mal als nicht Domänen Nutzer oder Neuinstallierer gleich mit der Problematik konfrontiert, das die Rechte wieder passen. Ich wäre auch bereit für eine Privat/Ottonormalmodulerweiterung zu zahlen, die es ermöglicht, eine genau so einfache Rechteverwaltung unter Napp-IT anzulegen. Benutzer X darf auf Pool XY zugreifen. Das war für mich bisher das größte Manko bei der Benutzung zwischen 2-3 Usern und hält mich immer wieder an der Lösung fest die Synology Software als Frontend und die Napp-IT Shares als Shared Folders durchzureichen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@gea: verwende ja schon lange dein Napp-IT System und bin top zufrieden. Beim Blick auf die Synology fällt einem immer wieder die für den Otto-Normal einfache Benutzeroberfläche und Rechteverwaltung auf.
Bei der GUI bin ich flexibel. Was mir bei der Rechteverwaltung gefällt, ist, das diese einfach auf der Synology einrichtbar ist. Beim Napp-IT ist mal als nicht Domänen Nutzer oder Neuinstallierer gleich mit der Problematik konfrontiert, das die Rechte wieder passen. Ich wäre auch bereit für eine Privat/Ottonormalmodulerweiterung zu zahlen, die es ermöglicht, eine genau so einfache Rechteverwaltung unter Napp-IT anzulegen. Benutzer X darf auf Pool XY zugreifen. Das war für mich bisher das größte Manko bei der Benutzung zwischen 2-3 Usern und hält mich immer wieder an der Lösung fest die Synology Software als Frontend und die Napp-IT Shares als Shared Folders durchzureichen.

Grundsätzlich ist SAMBA mit traditionellen Unix Permissions etwas einfacher in der Handhabung als Windows oder Solaris mit NTFS/NFS4 ACL Rechten. Die sind zwar erheblich flexibler mit sehr fein einstellbaren Rechten und all den Rechte-Vererbungen aber erfordern eben etwas mehr Verständnis.

Solaris mit dem CIFS Server ist aber so kompliziert auch nicht und arbeitet weitgehend wie Windows mit NTFS ACL.
Mit napp-it Free brauchts eigentlich nur ein Windows Pro oder Windows Server (zum Remote-Einstellen von ACL) sowie

- einmal nach der Installation von napp-it das Root-PW unter Solaris/OmniOS neu setzen (damit ein SMB PW erzeugt wird)
- Unter Solaris mehrere Nutzer anlegen (napp-it Menü User)
- Von Windows aus als Root an einem Dateisystem/Share anmelden (Rechte beziehen sich nicht auf den Pool sondern auf ein Dateisystem)
- mehrere Ordner anlegen

Rechte aus Windows setzen, (Mit rechter Maustaste auf einen Ordner klicken; Eigenschaft >> Sicherheit) z.B.
alle dürfen auf der obersten Ebene lesen/ausführen (nur dieser Ordner, keine Vererbung) + Ordner anlegen
Bei neu angelegten Ordnen hätte hier nur der Erzeuger/Eigentümer Vollzugriff.

weitere Rechte setzen, z.B. auf tieferliegende Ordner
Ordner A: User A Vollzugriff, User B lesen
Ordner B: nur User B Vollzugriff
Ordner C: alle ändern (mit Vererbung der Rechte, gemeinsamer Ordner)
etc

Mit manchen Windows Versionen gibts Probleme beim Remote Einstellen von ACL (z.B. Windows Home).
Dann gehts nur per CLI Befehl oder mit napp-it Pro und der ACL extension.

ach ja,
Unter Solaris und CIFS: Finger weg von traditionellen Unix Permissions, Solaris ist ACL only.
Beim Setzen von Unix Permissions werden ACL Vererbungen gelöscht da es die bei klassischen Unix Permissions nicht gibt.

Noch zu beachten ist, dass Solaris wie Windows ACL auf Dateien und Ordnern und ACL auf Shares kennt.
Die Share Einstellungen sind unabhängig von Dateirechten. Man kann damit global Rechte einschränken ohne Datei-ACL zu verändern.
 
Zuletzt bearbeitet:
@gea: genau da wird es halt kompliziert für jemanden der es nur als einfaches NAS verwenden möchte. Habe ich User angelegt und installiere Napp-IT neu sind die Berechtigungen auch erstmal ungültig.
Ich würde mir halt so etwas wünschen was so einfach ist wie ein NAS, Benutzer anlegen, Ordnerechte, fertig. Gerne auch gegen Bezahlung dafür.
 
@gea: genau da wird es halt kompliziert für jemanden der es nur als einfaches NAS verwenden möchte. Habe ich User angelegt und installiere Napp-IT neu sind die Berechtigungen auch erstmal ungültig.
Ich würde mir halt so etwas wünschen was so einfach ist wie ein NAS, Benutzer anlegen, Ordnerechte, fertig. Gerne auch gegen Bezahlung dafür.

Das ist doch immer so und ist ein Feature aktueller Systeme.

Installiert man irgendein OS (BSD, Ubuntu, Debian, Xpenology, Solaris, egal) mit SAMBA neu und legt die alten Benutzer wieder an, so passen die alten Rechte nur dann, wenn man die User mit der gleichen UID/GID anlegt wie die vorherigen ansonsten haben die wieder angelegten User keinen Zugriff.

Installiert man Solaris neu, so ist es genauso mit dem Unterschied, dass der Solaris CIFS Server Windows SID (halt wie ein echter Windows-Server) statt Unix UID/GID als Sicherheitsattribut nutzt. Ohne Domäne ist das egal. Wenn man napp-it neu aufsetzt, muss man halt darauf achten, dass der Rechner gleich heisst und die User ebenfalls die gleichen UID/GID haben wie die vorherigen, ganz wie bei SAMBA. Bei Domänennutzung wird es spannender, denn dann speichert Solaris die echten Domänen User-Referenzen. Ein auf einen beliebigen Windows Domänenserver zurückgespieltes Backup behält die alten Rechte. Das geht so sonst nur bei Windows.

Installiert man das OS mit SAMBA oder dem Solaris CIFS Server neu und achtet nicht darauf, die neuen User wie die alten anzulegen, so muss man halt die Rechte rekursiv zurücksetzen und neu so setzen wie man es braucht.

Ein NAS bei dem man die Rechte nicht auf Dateiattribute abbildet ist aber auch mit Windows oder Solaris möglich indem man auf Dateien allen den Zugriff einräumt und den Zugriff auf die Shares mit Share-ACL reglementiert. Ob das einfacher ist, sei dahingestellt. Ich würde es aber als eher unsicherer sehen (Etwas falsch eingestellt und alle haben Zugriff)
 
Zuletzt bearbeitet:
@Gea: wenn ich die Rechte auf einem Pool "neutralisieren" möchte, hatte ich bisher das Problem, das ich dies unter Windows nicht sauber bis auf den letzten Ordner hinbekommen habe. Diese vererbten Rechte usw. anderer Benutzer "klebten" dann doch fest. Habe es bisher nur so hinbekommen das ich einen neuen Pool anlegte und die Daten rüber kopiert habe.

Für so einen Schalter oder Script der die Rechte neutralisiert oder wo ich einfach nur die Rechte pro Ordner Freigeben kann, wäre ich äußerst dankbar. Ich habe jetzt nur wieder den Vergleich zu z.B. Xpenology, weiss aber auch nicht genau wie das da gelöst wird, ist nur halt recht simpel und einfach beim Handling.
 
Ein ZFS System könnte so aussehen
Super Micro Computer, Inc. - Products | Chassis | 2U | SC216BA-R1K28LPB

Dazu ein SuperMicro Mainboard nach Wahl (Single 6Core wäre ausreichend, Dual Core eventuell wegen RAM Ausbau) mit 3 x LSI HBA 9207 + benötigte Nics, vorzugsweise Intel.

Dazu 20 Enterprise SSDs z.B. Intel 3500-1,6 TB oder S3610-1,6 TB oder S3710-1,2 TB für 2 x Raid-Z2
+ 1-2 SSD als Hotspare siehe Intel Launches SSD DC S3610 & S3710 Enterprise SSDs

Für async Betrieb braucht man kein Slog wie eine ZeusRAM,
falls man kleine sync Writes auf günstigeren SSDs reduzieren möchte (ZeusRAM hat 3,5", geht nicht),
wäre eine HGST s840Z (16GB) noch eine Option

Bei SAS wirds dann teurer, z.B. mit HGST s841-2TB o.ä.


Mit all inkl Support müsste man halt sehen, ob sowas von Nexenta zertifiziert ist,
ansonsten müsste man Hardware und Software Support (z.B. OmniOS, Oracle Solaris, High Availability.com) trennen. Bei der Nutzung von OpenSource ohne Komplett-Support sollte die eigene IT aber etwas Erfahrung haben.

Snyc writes fallen wohl auch bei async mounts an, z.B. beim erstellen neuer Dateien. Beiweitem nicht so viele wie bei sync mounts aber laut Nexenta ist ein ZIL auf jeden Fall hilfreich.
Wobei die SSDs ja auch erheblich besser mit sync writes zurechtkommen sollten als HDDs.

Rechnet man mal mit den 1.6TB S3610 für ~ 2k das Stück mit 2xraid z2 sind das immerhin bei 24+2 spare SSDs 52k für die SSDs. Bei 38.4TB Brutto also ~40TB die zu supporten wären.

Zum Thema support.
Die hauseigene IT zu der ich gehöre ist nicht ganz unfähig, aber es gibt nunmal komplexe Probleme bei denen man gern auf Support von Leuten zurückgreift, die den ganzen Tag nichts anderes tun als Storage.
Ich habe kein Interesse daran mich mit firmwareständen von Controllern, Netzwerkkarten oder HDDs/SSDs, puffergrößen oder Protokolleinstellungen auseinanderzusetzen während Leute darauf warten das ein Service wieder verfügbar wird.
Solange noch irgendwie Geld für support professionellen von Zentralen Geräten da ist wollen wir den auch weiter haben.
Allein schon weil man Ansprechpartner hat wenn der eigene Spezialist mal Krank ist oder Urlaub hat oder den Arbeitgeber wechselt.
Das gilt für alle Geräte deren Ausfall wirklich schmerzhaft ist.
In dem Fall stört auch ein kurzer Ausfall von wenigen Stunden wie in etwa eine Woche downtime.
Der witrschaftliche Schaden entspricht dann in etwa den supportkosten von 3 Jahren HDD Lösung oder 5 Jahren SSD.
Geplante Wartungsslots für updates oder Konfigurationsänderungen gibt es ein bis zwei mal jährlich.

Ist mir für eine selbstbaulösung ein bisschen zu sensibel das ganze.

Leider ist das Budget momentan trozdem knapp genung.
Das sind halt die Situationen die mal als ITler zu hassen lernt. Anforderungen an Verfügbarkeit und Performance wie sonstwas und nicht die Mittel um die passende Lösung zu finanzieren. Ich hoffe solche Situationen bleiben die Ausnahme.
 
Snyc writes fallen wohl auch bei async mounts an, z.B. beim erstellen neuer Dateien. Beiweitem nicht so viele wie bei sync mounts aber laut Nexenta ist ein ZIL auf jeden Fall hilfreich.
Wobei die SSDs ja auch erheblich besser mit sync writes zurechtkommen sollten als HDDs.

Die Aussage würde ich so nicht unterschreiben.
Es gibt keine sync mounts. Sync ist eine Eigenschaft des ZFS Dateisystems (oder via writeback cache eines Blockdevices) das das Verhalten beim Schreiben auf das Dateisystem steuert.

Wenn sync=default, so kann ein schreibender Prozess selbst entscheiden, ob er sync write möchte oder nicht. Bei SMB ist das nie der Fall, bei NFS häufig (ESXi=immer) Wenn man besonders kritische Sachen auf dem Dateisystem hat (z.B. Datenbanken) so kann man auch sync write generell einschalten.

Wenn man nur SMB macht, so macht sync wenig Sinn. Sync hat keine Auswirkungen auf die Konsistenz eines Dateisystems hat (ZFS ist immer konsistent). Prozesse wie der SMB Server fordern das gar nicht an. Sync bedeutet dass Schreibaktionen, die einem schreibenden Prozess als committed (ist auf Platte) gemeldet werden auch tatsächlich auf der Platte sind (oder bei Stromausfall wenigstens beim nächsten Start nachgeholt werden). Wichtig also bei Transaktionen oder falls "alte Dateisysteme" z.B. als virtuelle Platte betroffen sind. Jede Schreibaktion wird dazu erst ins schnelle ZIL device (on Pool oder idealerweise extra Slog device) protokolliert und dann nochmal als sequentielles Write über den Schreibcache auf den normalen Pool geschrieben.

Ist das nicht der Fall ist ein Slog device wie ein Kropf: unnötig, ja schädlich.
Es würde nur bei sync=always genutzt und würde dann als Schreibbremse arbeiten.


Zu dern "Selbstbaulösungen".
Wenn man sich bei den ZFS Lösungen, z.B. Nexenta umschaut, so wird man immer auf folgendes stoßen:
Supermicro Case + SuperMicro board + LSI HBA + Intel Nic. Es ist also nicht Selbstbau sondern es gibt einfach Standardlösungen für ZFS Storage die weltweit tausendfach im Einsatz sind.

Im Endeffekt ist es aber oft so, NetApp + Support, ZFS und günstig oder etwas dazwischen, dass dann oft deren Features wie Performance, Erweiterbarkeit, CopyOnWrite und Prüfsummen auf Daten nicht hat.

- - - Updated - - -

@Gea: wenn ich die Rechte auf einem Pool "neutralisieren" möchte, hatte ich bisher das Problem, das ich dies unter Windows nicht sauber bis auf den letzten Ordner hinbekommen habe. Diese vererbten Rechte usw. anderer Benutzer "klebten" dann doch fest. Habe es bisher nur so hinbekommen das ich einen neuen Pool anlegte und die Daten rüber kopiert habe.

Für so einen Schalter oder Script der die Rechte neutralisiert oder wo ich einfach nur die Rechte pro Ordner Freigeben kann, wäre ich äußerst dankbar. Ich habe jetzt nur wieder den Vergleich zu z.B. Xpenology, weiss aber auch nicht genau wie das da gelöst wird, ist nur halt recht simpel und einfach beim Handling.

Rechte rücksetzen bedeutet unter Windows:
- Als Administrator anmelden und erst rekursiv Eigentümer werden
- dann Rechte rekursiv zurücksetzen


Unter Unix ist der erste Schritt nicht notwendig, da root immer Zugriff hat, unabhängig von den Eigentümer-Einstellungen
Rücksetzen auf jeder darf, geht mit napp-it folgendermassen

Im Menu ZFS Dateisystems in der Spalte ACL on Folders auf das Dateisystem klicken.
Es werden dann die ACL des Dateisystems angezeigt.
Unter der Rechteauflistung kann man ACL Einstellungen ändern (Teilweise nur mit napp-it Pro).

Der Menüpunkt "reset ACLs" rekursive auf everyone@=modify ist aber immer verfügbar.
 
Die Aussage würde ich so nicht unterschreiben.
Es gibt keine sync mounts. Sync ist eine Eigenschaft des ZFS Dateisystems (oder via writeback cache eines Blockdevices) das das Verhalten beim Schreiben auf das Dateisystem steuert.

Wenn sync=default, so kann ein schreibender Prozess selbst entscheiden, ob er sync write möchte oder nicht. Bei SMB ist das nie der Fall, bei NFS häufig (ESXi=immer) Wenn man besonders kritische Sachen auf dem Dateisystem hat (z.B. Datenbanken) so kann man auch sync write generell einschalten.

Wenn man nur SMB macht, so macht sync wenig Sinn. Sync hat keine Auswirkungen auf die Konsistenz eines Dateisystems hat (ZFS ist immer konsistent). Prozesse wie der SMB Server fordern das gar nicht an. Sync bedeutet dass Schreibaktionen, die einem schreibenden Prozess als committed (ist auf Platte) gemeldet werden auch tatsächlich auf der Platte sind (oder bei Stromausfall wenigstens beim nächsten Start nachgeholt werden). Wichtig also bei Transaktionen oder falls "alte Dateisysteme" z.B. als virtuelle Platte betroffen sind. Jede Schreibaktion wird dazu erst ins schnelle ZIL device (on Pool oder idealerweise extra Slog device) protokolliert und dann nochmal als sequentielles Write über den Schreibcache auf den normalen Pool geschrieben.

Ist das nicht der Fall ist ein Slog device wie ein Kropf: unnötig, ja schädlich.
Es würde nur bei sync=always genutzt und würde dann als Schreibbremse arbeiten.


Zu dern "Selbstbaulösungen".
Wenn man sich bei den ZFS Lösungen, z.B. Nexenta umschaut, so wird man immer auf folgendes stoßen:
Supermicro Case + SuperMicro board + LSI HBA + Intel Nic. Es ist also nicht Selbstbau sondern es gibt einfach Standardlösungen für ZFS Storage die weltweit tausendfach im Einsatz sind.

Im Endeffekt ist es aber oft so, NetApp + Support, ZFS und günstig oder etwas dazwischen, dass dann oft deren Features wie Performance, Erweiterbarkeit, CopyOnWrite und Prüfsummen auf Daten nicht hat.

Die Aussage mit den sync writes beim erstellen von Dateien bezieht sich auf NFS.
SMB ist keine option, NFS dagegen evtl. schon.
Sync writes sind bei einem teil der eingesetzten Software voraussichtlich erforderlich.

Wir haben hier viele freie linuxinstallationen im Einsatz, alles open source und ohne support. Betreut von der lokalen IT.
Aber eben nicht da wo ein kurzer Ausfall den man nicht schnell kompensieren kann tausende Euro kostet.

Bei 30TB Storage mit 15 mio files dauert das kopieren selbst wenn ich ein 2. System verfügbar habe und ich die Daten noch lesen kann einige Tage in denen niemand damit arbeiten kann.

Wir hatten an der Stelle mal NFS unter Linux ohne richtigen support mit Hardwareraid im Einsatz.
Lief auch eine Weile ganz gut, war aber ab ca. 200 clients nicht mehr zu gebrauchen.
Nach mehreren Abstürzen durch permanente Überlast haben wir das damals gegen ein paralleles System ausgetauscht.
Natürlich nicht ohne zuvor einige Tage damit zu verbringen, die optimale Anzahl NFS server Threads, Puffergrößen anzahl offener Filehandles und Netzwerkverbindungen usw. zu optimieren.
Die Zeit war stressig und lehrreich und am Ende bis auf den Lerneffekt volkommen unnötig investiert weil die Lösung einfach unterdimensioniert war und der NFS kernel Server mit so vielen Verbindungen nicht zurechtkam.

Ich bin absolut kein Fan davon Geld für support auszugeben wenn sich das vermeiden lässt.
Ich bastel gern und suche auch gern in komplexeren Systemen nach Fehlern und lerne dabei. Natürlich hätte ich meinen Spass dabei ein performantes ZFS system so günstig wie möglich zu realisieren.
Aber das ist hier leider nicht mein Spielplatz das muss funktionieren. Und daher werde ich meinem Arbeitgeber vorrechnen, das sich der support bei einer eingesparten ungeplanten Betriebsunterbrechung alle 2-3 Jahre rechnet.
 
Ich arbeite selber hauptberuflich in einem Bereich in dem es im zweifelsfall eher Geld als Personal gibt. Lösungen mit Full-Support und schnellen Service Level Agreemants sind da schon eine gute Möglichkeit. Es gibt sicher auch Anwendungen, wo es anders eh gar nicht geht.

Mir geht es aber darum zu zeigen, dass Qualitäts-Storage auch dann möglich ist, wenn das Geld für NetApp & Co nicht reicht. Ich bin selber mit dieser Massgabe vor 6 Jahren zu ZFS gekommen (Zugegebenermaßen weil Apple beabsichtigte, damals ZFS für ihr Storage einzusetzen).

Das Besondere an ZFS ist ja gerade, dass es auf gängiger Standard Server Hardware relativ problemlos funktioniert und absolute High-End Features bietet. Nicht umsonst hat NetApp versucht ZFS durch Klagen zu verhindern. Die Liste der Don't do that and prefer this ist relativ kurz. Wenn man das beachtet, funzt es einfach und skaliert problemlos nach oben.

Wenn man dann per zfs send die Daten auf einem Reservesystem per Replikation vorhält und vielleicht insgesamt ein Reservesystem hat, in dem man die Platten umziehen kann, so ist der mögliche Downtime meist kleiner als 30 Minuten zu halten.

Ich sehe aber auch , dass in DE große Firmen wenn dann fast nur mit Solaris und ZFS arbeiten - kaum mit OmniOS/OpenSource. In anderen Ländern (Dänemark, Schweden, Holland, vor allem in USA) ist das anders. Da ist OmniOS viel häufiger auch bei großem Einrichtungen im Einsatz, selbst bei Regierungseinrichtungen - nicht nur im Hochschulbereich, immer öfter aber auch mit OS-Support.

Der Grund ist meist.
Es wird sonst schnell richtig teuer (selbst mit massivem Rabatt) wenn man High-Performance oder High-Capacity anfrägt.
 
Zuletzt bearbeitet:
... Ich bin selber mit dieser Massgabe vor 6 Jahren zu ZFS gekommen (Zugegebenermaßen weil Apple beabsichtigte, damals ZFS für ihr Storage einzusetzen).

Hi gea, wenn ich es richtig in Erinnerung habe, dann setzt Du ja aktuell auch Mac Clients in Verbindung mit ZFS Storage ein. Greifen diese Macs immer noch über AFP auf die Storage zu? Wir haben viele Macs im Einsatz und ich muss immer wieder feststellen, dass es ab und zu Probleme bei einzelnen Files gibt, selten, aber es kommt halt vor. Es sind dann meist Probleme mit Zugriffsrechten, also Ordner kann nicht gelöscht werden oder File kann nicht gelöscht werden. Ebenso ist die Auflistung von Dateien in Ordnern mit vielen Files und Subordner (400-500) manchmal sehr langsam im Mac Finder. Im Normalfall dauert es nur wenige Sekunden, dann aber kommt es vor, dass man 2 Minuten warten muss bis die Files angezeigt werden. Untersuchungen mit CIFS waren eher noch schlechter. Ich warte Sehnsüchtig auf CIFS2 auf ZFS Seite aber das sieht ja nicht so gut aus oder gibt es schon Implementierungen?
 
Wir haben hier weit über 100 Clients, mehr Macs als Windows.
Nutzung ist durchwachsen, teilweise Büroartig aber auch CAD, Animation, Videoschnitt, oft aber große Media und Layoutdaten. Als Fileserver setzen wir ausschließlich OmniOS/ ZFS ein (Bis auf ein Avid/Windows Storage an drei Schnittplätzen).

Auch wir haben festgestellt, dass seitdem Apple kein SAMBA sondern einen eigenen SMB Stack einsetzt, die SMB1 Performance deutlich schlechter ist, als bei Windows Clients. Dennoch setzen wir als Standardprotokoll auch bei Macs auf SMB. Der Grund ist einfach, dass es die einzige plattformunabhängige Option ist. Auch ist es erheblich problemfreier als AFP oder NFS. Weiterer Grund ist, das wir Active Directory einsetzen.

Für die meisten Anwendungen ist die Performance auch ok. Ich habe jetzt länger keinen Benchmark gemacht, erwarte aber > 50MB/s beim Zugriff aif die Filer über 1Gb Ethernet. Unsere Media-Arbeitsplätze (MacPro) stellen wir gerade auf 10 Gb/s um (Promise Sanlink). Ich denke, dass wir damit auch mit SMB1 noch klarkommen. Alternativ gibt es dann NFS für einzelne Anwendungen wo keine Authentifizierung aber Performance nötig ist. AFP installiere ich nicht mehr da es einfach nur nervt und immer irgendwas nicht mehr geht und es nicht mit AD und Windows zusammengeht.

SMB 2+ ist kein ZFS Problem sondern momentan ein Problem des Solaris CIFS Servers. Eine Umstellung auf SAMBA4 würde auch unter Solaris/OmniOS SMB2+ bringen. Ich selber würde diesen Weg aber ungern gehen. Der Solaris SMB Server ist einfach Windows kompatibler (Stand Win 2003/2008) und schön einfach im Handling. Wenn sich aber am Solaris SMB Server da nichts ändert, werde ich wohl auch auf SAMBA4 gehen.

Es gibt aber bereits SMB 2.1 unter Illumos und zwar bei Nexenta. Die haben auch schon SMB 3 mit NexentaStor 4.1 angekündigt. Es wird (von Gorden Ross@nexenta.com) auch an einer freien Illumos Integration gearbeitet. illumos day 2014 SMB2 .

Vielleich kommt SMB2 unter Illumos aber erst wenn NexentaStor bereits SMB3 bietet....
 
Zuletzt bearbeitet:
Grade mal geguckt, Nappit scheint keinen DDNS Client zu bieten. Hast du darüber schonmal nachgedacht was dran zu ändern, also im Webinterface zu integrieren? Wäre zum einen sicherlich recht wenig aufwand, man muss ja nur IP regelmäßig überprüfen und dann den Link des DDNS Anbieters aufrufen.
 
Grade mal geguckt, Nappit scheint keinen DDNS Client zu bieten. Hast du darüber schonmal nachgedacht was dran zu ändern, also im Webinterface zu integrieren? Wäre zum einen sicherlich recht wenig aufwand, man muss ja nur IP regelmäßig überprüfen und dann den Link des DDNS Anbieters aufrufen.

Was hat sowas in einem Paket zu suchen, das für Storage zuständig ist? Irgendeinen DDNS-Client nachzuinstallieren dürfte doch wohl trivial sein.
 
Hallo,

gestern habe ich ein update auf die Napp-it Version 0.9f5 gemacht. Jetzt bekomme ich bei einigen Menüeinträgen immer folgende Fehlermeldung. (Siehe Screenshot). Kann mir jemand ein Tipp geben wie ich das lösen kann?
Smartnas2_Error.jpg
 
Das sind Meldungen des Perl Modules Expect.pm
Dieses Modul ist für OmniOS in zwei Varianten dabei.

Beim Login wird geprüft, welche der beiden für das jeweilige OmniOS benötigt wird.
Ein Logout/Login sollte das Problem beheben.

ps
Manche Programme modifizieren die Perl Umgebung, so dass Expect nicht mehr läuft.
Der Ausweg ist meist das Programm via pkgin nach /opt zu installieren da damit die normale Systemumgebung nicht verändert wird.
 
Ich arbeite selber hauptberuflich in einem Bereich in dem es im zweifelsfall eher Geld als Personal gibt. Lösungen mit Full-Support und schnellen Service Level Agreemants sind da schon eine gute Möglichkeit. Es gibt sicher auch Anwendungen, wo es anders eh gar nicht geht.

Mir geht es aber darum zu zeigen, dass Qualitäts-Storage auch dann möglich ist, wenn das Geld für NetApp & Co nicht reicht. Ich bin selber mit dieser Massgabe vor 6 Jahren zu ZFS gekommen (Zugegebenermaßen weil Apple beabsichtigte, damals ZFS für ihr Storage einzusetzen).

Das Besondere an ZFS ist ja gerade, dass es auf gängiger Standard Server Hardware relativ problemlos funktioniert und absolute High-End Features bietet. Nicht umsonst hat NetApp versucht ZFS durch Klagen zu verhindern. Die Liste der Don't do that and prefer this ist relativ kurz. Wenn man das beachtet, funzt es einfach und skaliert problemlos nach oben.

Wenn man dann per zfs send die Daten auf einem Reservesystem per Replikation vorhält und vielleicht insgesamt ein Reservesystem hat, in dem man die Platten umziehen kann, so ist der mögliche Downtime meist kleiner als 30 Minuten zu halten.

Ich sehe aber auch , dass in DE große Firmen wenn dann fast nur mit Solaris und ZFS arbeiten - kaum mit OmniOS/OpenSource. In anderen Ländern (Dänemark, Schweden, Holland, vor allem in USA) ist das anders. Da ist OmniOS viel häufiger auch bei großem Einrichtungen im Einsatz, selbst bei Regierungseinrichtungen - nicht nur im Hochschulbereich, immer öfter aber auch mit OS-Support.

Der Grund ist meist.
Es wird sonst schnell richtig teuer (selbst mit massivem Rabatt) wenn man High-Performance oder High-Capacity anfrägt.

Ja ZFS ist schon ein Segen wenn man ein leistungsfähiges Storage System braucht. Wenn ich daran denke wie eingeschränkt man früher mit hardware-raid lösungen war. Für einen reinen Fileserver ist das uninteressant geworden.

Wobei Storage eben oft so kritisch ist, dass auch Netapp und Co mit teilweise wirklich gutem Service weiter ihr Geld verdienen können.

Das in Deutschland so oft support gekauft wird liegt denke ich ein bisschen mit an der Bezahlung der IT Mitarbeiter. Meist spielen doch bei der Bezahlung der Mitarbeiter die entstandenen Kosten für Hard und Software keine große Rolle. Da wird doch gern mal support gekauft, damit der Schwarze Peter wenn mal was nicht läuft weitergeschoben werden kann.
Auf irgend einer Messe habe ich mal "Nobody got fired for buying ..." aufgeschnappt.

Hauptgrund für mich bei Nexenta nach support anzufragen war deren Aussage, dass sie auch mehrere hundert clients per NFS vesorgen können. Bei anderen Kunden geben sind laut Nexenta >1000 clients per NFS angebunden.
Da habe ich mit freier Software vor ein paar Jahren meine Probleme gehabt. Wir hatten einen Fileserver unter linux im Einsatz der ab ca. 200 clients troz relativ guter Hardwareausstattung nicht mehr zuverlässig funktioniert hat. In etwa doppelt so viele clients gilt es jetzt zu versorgen.
 
Das sind Meldungen des Perl Modules Expect.pm
Dieses Modul ist für OmniOS in zwei Varianten dabei.

Beim Login wird geprüft, welche der beiden für das jeweilige OmniOS benötigt wird.
Ein Logout/Login sollte das Problem beheben.

ps
Manche Programme modifizieren die Perl Umgebung, so dass Expect nicht mehr läuft.
Der Ausweg ist meist das Programm via pkgin nach /opt zu installieren da damit die normale Systemumgebung nicht verändert wird.

Danke für die Antwort gea.
Ich habe kein anderes Programm installiert nur Napp-it aktualisiert und ein OS update gemacht (pkg update).
Auch das Ein- und Ausloggen hilft da nicht - der Fehler taucht wieder auf. Ich kann zum Beispiel das Menü ZFS Pool nicht benutzen...
Ich hoffe ich muss nicht napp-it neu installieren ...
 
Hallo,

gestern habe ich ein update auf die Napp-it Version 0.9f5 gemacht. Jetzt bekomme ich bei einigen Menüeinträgen immer folgende Fehlermeldung. (Siehe Screenshot). Kann mir jemand ein Tipp geben wie ich das lösen kann?
Anhang anzeigen 321272

Sieht aus, als ob einfach irgendwelche Binaries ins System gebügelt werden, die überhaupt nicht passen. Dateien mit Endung .so sind eigtl. binäre shared libraries.

Im Zweifel einfach mal neuinstallieren. :)

Edit: Normalerweise würde ich ja vorschlagen, sich mit den paar Basics vertraut zu machen, die es zur Administration eines ZFS-Storage braucht und napp-it einfach komplett links liegen zu lassen. Die Qualität davon ist immer wieder erschreckend. Ich verstehe aber auch die Zielgruppe und deshalb wäre der Vorschlag wohl nicht praxisnah.
 
Zuletzt bearbeitet:
Wer eine komplexe Storage Installation per Kommandozeile administrieren kann - kein Problem.
Ich möchte mir das nicht zutrauen, dazu hat Sun zuviel eingebaut.

Ansonsten ist napp-it soweit wie möglich Copy and Run. Wenn möglich liefere ich im napp-it Ordner alles mit damit es läuft - im Falle von Expect sogar zwei Binaries für unterschiedliche OmniOS Releases. Anders wäre es auch kaum möglich napp-it für verschiedene Plattformen anzubieten. Es gibt so gut wie keine Abhängigkeiten zur OS Installation (lediglich eine Standard Perl Konfiguration wird benötigt). Napp-it verändert auch das System bei der Installation nur da wo es für den Storagebetrieb absolut notwendig ist. Normalerweise gibt es dabei auch überhaupt keine Probleme. Die treten nur auf, wenn Programme die Perl Umgebung verändern (wie z.B. Transmission).

Selbst wenn man bei jeder Installation Expect kompilieren würde (was nicht ganz trivial ist) so würden dennoch die gleichen Abhängigkeiten oder Unverträglichkeiten bestehen bleiben.
 
Zuletzt bearbeitet:
Auch wir haben festgestellt, dass seitdem Apple kein SAMBA sondern einen eigenen SMB Stack einsetzt, die SMB1 Performance deutlich schlechter ist, als bei Windows Clients. Dennoch setzen wir als Standardprotokoll auch bei Macs auf SMB. Der Grund ist einfach, dass es die einzige plattformunabhängige Option ist. Auch ist es erheblich problemfreier als AFP oder NFS. Weiterer Grund ist, das wir Active Directory einsetzen.

Für die meisten Anwendungen ist die Performance auch ok. Ich habe jetzt länger keinen Benchmark gemacht, erwarte aber > 50MB/s beim Zugriff aif die Filer über 1Gb Ethernet. Unsere Media-Arbeitsplätze (MacPro) stellen wir gerade auf 10 Gb/s um (Promise Sanlink). Ich denke, dass wir damit auch mit SMB1 noch klarkommen. Alternativ gibt es dann NFS für einzelne Anwendungen wo keine Authentifizierung aber Performance nötig ist. AFP installiere ich nicht mehr da es einfach nur nervt und immer irgendwas nicht mehr geht und es nicht mit AD und Windows zusammengeht.

SMB 2+ ist kein ZFS Problem sondern momentan ein Problem des Solaris CIFS Servers. Eine Umstellung auf SAMBA4 würde auch unter Solaris/OmniOS SMB2+ bringen. Ich selber würde diesen Weg aber ungern gehen. Der Solaris SMB Server ist einfach Windows kompatibler (Stand Win 2003/2008) und schön einfach im Handling. Wenn sich aber am Solaris SMB Server da nichts ändert, werde ich wohl auch auf SAMBA4 gehen.

Es gibt aber bereits SMB 2.1 unter Illumos und zwar bei Nexenta. Die haben auch schon SMB 3 mit NexentaStor 4.1 angekündigt. Es wird (von Gorden Ross@nexenta.com) auch an einer freien Illumos Integration gearbeitet. illumos day 2014 SMB2 .

Vielleich kommt SMB2 unter Illumos aber erst wenn NexentaStor bereits SMB3 bietet....

Vielen Dank für die ausführliche Darstellung. Da wir die gleichen Erfahrungen haben, werden wir wohl doch auf SMB1 wechseln müssen. Insbesondere da wir auch mit allen Clients (Win und Mac) auf AD wechseln werden. Da Du explizit Win 2003/2008 erwähnst, ist dies wohl Eure produktive Umgebung. Gibt es schon Erfahrungen mit Win 2012 und SMB1? Wir müssen wohl direkt auf Win 2012 gehen.
 
Vielen Dank für die ausführliche Darstellung. Da wir die gleichen Erfahrungen haben, werden wir wohl doch auf SMB1 wechseln müssen. Insbesondere da wir auch mit allen Clients (Win und Mac) auf AD wechseln werden. Da Du explizit Win 2003/2008 erwähnst, ist dies wohl Eure produktive Umgebung. Gibt es schon Erfahrungen mit Win 2012 und SMB1? Wir müssen wohl direkt auf Win 2012 gehen.

Unsere AD Server sind Windows 2012 und das läuft problemlos mit Solaris/OmniOS.
Die Implementierung des Solaris CIFS Server entspricht von der Funktionalität W2003/2008
 
Ist es normal dass sich der FRES Wert ändert wenn man den Pool neu importiert? Habe meinen Pool importiert und dieser stand nach dem Import auf 499GB und unter Windows das Netzlaufwerk zeigte auch 0 Byte freien Speicher an, eben weil 499GB gar nicht mehr frei waren. Bin mir ziemlich sicher ich hatte diesen Wert vorher auf 350GB oder so stehen, ansonsten hätte ich den Pool gar nicht soweit befüllen können. Bei einem zweiten Pool trat der "Fehler" aber nicht auf.
 
Als ZFS Eigenschaft sollte sich dieser Wert durch ein Export/Import nicht ändern.
Sinn macht fres aber nicht als Pool Eigenschaft sondern für normale Dateisysteme um diesen den Platz zu garantieren.

Für andere Dateisysteme erscheint der freie Poolspeicher dann entsprechend kleiner.
 
Auch diese Reservierung die dafür sorgen soll, dass der Pool nicht komplett gefüllt wird, sollte sich durch ein Export/Import nicht ändern.
 
Exportiert habe ich nicht, sondern nur heruntergefahren und dann neu importiert bei einem neuen System. Dachte Export ist eher dafür wenn der Rechner aus dem der Pool entnommen wird nicht heruntergefahren wird.
 
Es ist unerheblich ob man einen Pool den man importiert, vorher sauber exportiert hat.
 
Zitat Zitat von zos Beitrag anzeigen
OK, ich bin ja selbst neugierig, ob es einfach hinzukriegen ist. Was bei mir geklappt hat, ist folgendes Vorgehen um Serviio 1.5 zu installieren. Und probiert es bitte nur in einer Testumgebung aus:

EDIT: Wechselt vorher ins /root-Verzeichnis (cd ~)

(1) beadm create pre-java-8
(2) wget --no-cookies --no-check-certificate --header "Cookie: gpw_e24=http%3A%2F%2Fwww.oracle.com%2F; oraclelicense=accept-securebackup-cookie" "http://download.oracle.com/otn-pub/java/jdk/8u31-b13/jdk-8u31-solaris-x64.tar.gz"
(3) gzip -dc /root/jdk-8u31-solaris-x64.tar.gz | tar xf -
(4) mv /usr/java/ /usr/java.omnios.org
(5) mv /root/jdk1.8.0_31/ /usr/java
(6) wget -O - http://www.wp10455695.server-he.de/serviio15 | perl

Unter (6) findet sich quasi die neue Script-Version von serviio für den Fall, dass OmniOS bereits Java8 mitliefert. Da das derzeit nicht der Fall ist, vorher die Schritte (1)-(5).

Noch ein Nachtrag:
Im Log (siehe /opt/local/share/serviio/log/serviio.log) erscheinen zunächst Fehlermeldungen, dass "dcraw" und "ffmpeg" nicht gefunden werden.

Auf die Schnelle ist das wie folgt zu lösen:
(1) svcadm disable serviio
(2) Datei /opt/local/share/serviio/bin/serviio.sh editieren:
(3) Suche nach Zeile die mit "JAVA_OPTS=" beginnt
(4) In dieser Zeile zum Ende navigieren und die Parameter
(4a) "-Dffmpeg.location=ffmpeg" ändern in "-Dffmpeg.location=$SERVIIO_HOME/ffmpeg"
(4b) "-Ddcraw.location=dcraw" ändern in "-Ddcraw.location=$SERVIIO_HOME/dcraw"
EDIT: und speichern nicht vergessen :)
(5) svcadm enable serviio

Jetzt sollten die Fehlemeldungen im Log verschwunden sein.

Hab das ganze mal so getestet. HP Microserver mit OmniOS r151014, omnios-a708424, dann Napp-IT 0.9f5, dann das AMP Script, dann VirtualBox Script und dann Serviio wie aus der Anleitung oben. Funktioniert soweit, bis jetzt keine Probleme, zumindest nicht serverseitig, clientseitig konnte ich noch net testen
 
Zuletzt bearbeitet:
Aktualisierungen Napp-it Addons

Kürzlich hat Joyent ein neues pkgsrc-Release (2015Q1) bereitgestellt, so dass ich das amp-Script mit folgenden Versionsständen aktualisiert habe:
Apache 2.4.12
MySQL 5.6.23
PHP 5.6.8
Redis 2.8.18
phpmyadmin 4.4.4

Es kann wie gehabt mit

wget -O - http://www.wp10455695.server-he.de/amp | perl

installiert werden. Das bisherige amp-Script habe ich unter http://www.wp10455695.server-he.de/amplts abgelegt, da Joyent inzwischen auch LTS-Versionen (Long Term Support) anbietet. Diese sind immer die pkgsrc-Releases des letzten Quartals eines Jahres (Quellen siehe hier bzw. hier).

Da OmniOS mit r151014 auch eine aktuelle LTS-Version anbietet, kann hier also ein länger mit Updates versorgter Server aufgesetzt werden.

Außerdem aktualisiert:
Pydio 6.0.6 (http://www.wp10455695.server-he.de/pydio)
ownCloud 8.0.2 (http://www.wp10455695.server-he.de/owncloud)
Tine2.0 2014.09.10 (http://www.wp10455695.server-he.de/tine20)
VirtualBox 4.3.26 mit phpvirtualbox 4.3-3 (http://www.wp10455695.server-he.de/phpvbox)

Auch in der neuen OmniOS r151014 ist Java8 nicht standardmäßig installiert, so dass Serviio 1.5 nicht ohne weiteres lauffähig ist. Den Workaround hatte ich ja bereits beschrieben (siehe auch Post von CommanderBond oben) und nun ebenfalls in ein Script gepackt. Mit

wget -O - http://www.wp10455695.server-he.de/java | perl

kann Java (derzeit Version 8u45) installiert werden. Die originale OmniOS-Installation befindet sich anschließend im Ordner "/usr/java.org". Danach kann mit

wget -O - http://www.wp10455695.server-he.de/serviio15 | perl

die aktuelle Version 1.5.2 von Serviio installiert werden. Die Anpassungen in der Datei /opt/local/share/serviio/bin/serviio.sh (location von ffmpeg und dcraw) werden jetzt ebenfalls automatisch im Script vorgenommen, so dass jetzt keine weiteren manuellen Eingriffe mehr notwendig sein sollten.

Unter http://www.wp10455695.server-he.de/serviio bleibt aber weiterhin die Serviio-Version 1.4 verfügbar, die out of the box mit OmniOS läuft.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh