[Sammelthread] ZFS Stammtisch

@Gea: Danke noch einmal für deine ganze Unterstützung und die vielen Tipps, nach ein paar Tagen würde ich sagen, es ist jetzt sicher, dass die Intel VNic problemlos funktioniert im Gegensatz zur VMNET3. Es ist aber schon Schade, dass die andere Variante nicht funktioniert, da ja einiges an Performance verloren geht. Woran liegt das eigentlich warum das nicht stabil läuft? Liegt das an OmnioS, den VMWare Tools für Solaris oder Hardware? Gibt es überhaupt jemanden bei dem das wirklich funktioniert mit VMXNET3? Die einzige Alternative, die ich sehe wäre zwei 10 GBe Netzwerkkarten zu kaufen und eine davon per Passthrough direkt an die Nappit VM durchzureichen und die andere an den ESXi SAN VSwitch zu binden und dann per Crossover. Aber für eine gute Lösung mit Intel Nics gleich mal 600 Euro hinlegen, da kann ich nur sagen ganz schön heftig für ein Heimsetup.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei meinen Hauptservern setze ich -sicher ist sicher- e1000 ein,
zumal damit intern und bei mir auch extern mit 10 GBe CX4 auch mehrere Gbit/s
möglich sind. Die CPU Last ist allerdings höher.

Ich habe aber auch vmxnet3 am Laufen, meist ohne ernste Probleme.
Es gibt auch sehr wenige Problemberichte über e1000 und doch ab und zu über vmxnet3.

Ob das jetzt an einer besonderen Hardware, besonderen Einstellungen oder dem vmware Solaris Treiber liegt,
kann ich nicht sagen.

- - - Updated - - -

Hallo,

gerne würde ich per FTP auf Dateien meines Servers zugreifen. Leider verstehe ich nicht ganz wie die Konfiguration von ProFTPD funktioniert. Insbesondere wie ich den User anlegen muss.
Gibt es ein kleines HowTo für ProFTPD unter Napp-IT ? bzw. Eine Beispiel für eine ftp.conf ? Muss der User im System angelegt sein für die Authentifizierung? Müssen bestimmte Rechte für Verzeichnisse gesetzt werden ?
Die Infos die ich im Netz finde sind für mich nicht ganz verständlich ...

Gruß

Proftp ist ein Server, der alles kann und wo es 1000 Möglichkeiten gibt.
Also sowohl echte User wie auch virtuelle FTP User die auf echte user gemappt werden.
Mal sehen, wie ich das künftig in napp-it als ZFS Eigenschaft einbauen kann.

Am besten mal mit den Optionen herumspielen:
http://www.proftpd.org/docs/howto/ConfigFile.html
 
Dann muss ich was falsch machen, ich habe bei mir wenn ich Daten über SMB übertrage mal gerade 50-60 mb/s manchmal am Anfang der Übertragung auch mehr. Kann das an der LZ4 Kompression liegen?

Wie du allerdings über einen 1 GBit Nic mehrere GBs übertragen kannst, übersteigt allerdings mein Vorstellungsvermögen...

- - - Updated - - -

Ok weitere Tests, die Pools geben von der Geschwindigkeit genug her:

NAME SIZE Bonnie Date(y.m.d) File Seq-Wr-Chr %CPU Seq-Write %CPU Seq-Rewr %CPU Seq-Rd-Chr %CPU Seq-Read %CPU Rnd Seeks %CPU Files Seq-Create Rnd-Create

mediapool 16.2T start 2013.10.17 16G 383 MB/s 96 1163 MB/s 86 734 MB/s 81 321 MB/s 99 1755 MB/s 77 +++++/s +++ 16 27794/s 16106/s
vmpool 928G start 2013.10.17 16G 393 MB/s 96 1075 MB/s 78 774 MB/s 82 332 MB/s 99 2167 MB/s 86 6999.8/s 8 16 +++++/s +++++/s

Mir ist jetzt bei den Tests auch aufgefallen, dass die E1000 Nic die CPU weitaus mehr auslastet, ich bin aber trotz LZ4 Compression auf den Pools gerade mal bei 40 % CPU Auslastung, da ist also noch Luft nach oben, bleibt die Frage was ist die Ursache für die schlechte Performance? NFS und SAMBA intern übrigens von der Geschwindigkeit ungefähr gleich.

Wenn ich auf meinen externen Client etwas kopiere über mein reales 1 Gbit Netz, das ist ein Mac Client und es geht über AFP habe ich konstant um die 100 mb/s, das schätze ich mal für das Netz als realistisch ein, zumal die Verkabelung sicherlich nicht ganz optimal ist.

Das Phänomen, scheint also auf intern beschränkt zu sein, die Frage ist was könnte die Ursache sein...

- - - Updated - - -

Gerade noch zu dem Thema einen interessante Seite gefunden, weiss nicht ob schon bekannt?:

http://blog.cyberexplorer.me/2013/03/improving-vm-to-vm-network-throughput.html

- - - Updated - - -

Vielleicht ist das auch der Grund warum, der VMXNET3 unter OmniOS nicht richtig geht, weil einfach durch den Bug das falsche Kernelmodul gebaut wird, das nicht hundert Prozent kompatibel ist.

- - - Updated - - -

Script wurde wohl komplett überarbeitet, habe gerade überprüft die richtigen Module werden installiert, also weitersuchen...
 
Finds schon doll, dass ich für jedes kleine Updätchen an deinem Post eine Benachrichtigungsmail bekomme ;)
Weiterhelfen kann ich bei dem Problemchen nicht, aber das musste ich mal eben loswerden...
 
Hi!

Sorry war mich nicht bewusst mit der Benarichtigungsfunktion, da ich die bei mir nicht drin habe. Ich entschuldige mich hiermit bei allen, die ich damit genervt habe. Ich gelobe auch nicht mehr jeden kleinen Schritt zu posten, aber es ist halt schon etwas frustrierend wenn man Lösungen sucht.

Übrigens zu dem Problem, man sollte vielleicht auch mal auf den VSwitchen die MTU auf 9000 ändern sowie bei der Intel E1000 den Jumbo Frame Support in der Nappit VM aktivieren, dann klappt das auch mit der Geschwindigkeit ;) Da ist sicherlich noch an der einen oder anderen Stelle was zu optimieren...
 
Proftp ist ein Server, der alles kann und wo es 1000 Möglichkeiten gibt.
Also sowohl echte User wie auch virtuelle FTP User die auf echte user gemappt werden.
Mal sehen, wie ich das künftig in napp-it als ZFS Eigenschaft einbauen kann.

Am besten mal mit den Optionen herumspielen:
ProFTPD mini-HOWTO - Configuring ProFTPD (via proftpd.conf)

Vielen Dank gea!
Diese Dokumente habe ich mir auch schon angeschaut aber nicht ganz verstanden. Besonder die User Authentifizierung ist mir einfach nicht ganz klar.
Aber ich probier es weiter. Wenn es ein Menü geben könnte indem man die User anlegen bzw. auswählen könnte und auch ein Down-/Upload Verzeichnis auswählen könnte wäre natürlich extrem cool.
Vielen Dank für Deine Arbeit!!
Aber vielleicht gibt es ja auch Leute die ProFTPD benutzen und mal schreiben könnten wie sie es eingerichtet haben. Das würde mir und vielleicht auch andere eine große Hilfe sein.

Gruß
 
Muss grad mal aus aktuellem Anlass die Postings rund um #3375 rausgraben:

Generelle Einschränkungen der Zugriffsrechte bei NFS-Freigabe würden mich aber auch interessieren. Momentan hab ichs auf allow für everyone, was mich ein bisschen stört.

Das hat sich geändert, da jetzt auch Nutzer im Netzwerk sind, die keinen Zugriff haben sollen. Damit ist das Ursprungsproblem wieder da: Wie krieg ich NFS-Shares unter Linux (Ubuntu/Debian) gemountet, wenn der Zugriff nicht mehr auf "Scheunentor weit offen" steht?

Mit usermod hab ich schonmal testweise eine der User-IDs auf die des Clientsystems gesetzt, in dem Fall 1000. Bei der Änderung der GID weigert sich Solaris, daher steht der User dort auf 1000:10. Name auf Solaris und Client sind identisch. Homeverzeichnis auf Solaris hab ich mal mit chown -R bearbeitet, damits dort wieder passt. Liegt aber ja eh nix wichtiges drin.

domainname auf Solaris wirft das gleiche aus was auch am Client in der /etc/idmapd.conf nach "Domain = " steht. Weiteres Mapping ist ja nur für Windows-Clients mit SMB, oder?

Der bisher mit den komplett offenen Verzeichnissen funktionierende Mount via /etc/fstab wirft nun folgendes aus:

Code:
sudo mount -a -vvv
mount: fstab path: "/etc/fstab"
mount: mtab path:  "/etc/mtab"
mount: lock path:  "/etc/mtab~"
mount: temp path:  "/etc/mtab.tmp"
mount: UID:        0
mount: eUID:       0
[lokale mounts - genörgel weil schon aktiv]
mount: spec:  "192.168.1.111:/gutti/lolz"
mount: node:  "/media/lolz"
mount: types: "nfs"
mount: opts:  "rw,bg"
mount: external mount: argv[0] = "/sbin/mount.nfs"
mount: external mount: argv[1] = "192.168.1.111:/gutti/lolz"
mount: external mount: argv[2] = "/media/lolz"
mount: external mount: argv[3] = "-v"
mount: external mount: argv[4] = "-o"
mount: external mount: argv[5] = "rw,bg"
mount.nfs: trying text-based options 'bg,vers=4,addr=192.168.1.111,clientaddr=192.168.1.123'
mount.nfs: mount(2): Permission denied
mount.nfs: access denied by server while mounting 192.168.1.111:/gutti/lolz

Umstellen der fstab-Zeile auf ein ro statt rw tuts nicht. Also, wundert mich nicht, weil wie will der Kerl ohne Passworteingabe auch Zugriff erhalten? Auch per manuellem mount krieg ich keine Aufforderung dafür. Wie kann ich denn generell prüfen, ob der Login überhaupt akzeptiert wird, egal, ob da nun Freigaben sichtbar sind oder nicht?
 
(1) weiss eigentlich jemand wie es aussieht mit dem support für LZ4 im ZFS-Cache (ARC, L2ARC, ZIL)??
Gibt es da Fortschritte? und welche OS werden das unterstützen? Solaris, OmniOS, OpenIndiana, FreeNAS,...?
(2) @gea: Wie kann man in nappit eigentlich smartmontools auf die aktuelle 6.2 Version updaten?
(3) ist es richtig das bei Napp-It im Menüpunkt "ZFS-Dateisysteme" der rpool nicht angezeigt wird, nur die zpools?
(4) soweit ich weiss unterstützt ja OmniOS GRUB stage2 (version2) sodass man LZ4 auch auf dem rpool aktieren kann richtig?
(5) @gea: Info: Wenn man in nappit in der console (Monitor extension) ist funktionieren bei mir die ausklappbaren Menüs oben in nappit nicht. Die funktionieren überall ausser in der Console/Terminal-Extension. Ich weiss nicht ob es nur bei mir so ist, gewollt ist oder ein bug ist :)
 
Zuletzt bearbeitet:
1.
As of the time of writing support for compressed L2ARC exists in OmniOS r151008 bloody and OpenIndiana oi_151a8. For support in proprietary Illumos distros contact your distro vendor.

L2ARC Compression - illumos - illumos wiki

2.
Herunterladen und Kompilieren
Ich werde das bei Gelegenheit in den Installer einbauen

3.
ja, das ist gewollt

4.
ja, habs aber nicht getestet

5.
Das ist so.
Das Console Fenster muss man schließen damit die normalen Menüs wieder gehen.

- - - Updated - - -

Das hat sich geändert, da jetzt auch Nutzer im Netzwerk sind, die keinen Zugriff haben sollen. Damit ist das Ursprungsproblem wieder da: Wie krieg ich NFS-Shares unter Linux (Ubuntu/Debian) gemountet, wenn der Zugriff nicht mehr auf "Scheunentor weit offen" steht?

NFS3 ist immer scheunentorweit offen.
Es kennt keine Authentifizierung und keine Client-Verifizierung.

Der einzige Schutz ist die IP des Client und eventuell eine UID eines clients.
Also praktisch gar kein Schutz da beides in jedem Rechner frei einstellbar ist.
Basiert also alles auf Good-Will und arbeitet je nach Server und Client unterschiedlich.
NFS ist daher nur was für sichere Netze.

Wenn es nicht offen sein soll, dann NFS4 oder nehmen oder bei SMB bleiben.
 
1.
As of the time of writing support for compressed L2ARC exists in OmniOS r151008 bloody and OpenIndiana oi_151a8. For support in proprietary Illumos distros contact your distro vendor.

Super :) Würde die compression eigentlich auch Sinn beim ARC und ZIL machen? bzw ist das der nächste Schritt? Beim L2ARC hats ja IO-Vorteile.

2.
Herunterladen und Kompilieren
Ich werde das bei Gelegenheit in den Installer einbauen

Gut dann warte ich lieber :)

4.
ja, habs aber nicht getestet
(1) Würde sich jemand mal bereit erklären das zu testen?
(2) PS: Lohnt sich das eigentlich bei den Systemdatein von OmniOS/OI und Nappit oder sind die alle schon stark komprimiert?
(3) Wenn man sich entschließt lz4 jetzt (nachträglich) auf dem rpool zu aktieren, werden dann nur NEUE Dateien komprimiert/benutzt? (wie z.B. bei copies=2)


PS: Habe eine allg. Frage zu dem Ticket-System von Illumos. Einige Feature-Tickets sehen ja ganz interessent aus (z.B. das). Verstehe ich dass richtig, dass die zu 100% abgeschlossenen Tickets sicher mit den nächsten Bloody oder Stable release von OmniOS/OI unterstützt werden?
 
Zuletzt bearbeitet:
NFS3 ist immer scheunentorweit offen.
Es kennt keine Authentifizierung und keine Client-Verifizierung.

[...]

Wenn es nicht offen sein soll, dann NFS4 oder nehmen oder bei SMB bleiben.

Vom 3er war ja auch nicht die Rede ;) Aber auch mit dem ging ja nix, das wurde gelegentlich mal als Fallback empfohlen, wenn sich das 4er verweigert.
Und der ganze Kerberoskram als alternative Authmethode ist für ein Heimnetzwerk auch üüüberhaupt kein bisschen Oversized...

SMB hat mich jetzt satte eineinhalb Stunden beschäftigt, damits ebenfalls mal mit nicht-everybody-Einstellungen läuft. Wahrscheinlich beim nächsten Reboot von Host oder Client wieder nicht mehr, freu ich mich schon drauf. Wenn der Auth geklappt hat, wars ein guest -> guest not allowed, wenn PW (absichtlich) falsch war, war plötzlich ein eigentlich zugangsberechtigter Client dran. Heute Nachmittag hatt ich schon geschaut, wo man NFS-Zugriffe mitloggen kann, soll mit 4 ja auch Geschichte sein. Klar, braucht man ja auch nicht. Zwischendrin dann solcher Rotz:

smbadm[4421]: [ID 136767 user.error] smb_lgrp_getsid: failed to get a SID for user id=1002 (-9981)

Nämlich als ein User plötzlich ne SID dortstehen hatte, die aber gleich wieder weg war (wtf?), kurz davor tauchte in den Einstellungen für das Filesystem ne erstellte SMB-Gruppe nicht mehr auf, idmapping-löschen funktioniert in der 0.9b3 nightly definitiv nicht für mehrere Kästchen sondern maximal für eins, und, und, und. Gut, dass der gea eh keine Einstellungen für SMB-Shares erlaubt, sondern nur die trivialen für NFS ;)

Achja, SMB tröpfelt mit 20-26 MB/s rüber und ich weiß wieder, warum ich NFS mit Transferraten am Anschlag der Gbit-Leitung gut fand. :wall:
Mag jetzt ruhig angepisst rüberkommen, genau das bin ich mit dem Mist jetzt auch. Als ob man der erste Mensch wäre, der für nen Netzwerkshare mal mehr festlegen will/muss als "jeder darf alles drauf veranstalten"...
 
Dass NFS ein wenig schneller ist als SMB ist klar, aber so schlecht ist SMB
nur auf dem Mac oder wenn andere Probleme dazukommen (Realtec nics,
CopyTools wie Teracopy etc).

SMB kann durchaus > 90 MB/s auf 1 GbE und >300 MB/s auf 10 GbE
und das ohne irgendwelches tuning.

Eine Frage:
Läuft da eine AD Domain oder warum gibt es ein userid-mapping?
 
Achja, SMB tröpfelt mit 20-26 MB/s rüber und ich weiß wieder, warum ich NFS mit Transferraten am Anschlag der Gbit-Leitung gut fand.

Da stimmt aber bei dir definitiv sonst irgendwas nicht, ich habe hier auch GBit Netzwerk und habe sowohl mit meinen Windows (über SMB) und Mac Clients (über AFP) ca. 100 bis 110 MB/S. Mein Netzwerk ist alles andere als optimal zu nennen, da ich hier in der Mietwohnung einige Kompromisse eingehen muss und daher insgesamt drei DLink Switche (Modelle für den Heimgebrauch) einsetzen muss.

Edit: Angepasst oder getuned wurde da auch nichts bei mir.
 
Zuletzt bearbeitet:
Dass NFS ein wenig schneller ist als SMB ist klar, aber so schlecht ist SMB
nur auf dem Mac oder wenn andere Probleme dazukommen (Realtec nics,
CopyTools wie Teracopy etc).
Der Laptop (Kubuntu 13.04) hat ne
00:19.0 Ethernet controller: Intel Corporation 82567LM Gigabit Network Connection (rev 03)
und in der Solarismaschine steckt ne Intel EXPI9301CT. Wie gesagt, via NFS stehen 120 aufm Tacho. Verbindung läuft direkt zwischen den beiden Rechnern, ohne Switch etc., und im separaten 192.168.1.x-Bereich, während WLAN und 100Mbit der beteiligten Fritzbox 192.168.0.x nutzt.

SMB kann durchaus > 90 MB/s auf 1 GbE und >300 MB/s auf 10 GbE
und das ohne irgendwelches tuning.

Tunen geht auch schon via Mehrfachtransfers, da ist auch ne Verdopplung drin, hab ich noch gesehen. Blöd, dass dann manchmal ein Transfer stehen bleibt, bis man ihn pausiert und wieder startet. Oder einzelne Dateien mit Fehlermeldung nur halb übertragen werden. Oder, weswegen ich jetzt tatsächlich mal neustarten werde: Dolphin bleibt während eines Transfers total hängen, ist per GUI auch nicht mehr zu killen. Den juckt auch ein gezogenes Kabel oder eine runtergefahrene Gegenstelle nicht, vielleicht läuft ja netterweise ein Timeout bis in drei Wochen. Als das grade steckenblieb war Dateizugriff nur mehr per Konsole möglich, andere Dolphin-Instanzen gingen gar nicht erst auf.
Die Gelegenheit werd ich fürs Ziehen von nem Image der Systemplatte nutzen (mal Windowsperformance gegenprüfen) und dann auf Ubuntu 13.10 updaten. Wobei ich mir da eigentlich Null Mehrperformance von verspreche, eher den üblichen Ballast.



Eine Frage:
Läuft da eine AD Domain oder warum gibt es ein userid-mapping?

Weil ich ja vorher an nem laufenden NFS dran war?
 
Ich fahre derzeit zu Testzwecken OmniOS auf einem N54L und habe mir das ampo-Paket (www.napp-it.org/ampo) installiert. Nun habe ich zusätzlich VirtualBox installiert und (damit man es nicht per CLI administrieren muß) phpvirtualbox als Frontend zur Administration.

Bei Aufruf von http://<hostip>/phpvirtualbox erhielt ich die Fehlemeldung "PHP does not have the SOAP extension enabled."

Ich konnte das Problem beheben, indem ich das ampo-Script (siehe Anhang anzeigen amposoap.txt) um folgende Zeilen ergänzt habe:

Zeilen 172-176:
&log2('Install PHP extensions: pkgin -y install php54-soap'); # okt 2013: 5.4.19
$r=`$path pkgin -y install php54-soap`;
&log2($r);

Zeile 268:
extension=soap.so

Nach erneuter Ausführung des Scriptes konnte ich phpvirtualbox erfolgreich aufrufen.

@effemmess, @gea:
Mglw. macht es Sinn diese Extension standardmäßig im ampo-Script zu ergänzen, es obliegt Euch :)
 
Napp-it addons "ampo" und "mediatomb"

Wird zuerst "ampo" installiert, schlägt eine darauffolgende Installation von "mediatomb" reproduzierbar fehl (System: OmniOS-stable, aktuelle Version).

Ich habe den Output während der Installation mitgeschnitten (Anhang anzeigen mt-install.zip), hier treten ab Zeile 2248ff. die ersten Fehlermeldungen auf.

Installiert man zuerst "mediatomb" und anschließend "ampo" kommt es zu keinerlei Fehlern und beides läuft perfekt.
 
Ich wollte wenn ich mir ein neues Supermicro Gehäuse kaufe (weiss noch nicht genau welches im Detail), auch einen anderen Controller einsetzen: LSI 9201-16i. Sind Probleme damit zu erwarten oder ist das auch ein sorglos Paket wie die alte 9211 Serie?
 
(2) PS: Lohnt sich das eigentlich bei den Systemdatein von OmniOS/OI und Nappit oder sind die alle schon stark komprimiert?
(3) Wenn man sich entschließt lz4 jetzt (nachträglich) auf dem rpool zu aktieren, werden dann nur NEUE Dateien komprimiert/benutzt? (wie z.B. bei copies=2)


PS: Habe eine allg. Frage zu dem Ticket-System von Illumos. Einige Feature-Tickets sehen ja ganz interessent aus (z.B. das). Verstehe ich dass richtig, dass die zu 100% abgeschlossenen Tickets sicher mit den nächsten Bloody oder Stable release von OmniOS/OI unterstützt werden?

2.
Es lohnt eigentlich nur wenn der Platz zu knapp wird (z.B. 16 GB Stick), ansonsten nichts als unnötiger Aufwand

3.
wirkt nut bei neu geschriebenen Daten

ps
das entscheidet letztendlich Omni oder OI ob und wann Features übernommen werden. (Liegt daran ob es Probleme bereiten könnte)

- - - Updated - - -

Ich wollte wenn ich mir ein neues Supermicro Gehäuse kaufe (weiss noch nicht genau welches im Detail), auch einen anderen Controller einsetzen: LSI 9201-16i. Sind Probleme damit zu erwarten oder ist das auch ein sorglos Paket wie die alte 9211 Serie?

Ich nutze ihn nicht selber, würde aber keine Probleme erwarten.

- - - Updated - - -

Ich fahre derzeit zu Testzwecken OmniOS auf einem N54L und habe mir das ampo-Paket (www.napp-it.org/ampo) installiert. Nun habe ich zusätzlich VirtualBox installiert und (damit man es nicht per CLI administrieren muß) phpvirtualbox als Frontend zur Administration.

Bei Aufruf von http://<hostip>/phpvirtualbox erhielt ich die Fehlemeldung "PHP does not have the SOAP extension enabled."

Ich konnte das Problem beheben, indem ich das ampo-Script (siehe Anhang anzeigen 253274) um folgende Zeilen ergänzt habe:

Zeilen 172-176:
&log2('Install PHP extensions: pkgin -y install php54-soap'); # okt 2013: 5.4.19
$r=`$path pkgin -y install php54-soap`;
&log2($r);

Zeile 268:
extension=soap.so

Nach erneuter Ausführung des Scriptes konnte ich phpvirtualbox erfolgreich aufrufen.

@effemmess, @gea:
Mglw. macht es Sinn diese Extension standardmäßig im ampo-Script zu ergänzen, es obliegt Euch :)


Soap ist ja nicht so exotisch.
Ich habe kein Problem damit es als Teil von ampo zu installieren.

(Einzelne Module kann man im neuen napp-it per Menü aktivieren/deaktivieren)


ps

Ich habe phpvirtualbox noch nie probiert (bin voll auf ESXi).
Wie wäre es mit einem kleinen PDF
- Installation
- Vorgehensweise (mit ein paar Screenshots)

Interessiert ja vielleicht andere

- - - Updated - - -

Wird zuerst "ampo" installiert, schlägt eine darauffolgende Installation von "mediatomb" reproduzierbar fehl (System: OmniOS-stable, aktuelle Version).

Ich habe den Output während der Installation mitgeschnitten (Anhang anzeigen 253401), hier treten ab Zeile 2248ff. die ersten Fehlermeldungen auf.

Installiert man zuerst "mediatomb" und anschließend "ampo" kommt es zu keinerlei Fehlern und beides läuft perfekt.

Danke für die Info
Ich werde das bei den add-ons vermerken
 
Bin etwas verwirrt.

Habe 2 Datasets erstellt ( every@=mod ). Jetzt nach einiger Zeit steht bei dem einen plötzlich (default ACL ) obwohl ich nichts geändert habe. Nur ein paar Ordner erstellt und Dateien hochgeladen. Handelt sich hierbei um eine SMB Share.

Die nächste Frage ist ob der Solaris SMB Server (der in OmniOS) noch weiterentwickelt wird, oder ob man irgendwann getrost zu Samba greifen kann
 
(...)
Ich habe phpvirtualbox noch nie probiert (bin voll auf ESXi).
Wie wäre es mit einem kleinen PDF
- Installation
- Vorgehensweise (mit ein paar Screenshots)
(...)

Kann ich gern machen, wird aber noch einige Tage dauern bis es so weit ist.
 
Warscheinlich eine dumme Frage, aber wie löse ich einen rpool wieder auf? Ich habe den Bootstick mit gea's napp-it gespiegelt und nun kann er nach dem booten den 2 USB Stick nicht finden und der pool ist degraded. Wie kriege ich das wieder hin?
 
Ist OmniOS+nappit eigentlich merklich schneller von einer kleinen SSD ? Also "lohnt" es sich ein bisschen Geld in eine kleine SSD zu investieren?

Und kann man die Bios Uhr irgendwie über das Webinterface setzen?
 
Zuletzt bearbeitet:
@Timmi:
Sollte das nicht im Ram laufen? Dann würde ich denken das es außer der Startzeit relativ egal ist ob SDD/Festplatte/USB-Stick.
 
Warscheinlich eine dumme Frage, aber wie löse ich einen rpool wieder auf? Ich habe den Bootstick mit gea's napp-it gespiegelt und nun kann er nach dem booten den 2 USB Stick nicht finden und der pool ist degraded. Wie kriege ich das wieder hin?

zfs detach rpool diskid
http://docs.oracle.com/cd/E19253-01/819-5461/gcfhe/index.html

bei Bedarf neu spiegeln

- - - Updated - - -

Ist OmniOS+nappit eigentlich merklich schneller von einer kleinen SSD ? Also "lohnt" es sich ein bisschen Geld in eine kleine SSD zu investieren?

Und kann man die Bios Uhr irgendwie über das Webinterface setzen?

Wiederholtes Lesen geht aus dem RAM, es werden aber logs geschrieben.
Für die NAS Performance ist es generell egal.

Zeit stellen: ntpdate
eventuell als other job. Ob das auch die Bios Uhr stellt müsste ich aber auch probieren.
 
Hey,

gibt es schon eine Möglichkeit einen ZFS v28 Pool unter Linux einzubinden? Vermutlich würden, wenn es geht, auch alle Rechte der einzelnen Ordner flöten gehen was aktuell über ACL gelöst ist (Nappit)?
 
(1) Kann man in OmniOS das Keyboard-Layout auch nach der iIstallation noch ändern? Nervt echt wenn wichtige Zeichen wie .:,-/ nicht an der Stelle zu finden sind wo sie sein sollten :)

(2) Gibts eigentlich ein Tool mitdem man sich ungefähr die Fragmentierung von ZFS angucken kann?
Auf die Schnelle habe ich DAS hier gefunden (sieht nach einem kleinen Programm aus -> wäre eine Nappit-Integration möglich?)
Laut dem LINK ist es nur eine grobe Schätzung der Fragmentierung, aber besser als nichts :)
So wie ich das verstehe prüft er da ob der nächste Block eines Blockes zur gleichen Datei gehört oder nicht. Fraglich ist nur ob dies die richtige herangehensweise ist, da ich HIER eine ganz andere Herangehensweise der Ermittlung der Fragmentierung passiert.
 
Hallo,
habe zwei Fragen zu OmniOS / ZFS mit napp-it.
Ich habe den N40L mit 16GB ECC Speicher. Auf einer 64 GB SSD möchte ich OmniOS installieren.

1. Im PDF unter http://napp-it.org/doc/downloads/napp-it.pdf habe ich gelesen "You can add a SSD as L2ARC cache ...".
Da auf der SSD noch Platz ist, kann ich den L2ARC cache auf den restlichen Platz der SSD legen, wo das OmniOS bereits liegen würde? Oder macht das überhaupt keinen Sinn, da OmniOS bereits auf der SSD liegt?

2. nachdem der N40L kein passthrough kann, würde ich meine zwei weiteren Festplatten als RDM an die VM mit OmniOS durchreichen. Getestet habe ich es schon. Es würde funktionieren. Aber ist es "empfohlen", einen ZFS-mirror auf RDMs zu machen statt auf Festplatten per passthrough?
 
Auf einer 64 GB SSD

1. Im PDF unter http://napp-it.org/doc/downloads/napp-it.pdf habe ich gelesen "You can add a SSD as L2ARC cache ...".
Da auf der SSD noch Platz ist, kann ich den L2ARC cache auf den restlichen Platz der SSD legen, wo das OmniOS bereits liegen würde? Oder macht das überhaupt keinen Sinn, da OmniOS bereits auf der SSD liegt?

Du kannst eine zweite Partition anlegen und dann den L2ARC darauf einstellen, hab ich zumindest unter Solaris einfach machen können. Sinn macht es aber nicht wirklich, ist eher Bad Practice auf der OS Platte, noch den L2ARC einzustellen, zumal die Schreibzugriffe deiner einfachen SSD (was ist das für eine SSD sicherlich keine mit SLC NAND?) ziemlich bald "Altern" lassen werden, da kein (?) TRIM etc. möglich.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh