[Sammelthread] ZFS Stammtisch

Was sagt dein kern.log dazu?

tail -f /var/log/kern.log


Ansonsten probier mal anstelle von sec=ntlm einfach sec=ntlmssp. Der alte Kram fliegt selbst unter *nix Systemen langsam raus. Dies solltest du aber auch im kern.log sehen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
User@srv:~$ tail -f /var/log/kern.log
Apr 22 08:20:56 srv kernel: [38463.998452] FS-Cache: Loaded
Apr 22 08:20:56 srv kernel: [38464.036126] FS-Cache: Netfs 'cifs' registered for caching
Apr 22 08:20:56 srv kernel: [38464.036209] Key type cifs.spnego registered
Apr 22 08:20:56 srv kernel: [38464.036212] Key type cifs.idmap registered
Apr 22 08:20:56 srv kernel: [38464.036543] No dialect specified on mount. Default has changed to a more secure dialect, SMB2.1 or later (e.g. SMB3), from CIFS (SMB1). To use the less secure SMB1 dialect to access old servers which do not support SMB3 (or SMB2.1) specify vers=1.0 on mount.
Apr 22 08:20:56 srv kernel: [38464.064084] CIFS VFS: validate protocol negotiate failed: -13
Apr 22 08:20:56 srv kernel: [38464.064174] CIFS VFS: failed to connect to IPC (rc=-5)
Apr 22 08:20:56 srv kernel: [38464.114010] CIFS VFS: validate protocol negotiate failed: -13
Apr 22 08:20:56 srv kernel: [38464.114257] CIFS VFS: session 000000007e579d7b has no tcon available for a dfs referral request
Apr 22 08:20:56 srv kernel: [38464.114902] CIFS VFS: cifs_mount failed w/return code = -5

Es liegt wohl an der SMB Version. Wie folgt funktioniert es:

sudo mount -t cifs -o username=User,password=**PWD**,sec=ntlmssp,vers=2.1 //192.168.xxx.xxx/Freigabe /mnt/Freigabe/

Mit v1.0 funktioniert es auch. Nur v3.0 gibt immer:

mount error(5): Input/output error

Kann Solaris kein SMB3?
 
Sollten randomread und randomrw bei den napp-it-Benchmarks reproduzierbare Ergebnisse liefern? Bei meiner Intel DC S4500 erhalte ich dort relativ geringe Werte:

Code:
Bennchmark filesystem: /rapid/_Pool_Benchmark
Read: filebench, Write: filebench_sequential, date: 04.22.2019

hostname                        omnios  Memory size: 8192 Megabytes
pool                            rapid (recsize=128k, compr=off, readcache=all)
slog                            -
remark                           


Fb3                             sync=always                     sync=disabled                   

Fb4 singlestreamwrite.f         sync=always                     sync=disabled                   
                                831 ops                         1548 ops
                                166.190 ops/s                   309.572 ops/s
                                2300us cpu/op                   1594us cpu/op
                                6.0ms latency                   3.2ms latency
                                166.0 MB/s                      309.4 MB/s
________________________________________________________________________________________
 
read fb 7-9 + dd (opt)          randomread.f     randomrw.f     singlestreamr
pri/sec cache=all               72.8 MB/s        31.2 MB/s      1.8 GB/s                      
________________________________________________________________________________________

Direkt nach dem Booten sind die Werte besser und auch im November habe ich noch ein anderes Ergebnis erzielt.

singlestreamwrite ist dagegen absolut konstant.
 
Sollten randomread und randomrw bei den napp-it-Benchmarks reproduzierbare Ergebnisse liefern? .

Bei gleichen Vorraussetzungen sollte das so sein.
Wenn man also den Test jeweils mit neuen oder sicher gelöschten SSDs macht, wird das auch so sein.

SSDs werden aber langsamer (was wahlfreies io angeht) nach einer gewissen Schreibdauer, Nutzung oder einem höheren Füllgrad. Dieser Effekt ist umso stärker, je weniger "schreiboptimiert" eine SSD ist. Der Effekt ist stark bei Desktop SSDs oder wie hier bei "leseoptimierten=langsam beim Schreiben" Enterprise SSD, mittel bis gering bei schreiboptimierten Enterprise SSDs wie z.B. dem Intel DC 37xx und praktisch garnicht vorhanden bei Intel Optane. Die DC 4500 ist ja ohnehin bei Schreiben recht schwach (IOPS 4K lesen/schreiben:69k/​16k)

Je nach Benchmark (hier bestimmte Filebench Workloads mit Schwerpunkt auf ransiom io) ist der Effekt besser oder weniger sichtbar. Bei reinen sequentiellen Workloads offensichtlich weniger.

Mit ausreichend RAM ist das aber ein geringeres Problem da random io beim Lesen ja gerade durch den Arc Cache beschleunigt wird. Beim Schreiben gibt es zumindest ohne Sync dank des RAM-Schreibcaches eh so gut wie kein random write sondern nur große sequentielle writes. Sichere Sync Writen kann man dann durch ein Slog (Intel Optane, WD DC Ultrastar SS530 etc) beschleunigen.
 
Ok, danke für deine Antwort, gea.

Dass ich hier keine High-End-SSD verbaut habe, war mir ja bewusst, aber von einer Intel-Enterprise-Reihe hätte ich mir trotzdem etwas mehr Konstanz erhofft. Von den 240 GB sind zur Zeit gerade mal 21,5 GB belegt. Knapp 73 MB/s im randomread bei einem Datenblattwert von 500 MB/s und 69k IOPS hört sich für mich irgendwie nach Desktop-SSD-Augenwischerei an. Ist das wirklich realistisch oder sollte ich doch mal auf Fehlersuche gehen?

Beim Benchmark habe ich ja "Primary/ Secondary cache" auf "all" belassen. Heißt das, dass der ZFS-Cache hier bereits aktiv ist und die SSD in Wirklichkeit noch weniger schafft?
 
Enterprise bedeutet bei der DC (Datacenter) 4500 ja in erster Linie Zuverlässigkeit, erlaubte Schreibmenge und Powerloss Protection, nicht Schreibperformance. Zum Vergleich eine sehr gute Flash SSD (WD Ultrastar SS530) hat ca 300k write iops/4k und eine Optane gar 500k write iops bei nochmal viel geringeren Latenzen.

Die Werte sind bei Intel auch realistische Werte. Manche billige Desktop SSD wirbt mit 100k iops und die ist am Ende viel langsamer als die 4500 mit 69k/16k read/write iops. Das die iops immer mit neuen leeren SSD Kurztests gemessen wird ist halt wie Auto Verbrauchswerte/Abgas am Prüfstand. Auch wenn es formal in Ordnung ist, ist es oft nicht das was man im Alltag sieht.

Cache=all bedeutet das der Lesecache Metadaten und Daten bei random reads speichert. Metadaten bringt immer Performance, auch beim Schreiben (man muss ja erst freie Bereiche ermitteln). Bei Daten bringt es bei Benchmarks meist wenig da die zufällige Daten schreiben die man nicht cachen kann.

Caches sollte man bei ZFS eh nur ausschalten, wenn man eine Komponente testen möchte und Einflüsse des Lese-Cache minimieren möchte - wohl wissend dass die überragende Daten-Sicherheit bei ZFS (CopyOnWrite, doppelte Metadaten, Prüfsummen, Software Raid) enorm Performance kostet und die Werte dann richtig schwach sein können. Erst die Caches machen ZFS erst konkurenzfähig schnell oder gar schneller als andere Dateisysteme.

Der Schreibcache wird durch diese Einstellung aber nicht verändert (10% RAM, max 4GB als Default)
 
Ja, einfach ändern.
Wenn man pass-through benutzt, muss man den Speicher aber fest zuweisen.

Dazu in den Speicher-Einstellungen folgendes anklicken
X Reserve all guest memory (All locked)
 
Hallo zusammen,

besteht eigentlich im Solaris 11.4 / Napp-IT die Möglichkeit, ZFS Pool Freigaben für Windows unsichtbar/versteckt zu machen?
Also so wie es im Windows mit shares ging "\\192.168.xxx.xxx\$Freigabe" ?

Güße
Elektromat
 
Zuletzt bearbeitet:
Windows versteckt doch standardmäßig alle Freigaben, die mit $ beginnen enden. Also die Pool-Freigabe $Freigabe$ nennen sollte reichen.

Edit: Korrigiert, hatte die Reihenfolge falsch im Kopf
 
Zuletzt bearbeitet:
Windows versteckt doch standardmäßig alle Freigaben, die mit $ beginnen. Also die Pool-Freigabe $Freigabe nennen sollte reichen.

Also Windows angeht ist mir das klar. Allerdings kann ich im Solaris 11.4/Napp-it kein $ vor die Feigabe setzen. Wenn ich das mache wird die Freigabe ohne $ angelegt.
Es besteht nun die Frage, ob es überhaupt unter Solaris 11.4/Napp-it so funktioniert.
 
Also Windows angeht ist mir das klar. Allerdings kann ich im Solaris 11.4/Napp-it kein $ vor die Feigabe setzen. Wenn ich das mache wird die Freigabe ohne $ angelegt.
Es besteht nun die Frage, ob es überhaupt unter Solaris 11.4/Napp-it so funktioniert.

Hallo, bei administrativen Freigaben wird das $ am Schluss gesetzt dies sollte auch in Napp-IT so tun.

Gruß Niklas
 
Hallo, bei administrativen Freigaben wird das $ am Schluss gesetzt dies sollte auch in Napp-IT so tun.

Gruß Niklas

Tut es auch. Freigabe$ von Niklas ist korrekt.


Da ich noch recht neu in dem Thema bin, fehlt mir hier noch die Info ob, oder wie ich das im Napp-IT oder Solaris SSH einstelle.
Hab da keinen Punkt gefunden unter dem man explizit die SMB Namen der ZFS Pools einstellen kann oder ich schau dran vorbei.
So wie ich das gemacht hatte, wurde immer der SMB Name identisch zum ZFS Pool Namen vergeben beim Pool-Create.
Allerdings im ZFS Pool Namen hat das $ ja nix verloren, oder?
 
Wenn man in napp-it die SMB Freigabe für ein Dateisystem z.B. data einschaltet, so kann man den Default Freigabename hier z.B. data editieren um daraus ein data$ zu machen.

Die SMB Freigabe ist dann versteckt aber per SMB mit \\ip\data$ erreichbar
 
Wenn man in napp-it die SMB Freigabe für ein Dateisystem z.B. data einschaltet, so kann man den Default Freigabename hier z.B. data editieren um daraus ein data$ zu machen.

Die SMB Freigabe ist dann versteckt aber per SMB mit \\ip\data$ erreichbar

1000 Dank
Da wär ich im Leben nicht drauf gekommen. Da die Freigaben ja funktioniert hatten, und man sie benötigt (nicht deaktivieren möchte); hätte ich sie nicht deaktiviert/aktiviert. Manchmal sieht man den Wald vor lauter Bäumen nicht d:-) .
Ein eigenes Menü um explizit die Freigaben anzuzeigen/ändern wäre nicht schlecht.
 
Ein eigenes Menü um explizit die Freigaben anzuzeigen/ändern wäre nicht schlecht.

Menü "ZFS Dateisysteme", da wo man auch die Eigenschaften der Dateisysteme
wie Shares ein oder ausschaltet zeigt auch deren Freigabenamen unter der Spalte SMB.

ps
Wenn man in diesem Menü das Share aktiviert, steht in dem zugehörigen Dialog:

Falls Sie guest-access ankreuzen, können Sie ohne Passwort auf die Freigabe zugreifen.
Falls Sie die Freigabe verstecken wollen, fügen Sie ein $ an den Namen an, z.B. privates$
Mit aktiviertem ABE sehen Benutzer nur Dateien, auf die sie Zugriff haben.
 
Zuletzt bearbeitet:
Menü "ZFS Dateisysteme", da wo man auch die Eigenschaften der Dateisysteme
wie Shares ein oder ausschaltet zeigt auch deren Freigabenamen unter der Spalte SMB.

ps
Wenn man in diesem Menü das Share aktiviert, steht in dem zugehörigen Dialog:

Falls Sie guest-access ankreuzen, können Sie ohne Passwort auf die Freigabe zugreifen.
Falls Sie die Freigabe verstecken wollen, fügen Sie ein $ an den Namen an, z.B. privates$
Mit aktiviertem ABE sehen Benutzer nur Dateien, auf die sie Zugriff haben.

Wie gesagt finde ich das ziemlich versteckt. Das Menü kommt erst auf, wenn man den jeweiligen Share Namen anklickt. Und macht man das, kommt erst mal die Info Change Property ZFSPOOL/name ....
sharesmb off mit dem Button set property.
Wo ich nicht drauf klicken wollte, da ich den Share ja nicht deaktivieren wollte sondern nur ändern.
Hatte die info erst gesehen als ich vorhin tatsächlich zum deaktivieren drauf geklickt habe. Und danach nen neuen Share Namen vergeben hab.
Wenn man es weiss ist es ok.
 
Zuletzt bearbeitet:
Die Grundidee von napp-it ist es Eigenschaften z.B. zu Platten, Pools, Dateisystemen, User etc aufzulisten. Mit Klick auf eine Eigenschaft kann man die ändern.

Den Sharenamen kann man nur beim Aktivieren des Share setzen. Daher führt kein Weg am Share Off + Share On vorbei.
 
Die Grundidee von napp-it ist es Eigenschaften z.B. zu Platten, Pools, Dateisystemen, User etc aufzulisten. Mit Klick auf eine Eigenschaft kann man die ändern.

Den Sharenamen kann man nur beim Aktivieren des Share setzen. Daher führt kein Weg am Share Off + Share On vorbei.

Alles gut. War nur ne Anmerkung. napp-it ist alles in allem sehr übersichtlich strukturiert und einfach zu bedienen. Kurz gesagt: Einfach ein super Tool.
 
Warum laufen bei mir den die Napp-It Auto Snapshots nicht automatisch ab, obwohl sie auf "active" gestellt sind? Lt. der Napp-It Gui habe ich auch noch die Trial Version am laufen:

Trial Version:
Screenshot 2019-04-25 at 21.35.06.jpg

Auto Snap Shot Konfiguration:
Screenshot 2019-04-25 at 21.36.23.png
 
Servus,

ich hätte da mal ne Frage zu einem ZFS Festplatten Pool. Der Hintergrund ist das ich diverse Änderungen an Dateien / Ordnern in dem unten genannten Pool vorgenommen habe (Per SMB Freigabe von meinem Win 10 Rechner). So z.b. Dateien umbenannt, verschoben, gelöscht

Der HDD Pool (4x Seagate Ironwolf) ist wie folgt aufgebaut


NAME STATE
hddraid10 ONLINE
mirror-0 ONLINE
HDD1 ONLINE
HDD2 ONLINE
mirror-1 ONLINE
HDD3 ONLINE
HDD4 ONLINE

Wie verhält sich so ein Pool wen man in rellativ kurzen Zeitabständen größere Dateimengen verschiebt, umbenennt und oder löscht.
Laut napp-it ist die Disk Auslastung wechselnd hellgrün / gelb was bedeutet es erfolgt wohl mittlere Auslastung. Laut ESXi ist die CPU Auslastung der Solaris VM bei 85% leicht schwankend.
Netzwerk Traffic läuft aktuell so weit ich das sehe keiner zur Solaris VM.
Die Änderungen sind nun schon eine weile her.

Kann es sein das nun Solaris (ZFS) die Daten nun re organisiert? Alle anderen punkte (rechts oben im napp it sind Grün.
Meine Frage wäre nun sind das vermutlich die Nachwehen der Änderungen?

Grüße
Elektromat
 
Kann es sein das nun Solaris (ZFS) die Daten nun re organisiert? Alle anderen punkte (rechts oben im napp it sind Grün.
Meine Frage wäre nun sind das vermutlich die Nachwehen der Änderungen?

Nein. Da wird nichts im Hintergrund reorganisiert.
Platten-Ativität gibts beim Daten schaufeln, eventuell indizieren (SMB client), replizieren, scrubben.
 
Nein. Da wird nichts im Hintergrund reorganisiert.
Platten-Ativität gibts beim Daten schaufeln, eventuell indizieren (SMB client), replizieren, scrubben.

Gibt es einen einfachen Weg zu identifizieren, z.b. mit nappit was die Last auf den Platten verursacht?
Der Prozess (den ich nicht identifizieren konnte) lief von gestern ca. 21 Uhr bis heute ca. 12 Uhr (ab diesem Zeitpunkt war die Last auf der Platte wieder idle/ die CPU last ebenfalls). Oder ist das tatsächlich, wenn dann nur möglich so lange der entsprechende Prozess/Aktion grade läuft.
 
Zuletzt bearbeitet:
Wenn extern nichts auf das Storage zugreift (Backup etc) oder keine Replikation läuft dann ist eventuell ein Scub-Job am Laufen (siehe Menü Pools). Diese drei Dinge können einen Pool stundenlang beschäftigen. Bei Zugriff übers Netz steigt auch die Netz-Aktivität.
 
Wenn extern nichts auf das Storage zugreift (Backup etc) oder keine Replikation läuft dann ist eventuell ein Scub-Job am Laufen (siehe Menü Pools). Diese drei Dinge können einen Pool stundenlang beschäftigen. Bei Zugriff übers Netz steigt auch die Netz-Aktivität.

Danke.
Ich muss das ganze einfach mal ein wenig im Auge behalten. Und somit entsprechende Erfahrungswerte sammeln.
Hab nun extra mal den Ram der VM von 16 auf 32GB gesetzt. Davon kann Solaris / ZFS ja garnicht genug bekommen. Das kann ja in jedem Falle nicht schaden d:-) .
 
Hab nun extra mal den Ram der VM von 16 auf 32GB gesetzt. Davon kann Solaris / ZFS ja garnicht genug bekommen. .

Solaris läuft ab ca 2GB stabil - egal wie groß der Pool ist. Solaris und ZFS braucht den RAM daher nicht. Da der Ram aber als Schreib/Lesecache genutzt wird, wird der Server damit jedoch viel schneller.

Der Anwender ist deshalb der, der garnicht genug RAM haben kann. Er will ja die Perfornace........
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh