[Sammelthread] ZFS Stammtisch

Vermutlich würde es reichen, dem user serviio mit passwd serviio ein SMB Passwort zu geben damit man den unter Windows benutzen kann. Unter Unix kann man den manuell bei den ACL hinzufügen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Leute ich habe gerade ein Brett vorm Kopf, vll. ist es auch die Uhrzeit: ich habe Nappit auf dem ESXI installiert, einen Pool mit 3x4TB als Raidz erstellt und ein ZFS-Filesystem. NFS ist aktiviert und beim Einbinden im ESXI scheint alles tutti. Aber ich darf anscheinend nicht schreiben.
Weder eine Virtuelle Festplatte dort erzeugen, noch etwas mit dem Fileexplorer hochladen. Was habe ich übersehen?

Vermutlich ist es ein Rechteproblem, ich würde
- das ganze Filesystem rekursiv auf everyone@=modify zurücksetzen (napp-it Filesystem > ACL on files > reset ACL)
- prüfen of das Dateisystem oder das NFS share auf readonly steht
 
Vielen Danke @gea. Manchmal wirkt ein boot halt gut. Als der Server heute morgen neu gestartet hat, ging es auf einmal. Der wollte wohl nur das ich ins Bett gehe ;)
 
Vermutlich würde es reichen, dem user serviio mit passwd serviio ein SMB Passwort zu geben damit man den unter Windows benutzen kann. Unter Unix kann man den manuell bei den ACL hinzufügen.

Was soll es denn bringen wenn ich den user serviio unter Windows mitbenutzen kann? Ich brauche den doch gar nicht im Netzwerk sondern nur lokal.
Und selbst wenn ich den user dann in die gruppe mediausr aufnehmen würde würde es nichts bringen weil du meintest unix beachtet diese SMB Gruppen gar nicht.
 
Hallo, ich komme gerade nicht weiter:

Ich habe zwei x540-T1 10GBE Karten via Cat6a
direkt verbunden. Eine im N40L und die andere im Hauptserver.
Auf beiden ist das neue bloody OmniOS drauf. Karten werden erkannt,
MTU wurde auf 9000 gesetzt (dladm show-phys und show-link zeigen
full duplex und speed 10.000 mit mtu=9000).
Zusätzlich TCP-Tuning von napp-it.org befolgt:

ipadm set-prop -p max_buf=4194304 tcp
ipadm set-prop -p recv_buf=1048576 tcp
ipadm set-prop -p send_buf=1048576 tcp

Ein Benchmark via iperf liefert auch 0.5gb/s - 1.0gb/s Durchsatz.

Wenn ich nun auf einem der Server via mount -F ein SMB-Share
mounte und nun mal eine reale copy starte, kommt nicht mal 1Gbit-LAN
bei raus:

rSync copy von großen ZIP liefert 33 mb/s !!
und 'cp /src /dest' kommt immerhin auf ca 60 mb/s.

Woran kann das liegen? Die interne NIC des N40L nutze ich schon länger
mit rsync voll aus: ca. 100-120 mb/s.

Dann testweise mal auf dem Hauptserver Windows installiert
und CIFS vom N40L gemountet. Copy/paste und crystalDiskMark
gestartet und im Schnitt kamen ca 220-260 Mb/s raus. Ich denke
das sind realistische Werte, da dann die HDDs limitieren.

1) Wieso ist OmniOS zu OmniOS derart langsam? Im Omnios Bloody
wurden ja kürzlich erst riesen Änderungen beim SMB-Protokoll durch
Unterstützung von SMB 2.1 durchgeführt. Kann es daran liegen?
Oder liegt es an rSync bzw. cp?
2) Wie überprüfe ich eig. welche SMB Version der SMB-Share nutzt?
Glaube auf Windows gibts ein Befehl 'Get-SmbConnection', der die
SMB Version (1.0 oder 2.1 ...) anzeigt. Wie überprüfe ich das
in OmniOS?

Danke
 
Zuletzt bearbeitet:
Ich habe nirgends gelesen, dass der SMB Client von OmniOS auch bereits SMB2 kann.
Ansonsten kann man von Windows per Powershell die verwendete SMB Version abfragen
Get-SmbConnection

Es gibt seit heute eine zweite Beta für OmniOS 151017 die hat aber einen Bug mit sudo. Sie schreibt immer "Last login at .." nach jedem Befehl. Da erscheint dann auch in der Web-UI oder wird beim Editieren in System-Dateien geschrieben.

Falls das jemand testen möchte, alle Systemdateien nur manuell editieren, nicht per napp-it (z.B. Tuning Panel, Hostname etc)
 
Moin! Ich wollte gerade mal das OVA template von https://napp-it.org/downloads/napp-in-one_en.html runterladen, aber es kommt immer ein Verbindungsfehler. Kann es sein dass die Seite down ist, @gea - kannst Du das mal überprüfen?

Ist "napp-it_15d_ova_for_ESXi_5.5u2-6.0. (Sep 18,2015)" die aktuelle Version oder muss ich erstmal installieren und danach updaten? Vielen Dank!
 
Download geht jetzt wieder.
Die Version ist die aktuelle OmniOS 151014 LTS

Man könnte mit pkg update die kleineren Updates von OmniOS für die LTS/ long term stable laden
bzw mit napp-it Update auf die Version 16.01 gehen.

Das nächste Template 16a wird erst mit OmniOS 151018 und SMB2 kommen (März/ April).
 
Ich habe nirgends gelesen, dass der SMB Client von OmniOS auch bereits SMB2 kann.
Ansonsten kann man von Windows per Powershell die verwendete SMB Version abfragen
Get-SmbConnection

Achso, daran habe ich nicht gedacht, dass SMB Server und Client nun zwei verschiedene Versionen haben in OmniOS.
Unter Windows 10 kommt in der Powershell bei der Eingabe "Get-SmbConnection" immer eine Fehlermeldung.
Jedoch habe ich mit Wireshark den Paketheader ausgelesen und besteht wohl eine SMB2-Verbindung.
Trotzdem finde ich die Geschwindigkeit etwas langsam. Auch von Win10@SSD 850Pro zu OmniOS SS-Pool@850 Pro komme
ich auf 180 bis max. 220 MB/s im AJA Benchmark. Die SSD schaffen laut CrystalDiskMark deutlich mehr als 220 Lesen und schreiben.

@gea: Du hast ja auf nappit ausführliche Tests gemacht. Welche Einstellungen genau hast du vorgenommen auf OmniOS bzw Windows?
Ich habe MTU=9000 auf beiden, in Windows noch BufferSize der X540 via Treiber erhöht und Interrrupt deaktiviert. Auf OmniOS TCP Buffer erhöht.
 
Achso, daran habe ich nicht gedacht, dass SMB Server und Client nun zwei verschiedene Versionen haben in OmniOS.
Unter Windows 10 kommt in der Powershell bei der Eingabe "Get-SmbConnection" immer eine Fehlermeldung.
Jedoch habe ich mit Wireshark den Paketheader ausgelesen und besteht wohl eine SMB2-Verbindung.
Trotzdem finde ich die Geschwindigkeit etwas langsam. Auch von Win10@SSD 850Pro zu OmniOS SS-Pool@850 Pro komme
ich auf 180 bis max. 220 MB/s im AJA Benchmark. Die SSD schaffen laut CrystalDiskMark deutlich mehr als 220 Lesen und schreiben.

@gea: Du hast ja auf nappit ausführliche Tests gemacht. Welche Einstellungen genau hast du vorgenommen auf OmniOS bzw Windows?
Ich habe MTU=9000 auf beiden, in Windows noch BufferSize der X540 via Treiber erhöht und Interrrupt deaktiviert. Auf OmniOS TCP Buffer erhöht.

Ich habe folgendes eingestellt

Solaris bzw OmniOS: Jumboframes aktiviert und ip-Buffer erhöht
Änderungen der IP Buffer sind nur nach (SMB) Neustart aktiv.

Switche: Jumboframes aktiviert
Windows: Jumboframes aktiviert und Intr_Throtteling deaktiviert.

Bei Sata eventuell kontrollieren ob 6G und AHCI
Bei LSI und HBA ist die Firmware kritisch. P20.00 macht gern Probleme mit SSD, P19 ist ok und ich habe einen Bericht gelesen, dass Performance mit P20.004 besser sei als mit P19.

Zu AJA Benchmarks
Das ist für Videoschnitt gedacht. Da kann man einiges einstellen, z.B.
Resolution: Ich habe 4k eingestellt damit größere Dateien geschrieben werden
Wenn man Pal einstelllt, werden viele kleine Dateien (je 1 Datei je Frame) geschrieben -> langsamer
File Size: 64 GB damit die bessere Perfomance vieler SSDs am Anfang das Ergebnis nicht verfälscht
Codec: 16 bit RGB, eine Komprimierung hier würde die CPU Performance mit einbeziehen

vgl Einstellungen http://napp-it.org/doc/downloads/performance_smb2.pdf Seite 16

Was mir auffiel: Der verwendete Intel Treiber ist kritisch. Der neuere Promise Sanlink2 oder original Intel X540 Treiber an meinem PC lieferte wesentlich bessere Werte als ältere Treiber.
 
Ich hab' wohl ein Problem mit einer meiner WD Reds in einem Pool:

Napp-it zeigt mir im Pool eine DISK als "DEGRADED". Entsprechend zeigte der letzte scrub auch fehler im zpool status:

pool: ZFSdata
state: DEGRADED
status: One or more devices has been diagnosed as degraded. An attempt
was made to correct the error. Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
using 'zpool clear' or 'fmadm repaired', or replace the device
with 'zpool replace'.
Run 'zpool status -v' to see device specific details.
scan: scrub repaired 311M in 6h02m with 0 errors on Mon Feb 1 09:02:45 2016

Nappit zeigt mir unter Disk-->Smartinfo:
c2t2d0 ZFSdata raidz1-0 DEGRADED S:3 H:0 T:0 WDC WD40EFRX-68WT0N0 sat,12 PASSED 37 °C WDWCC4E0XRY96D -- short long abort log

...berichtet also: smart_health=PASSED

zpool status -v auf dem Pool liefert:

state: DEGRADED
status: One or more devices has been diagnosed as degraded. An attempt
was made to correct the error. Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
using 'zpool clear' or 'fmadm repaired', or replace the device
with 'zpool replace'.
scan: scrub repaired 311M in 6h02m with 0 errors on Mon Feb 1 09:02:45 2016

config:

NAME STATE READ WRITE CKSUM
ZFSdata DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
c2t2d0 DEGRADED 0 0 0
c2t3d0 ONLINE 0 0 0
c2t4d0 ONLINE 0 0 0
c2t5d0 ONLINE 0 0 0

device details:

c2t2d0 DEGRADED too many errors
status: FMA has degraded this device.
action: Run 'fmadm faulty' for more information. Clear the errors
using 'fmadm repaired'.
see: http://support.oracle.com/msg/ZFS-8000-GH for recovery


errors: No known data errors

fmadm faulty sagt:
----------------------------------------
Suspect 1 of 1 :
Problem class : fault.fs.zfs.vdev.checksum
Certainty : 100%
Affects : zfs://pool=b89c4c12f3306240/vdev=5148cd3322e84e8a/pool_name=ZFSdata/vdev_name=id1,sd@SATA_____WDC_WD40EFRX-68W_____WD-WCC4E0XRY96D/a
Status : faulted but still providing degraded service

FRU
Status : faulty
FMRI : "zfs://pool=b89c4c12f3306240/vdev=5148cd3322e84e8a/pool_name=ZFSdata/vdev_name=id1,sd@SATA_____WDC_WD40EFRX-68W_____WD-WCC4E0XRY96D/a"

Description : The number of checksum errors associated with ZFS device
'id1,sd@SATA_____WDC_WD40EFRX-68W_____WD-WCC4E0XRY96D/a' in pool
'ZFSdata' exceeded acceptable levels.

Response : The device has been marked as degraded. An attempt will be made
to activate a hot spare if available.

Impact : Fault tolerance of the pool may be compromised.

Action : Use 'fmadm faulty' to provide a more detailed view of this event.
Run 'zpool status -lx' for more information. Please refer to the
associated reference document at
http://support.oracle.com/msg/ZFS-8000-GH for the latest service
procedures and policies regarding this diagnosis.

Daraus schließe ich mal, dass der Platte wohl nicht mehr zu trauen ist...

Welcher von den verschiedenen sich anbietenden Wegen (remove/detach+attach/replace...?) ist denn die richtige Vorgehensweise, um eine defekte Festplatte aus einem RaidZ(1)-Pool auszutauschen?

Ich habe allerdings das Problem, dass ich eigentlich gerne die neue Festplatte (gleicher Typ, WD Red WD40EFRX-68W) wieder an die gleiche Stelle im Gehäuse und auch am Controller setzen würde. Geht das? Wenn ja, wie gesagt die Frage: wie am besten?
 
Man kann nur gespiegelte Platten, L2ARC oder ZIL devices aus einem ZFS Pool entfernen.
Eine defekte Raid-Z Platte kann man also nur ersetzen (Disk >> Replace)

Wenn der Controller hotplug kann kann man Platten einfach aus/einstecken und dann::
Disk >> replace >> alte Platte -> neue Platte

Ohne Hotplug, Rechner zum Plattenwechsel herunterfahren

Mit portbasierten id's wie c2t2d0 (Controller 2, Disk 2) kann man die Platte im gleichen Slot ersetzen
indem man Sie austauscht und dann Disk >>replace "id" aufruft (also nur die alte Platte angibt):
Disk >> replace >> c2t2d0

Die defekte Platte würde ich mit einem Low Level Tool testen.
 
Merci mal wieder! Genau das waren die mir fehlenden Infos! =)

Jetzt also hoffen, dass bis zur Lieferung der ErsatzHDD und beim resilver nicht noch eine aussteigt... ;)
 
Sorry, bin noch etwas nervös nach dem Plattenausfall, Datenmengen, Lesefehler beim Resilver & Co. ... =)

Technisch habe ich aber doch zunächst alles richtig gemacht beim Replace, wenn Napp-it mir folgendes zeigt:

Resilver.jpg

Oder?

Zweite Frage: mit welchem Tool sollte ich denn zum Beispiel die defekte Platte mal auf Herz und Nieren prüfen? (Am liebsten (nativ) unter Windows, das hab ich halt grad überall am laufen wo ich mal schnell ne Platte einstöpseln könnte - zur Not halt Linux/LiveCD).

Danke nochmal vorab!

EDIT: Sieht gut aus...
ZFS_resilvered.jpg
 
Zuletzt bearbeitet:
Hmmm... das lowlevel-Tool von WD zeigt auch beim extended Test "PASS". Dann mach ich jetzt mal eine lowlevel-Formatierung und schau' mal, was dann dabei heraus kommt. Läuft ja nur noch etwas mehr als 101 Stunden... *kotz*

Wenn's NICHT an der Platte lag, müsste ja umgekehrt nach ein paar Tagen auch wieder die neue Platte aussteigen und der Pool DEGRADED zeigen. .
 
Das ist der Fluch der großen Platten.
Die Kapazität hat sich in den letzten Jahren verzehnfacht, die Performance aber nur verdoppelt.

ZFS meldet Probleme wegen der Prüfsummen extrem zuverlässig - ohne wüsste man von den meisten Problemen nichtmal etwas. Wenn ZFS die Platte aus dem Pool rauswirft, dann ist/war da etwas. Wenn nicht die Platte, dann ein Kabel, Steckkontakt, HBA oder PSU etc
 
Was habt ihr denn so an SAS / S-ATA Controllern im Einsatz? Ich bin immernoch am planen und bin mir halt noch nicht ganz sicher, welchen ich nehmen soll. Der vom MB ist halt etwas ungünstig mit ESxI und ZFS :d
 
Ach, der onboard im AHCI Modus macht das schon. Siehe SIG ;) Nachfolger ist wohl der M1115.
 
Was habt ihr denn so an SAS / S-ATA Controllern im Einsatz? Ich bin immernoch am planen und bin mir halt noch nicht ganz sicher, welchen ich nehmen soll. Der vom MB ist halt etwas ungünstig mit ESxI und ZFS :d

Perfect sind LSI HBAs mit IT Firmware (ohne Raidfunktionalität)

z.B. LSI 2008 Chipsatz (6G):
LSI 9211 oder Oem wie IBM 1015, Dell H200 (müssen alle auf IT geflashed werden)

mit neuerem LSI 2308 Chipsatz (6G)
LSI 9207 (ab Werk mit IT Firmware)

mit LSI 3008 Chipastz (12G)
LSI 9300

https://forums.servethehome.com/ind...and-hba-complete-listing-plus-oem-models.599/
 
Ach, der onboard im AHCI Modus macht das schon. Siehe SIG ;) Nachfolger ist wohl der M1115.

Jein, dann müsste ich die SSD für ESXI-Images anders anbinden. Mit DSM kann halt das Scrubbing extrem kritisch werden.

@gea sind halt alle "Schweineteuer" (Sind sie zwar nicht wirklich, aber halt relativ zu meinem bisherigen Komponenten gesehen. ;) )
 
@gea sind halt alle "Schweineteuer" (Sind sie zwar nicht wirklich, aber halt relativ zu meinem bisherigen Komponenten gesehen. ;) )

Wer billig kauft, kauft zweimal..
Ein H200 in der Bucht ist nicht teuer.

Alternativ (wenn Platter bis 2 TB reichen): Etwas gebrauchtes mit LSI 1068
Damit könnte man auch ESXi booten und 6G Sata per ESXi durchreichen.

oder
alles an Sata/Ahci betreiben und Platten per physical RDM an die Storage VM anbinden.
 
Wer billig kauft, kauft zweimal..
Ein H200 in der Bucht ist nicht teuer.

Alternativ (wenn Platter bis 2 TB reichen): Etwas gebrauchtes mit LSI 1068
Damit könnte man auch ESXi booten und 6G Sata per ESXi durchreichen.

oder
alles an Sata/Ahci betreiben und Platten per physical RDM an die Storage VM anbinden.

2 Fällt wegen vorhandener Ulrastars schonmal weg, 3 soll meines Wissens nach nicht unkritisch sein, FreeNAS empfiehlt ja bei soeinem Setup Scrubbing zu deaktiveren, bleibt noch 1. Also muss ich mal wieder "fischen" gehen :d Gibts außer den bereits genannten Dell noch irgendwelche "Geheimtipps" aus der Liste?
 
Zuletzt bearbeitet:
LSI ist der Standard.
Davon gibt es viele OEM Controller von Dell, HP, etc.
Beim Dell H200 und IBM 1015 gibts halt sauber beschriebene Wege, um daraus den eigentlich gewünschten Controller (LSI 9211-IT mode) zu flashen. Die default Firmware (z.B. beim IBM1015 für ein langsames Raid-5) ist untauglich.
 
Hab mir grad nen LSI SAS 9300-4i in der Kitvariante für ~20€ besorgt, der sollte ja eigentlich langen.
 
Hmm.. ich habe über meinen resilvered pool mal ein Scrub laufen lassen und die Pool-Übersicht zeigt wieder was in blau - jetzt auf der neuen Platte:

Error.jpg

Was heisst das denn? Soll ich nochmal einen Scrub drüber jagen und schauen ob dann weg? War's doch nicht die Platte?
 
Zuletzt bearbeitet:
Also im prinzip per Münzwurf entscheiden. Dass es ZFS mit RAIDZ2 wird, stand für mich eh schon fest.

Edit: Gibts eigentlich ne Lösung für de Syncwriteperformanceprobleme von SMB abgesehen von iSCSI?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh