Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Leute ich habe gerade ein Brett vorm Kopf, vll. ist es auch die Uhrzeit: ich habe Nappit auf dem ESXI installiert, einen Pool mit 3x4TB als Raidz erstellt und ein ZFS-Filesystem. NFS ist aktiviert und beim Einbinden im ESXI scheint alles tutti. Aber ich darf anscheinend nicht schreiben.
Weder eine Virtuelle Festplatte dort erzeugen, noch etwas mit dem Fileexplorer hochladen. Was habe ich übersehen?
Vermutlich würde es reichen, dem user serviio mit passwd serviio ein SMB Passwort zu geben damit man den unter Windows benutzen kann. Unter Unix kann man den manuell bei den ACL hinzufügen.
Ich habe nirgends gelesen, dass der SMB Client von OmniOS auch bereits SMB2 kann.
Ansonsten kann man von Windows per Powershell die verwendete SMB Version abfragen
Get-SmbConnection
Achso, daran habe ich nicht gedacht, dass SMB Server und Client nun zwei verschiedene Versionen haben in OmniOS.
Unter Windows 10 kommt in der Powershell bei der Eingabe "Get-SmbConnection" immer eine Fehlermeldung.
Jedoch habe ich mit Wireshark den Paketheader ausgelesen und besteht wohl eine SMB2-Verbindung.
Trotzdem finde ich die Geschwindigkeit etwas langsam. Auch von Win10@SSD 850Pro zu OmniOS SS-Pool@850 Pro komme
ich auf 180 bis max. 220 MB/s im AJA Benchmark. Die SSD schaffen laut CrystalDiskMark deutlich mehr als 220 Lesen und schreiben.
@gea: Du hast ja auf nappit ausführliche Tests gemacht. Welche Einstellungen genau hast du vorgenommen auf OmniOS bzw Windows?
Ich habe MTU=9000 auf beiden, in Windows noch BufferSize der X540 via Treiber erhöht und Interrrupt deaktiviert. Auf OmniOS TCP Buffer erhöht.
pool: ZFSdata
state: DEGRADED
status: One or more devices has been diagnosed as degraded. An attempt
was made to correct the error. Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
using 'zpool clear' or 'fmadm repaired', or replace the device
with 'zpool replace'.
Run 'zpool status -v' to see device specific details.
scan: scrub repaired 311M in 6h02m with 0 errors on Mon Feb 1 09:02:45 2016
c2t2d0 ZFSdata raidz1-0 DEGRADED S:3 H:0 T:0 WDC WD40EFRX-68WT0N0 sat,12 PASSED 37 °C WDWCC4E0XRY96D -- short long abort log
state: DEGRADED
status: One or more devices has been diagnosed as degraded. An attempt
was made to correct the error. Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
using 'zpool clear' or 'fmadm repaired', or replace the device
with 'zpool replace'.
scan: scrub repaired 311M in 6h02m with 0 errors on Mon Feb 1 09:02:45 2016
config:
NAME STATE READ WRITE CKSUM
ZFSdata DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
c2t2d0 DEGRADED 0 0 0
c2t3d0 ONLINE 0 0 0
c2t4d0 ONLINE 0 0 0
c2t5d0 ONLINE 0 0 0
device details:
c2t2d0 DEGRADED too many errors
status: FMA has degraded this device.
action: Run 'fmadm faulty' for more information. Clear the errors
using 'fmadm repaired'.
see: http://support.oracle.com/msg/ZFS-8000-GH for recovery
errors: No known data errors
----------------------------------------
Suspect 1 of 1 :
Problem class : fault.fs.zfs.vdev.checksum
Certainty : 100%
Affects : zfs://pool=b89c4c12f3306240/vdev=5148cd3322e84e8a/pool_name=ZFSdata/vdev_name=id1,sd@SATA_____WDC_WD40EFRX-68W_____WD-WCC4E0XRY96D/a
Status : faulted but still providing degraded service
FRU
Status : faulty
FMRI : "zfs://pool=b89c4c12f3306240/vdev=5148cd3322e84e8a/pool_name=ZFSdata/vdev_name=id1,sd@SATA_____WDC_WD40EFRX-68W_____WD-WCC4E0XRY96D/a"
Description : The number of checksum errors associated with ZFS device
'id1,sd@SATA_____WDC_WD40EFRX-68W_____WD-WCC4E0XRY96D/a' in pool
'ZFSdata' exceeded acceptable levels.
Response : The device has been marked as degraded. An attempt will be made
to activate a hot spare if available.
Impact : Fault tolerance of the pool may be compromised.
Action : Use 'fmadm faulty' to provide a more detailed view of this event.
Run 'zpool status -lx' for more information. Please refer to the
associated reference document at
http://support.oracle.com/msg/ZFS-8000-GH for the latest service
procedures and policies regarding this diagnosis.
Was habt ihr denn so an SAS / S-ATA Controllern im Einsatz? Ich bin immernoch am planen und bin mir halt noch nicht ganz sicher, welchen ich nehmen soll. Der vom MB ist halt etwas ungünstig mit ESxI und ZFS
Ach, der onboard im AHCI Modus macht das schon. Siehe SIG Nachfolger ist wohl der M1115.
@gea sind halt alle "Schweineteuer" (Sind sie zwar nicht wirklich, aber halt relativ zu meinem bisherigen Komponenten gesehen. )
Wer billig kauft, kauft zweimal..
Ein H200 in der Bucht ist nicht teuer.
Alternativ (wenn Platter bis 2 TB reichen): Etwas gebrauchtes mit LSI 1068
Damit könnte man auch ESXi booten und 6G Sata per ESXi durchreichen.
oder
alles an Sata/Ahci betreiben und Platten per physical RDM an die Storage VM anbinden.
BTW: Eher BSD oder Solaris? Die Appliance soll zum einen VDH-Images für ESXI sowie SMB-Freigaben für ein 85%-Windowsnetz liegern.