Odinstafel
Neuling
- Mitglied seit
- 19.09.2013
- Beiträge
- 4
So habs hinbekommen. Hab nochmal neu installiert, dann gings.
Zuletzt bearbeitet:
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Kann das evtl. an den Nicht-NAS-Platten (WD30EZRX) liegen?nas4free: ~ # sysctl vfs.numvnodes
vfs.numvnodes: 3147
nas4free: ~ # sysctl vfs.numvnodes
vfs.numvnodes: 4038
vm.kmem_size="7G"
vfs.zfs.arc_max="5632M"
vfs.zfs.arc_min="3584M"
vfs.zfs.vdev.min_pending="1"
vfs.zfs.vdev.max_pending="1"
vfs.zfs.prefetch_disable="0"
sysctl vfs.zfs
vfs.zfs.l2c_only_size: 0
vfs.zfs.mfu_ghost_data_lsize: 5207842304
vfs.zfs.mfu_ghost_metadata_lsize: 3129856
vfs.zfs.mfu_ghost_size: 5210972160
vfs.zfs.mfu_data_lsize: 189950976
vfs.zfs.mfu_metadata_lsize: 7719936
vfs.zfs.mfu_size: 204951552
vfs.zfs.mru_ghost_data_lsize: 180879360
vfs.zfs.mru_ghost_metadata_lsize: 51134976
vfs.zfs.mru_ghost_size: 232014336
vfs.zfs.mru_data_lsize: 5264640512
vfs.zfs.mru_metadata_lsize: 20011008
vfs.zfs.mru_size: 5294619136
vfs.zfs.anon_data_lsize: 0
vfs.zfs.anon_metadata_lsize: 0
vfs.zfs.anon_size: 16384
vfs.zfs.l2arc_norw: 1
vfs.zfs.l2arc_feed_again: 1
vfs.zfs.l2arc_noprefetch: 1
vfs.zfs.l2arc_feed_min_ms: 200
vfs.zfs.l2arc_feed_secs: 1
vfs.zfs.l2arc_headroom: 2
vfs.zfs.l2arc_write_boost: 8388608
vfs.zfs.l2arc_write_max: 8388608
vfs.zfs.arc_meta_limit: 1476395008
vfs.zfs.arc_meta_used: 84709432
vfs.zfs.arc_min: 3758096384
vfs.zfs.arc_max: 5905580032
vfs.zfs.dedup.prefetch: 1
vfs.zfs.mdcomp_disable: 0
vfs.zfs.write_limit_override: 0
vfs.zfs.write_limit_inflated: 24589332480
vfs.zfs.write_limit_max: 1024555520
vfs.zfs.write_limit_min: 33554432
vfs.zfs.write_limit_shift: 3
vfs.zfs.no_write_throttle: 0
vfs.zfs.zfetch.array_rd_sz: 1048576
vfs.zfs.zfetch.block_cap: 256
vfs.zfs.zfetch.min_sec_reap: 2
vfs.zfs.zfetch.max_streams: 8
vfs.zfs.prefetch_disable: 1
vfs.zfs.mg_alloc_failures: 8
vfs.zfs.check_hostid: 1
vfs.zfs.recover: 0
vfs.zfs.txg.synctime_ms: 1000
vfs.zfs.txg.timeout: 5
vfs.zfs.vdev.cache.bshift: 16
vfs.zfs.vdev.cache.size: 0
vfs.zfs.vdev.cache.max: 16384
vfs.zfs.vdev.write_gap_limit: 4096
vfs.zfs.vdev.read_gap_limit: 32768
vfs.zfs.vdev.aggregation_limit: 131072
vfs.zfs.vdev.ramp_rate: 2
vfs.zfs.vdev.time_shift: 6
vfs.zfs.vdev.min_pending: 2
vfs.zfs.vdev.max_pending: 10
vfs.zfs.vdev.bio_flush_disable: 0
vfs.zfs.cache_flush_disable: 0
vfs.zfs.zil_replay_disable: 0
vfs.zfs.zio.use_uma: 0
vfs.zfs.snapshot_list_prefetch: 0
vfs.zfs.version.zpl: 5
vfs.zfs.version.spa: 28
vfs.zfs.version.acl: 1
vfs.zfs.debug: 0
vfs.zfs.super_owner: 0
sysctl kstat.zfs
kstat.zfs.misc.xuio_stats.onloan_read_buf: 0
kstat.zfs.misc.xuio_stats.onloan_write_buf: 0
kstat.zfs.misc.xuio_stats.read_buf_copied: 0
kstat.zfs.misc.xuio_stats.read_buf_nocopy: 0
kstat.zfs.misc.xuio_stats.write_buf_copied: 0
kstat.zfs.misc.xuio_stats.write_buf_nocopy: 0
kstat.zfs.misc.zfetchstats.hits: 0
kstat.zfs.misc.zfetchstats.misses: 0
kstat.zfs.misc.zfetchstats.colinear_hits: 0
kstat.zfs.misc.zfetchstats.colinear_misses: 0
kstat.zfs.misc.zfetchstats.stride_hits: 0
kstat.zfs.misc.zfetchstats.stride_misses: 0
kstat.zfs.misc.zfetchstats.reclaim_successes: 0
kstat.zfs.misc.zfetchstats.reclaim_failures: 0
kstat.zfs.misc.zfetchstats.streams_resets: 0
kstat.zfs.misc.zfetchstats.streams_noresets: 0
kstat.zfs.misc.zfetchstats.bogus_streams: 0
kstat.zfs.misc.arcstats.hits: 1377851
kstat.zfs.misc.arcstats.misses: 328189
kstat.zfs.misc.arcstats.demand_data_hits: 1328932
kstat.zfs.misc.arcstats.demand_data_misses: 323870
kstat.zfs.misc.arcstats.demand_metadata_hits: 48911
kstat.zfs.misc.arcstats.demand_metadata_misses: 4301
kstat.zfs.misc.arcstats.prefetch_data_hits: 0
kstat.zfs.misc.arcstats.prefetch_data_misses: 0
kstat.zfs.misc.arcstats.prefetch_metadata_hits: 8
kstat.zfs.misc.arcstats.prefetch_metadata_misses: 18
kstat.zfs.misc.arcstats.mru_hits: 1100904
kstat.zfs.misc.arcstats.mru_ghost_hits: 5961
kstat.zfs.misc.arcstats.mfu_hits: 276942
kstat.zfs.misc.arcstats.mfu_ghost_hits: 3479
kstat.zfs.misc.arcstats.allocated: 1108367
kstat.zfs.misc.arcstats.deleted: 614696
kstat.zfs.misc.arcstats.stolen: 378466
kstat.zfs.misc.arcstats.recycle_miss: 651
kstat.zfs.misc.arcstats.mutex_miss: 10
kstat.zfs.misc.arcstats.evict_skip: 0
kstat.zfs.misc.arcstats.evict_l2_cached: 0
kstat.zfs.misc.arcstats.evict_l2_eligible: 86260481024
kstat.zfs.misc.arcstats.evict_l2_ineligible: 8192
kstat.zfs.misc.arcstats.hash_elements: 91056
kstat.zfs.misc.arcstats.hash_elements_max: 92049
kstat.zfs.misc.arcstats.hash_collisions: 315022
kstat.zfs.misc.arcstats.hash_chains: 21212
kstat.zfs.misc.arcstats.hash_chain_max: 8
kstat.zfs.misc.arcstats.p: 5346445797
kstat.zfs.misc.arcstats.c: 5539336309
kstat.zfs.misc.arcstats.c_min: 3758096384
kstat.zfs.misc.arcstats.c_max: 5905580032
kstat.zfs.misc.arcstats.size: 5539300920
kstat.zfs.misc.arcstats.hdr_size: 24367656
kstat.zfs.misc.arcstats.data_size: 5499587072
kstat.zfs.misc.arcstats.other_size: 15346192
kstat.zfs.misc.arcstats.l2_hits: 0
kstat.zfs.misc.arcstats.l2_misses: 0
kstat.zfs.misc.arcstats.l2_feeds: 0
kstat.zfs.misc.arcstats.l2_rw_clash: 0
kstat.zfs.misc.arcstats.l2_read_bytes: 0
kstat.zfs.misc.arcstats.l2_write_bytes: 0
kstat.zfs.misc.arcstats.l2_writes_sent: 0
kstat.zfs.misc.arcstats.l2_writes_done: 0
kstat.zfs.misc.arcstats.l2_writes_error: 0
kstat.zfs.misc.arcstats.l2_writes_hdr_miss: 0
kstat.zfs.misc.arcstats.l2_evict_lock_retry: 0
kstat.zfs.misc.arcstats.l2_evict_reading: 0
kstat.zfs.misc.arcstats.l2_free_on_write: 0
kstat.zfs.misc.arcstats.l2_abort_lowmem: 0
kstat.zfs.misc.arcstats.l2_cksum_bad: 0
kstat.zfs.misc.arcstats.l2_io_error: 0
kstat.zfs.misc.arcstats.l2_size: 0
kstat.zfs.misc.arcstats.l2_hdr_size: 0
kstat.zfs.misc.arcstats.memory_throttle_count: 0
kstat.zfs.misc.arcstats.l2_write_trylock_fail: 0
kstat.zfs.misc.arcstats.l2_write_passed_headroom: 0
kstat.zfs.misc.arcstats.l2_write_spa_mismatch: 0
kstat.zfs.misc.arcstats.l2_write_in_l2: 0
kstat.zfs.misc.arcstats.l2_write_io_in_progress: 0
kstat.zfs.misc.arcstats.l2_write_not_cacheable: 4
kstat.zfs.misc.arcstats.l2_write_full: 0
kstat.zfs.misc.arcstats.l2_write_buffer_iter: 0
kstat.zfs.misc.arcstats.l2_write_pios: 0
kstat.zfs.misc.arcstats.l2_write_buffer_bytes_scanned: 0
kstat.zfs.misc.arcstats.l2_write_buffer_list_iter: 0
kstat.zfs.misc.arcstats.l2_write_buffer_list_null_iter: 0
kstat.zfs.misc.vdev_cache_stats.delegations: 0
kstat.zfs.misc.vdev_cache_stats.hits: 0
kstat.zfs.misc.vdev_cache_stats.misses: 0
nas4free: ~ # zfs get compression
NAME PROPERTY VALUE SOURCE
PoolZ compression lzjb local
PoolZ/DatasetZ compression lzjb local
zpool status tank
pool: tank
state: ONLINE
scan: -
config:
NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
c2t0d0 ONLINE 0 0 0
c2t1d0 ONLINE 0 0 0
c2t2d0 ONLINE 0 0 0
zpool status tank
pool: tank
state: ONLINE
scan: -
config:
NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
c2t0d0 ONLINE 0 0 0
c2t1d0 ONLINE 0 0 0
c2t2d0 ONLINE 0 0 0
raidz1-1 ONLINE 0 0 0
c2t3d0 ONLINE 0 0 0
c2t4d0 ONLINE 0 0 0
c2t5d0 ONLINE 0 0 0
nas4free: pyload # python2.7 pyLoadCore.py
11.10.2013 22:01:26 INFO starte pyLoad 0.4.9
11.10.2013 22:01:26 INFO Benutze Home-Verzeichnis: /root/pyload
11.10.2013 22:01:26 INFO Checksum: Checksum validation is disabled in general configuration
11.10.2013 22:01:26 INFO ExtractArchive: Aktiviert UnRar UnZip
11.10.2013 22:01:26 INFO Aktivierte Plugins: BypassCaptcha, CaptchaTrader, Checksum, ClickAndLoad, ExternalScripts, ExtractArchive, ImageTyperz, LinkdecrypterCom, UnSkipOnFail, UpdateManager, XFileSharingPro
11.10.2013 22:01:26 INFO Deaktivierte Plugins: AlldebridCom, Captcha9kw, CaptchaBrotherhood, DeathByCaptcha, DownloadScheduler, EasybytezCom, Ev0InFetcher, ExpertDecoders, HotFolder, IRCInterface, MergeFiles, MultiHome, MultishareCz, Premium4Me, PremiumizeMe, RealdebridCom, RehostTo, XMPPInterface, ZeveraCom
11.10.2013 22:01:26 INFO Downloadzeit: True
11.10.2013 22:01:26 INFO Starte ThriftBackend: 0.0.0.0:7227
11.10.2013 22:01:26 INFO Starting threaded webserver: 0.0.0.0:8000
Traceback (most recent call last):
File "pyLoadCore.py", line 667, in <module>
main()
File "pyLoadCore.py", line 658, in main
pyload_core.start()
File "pyLoadCore.py", line 412, in start
self.log.info(_("Free space: %s") % formatSize(spaceLeft))
File "/usr/home/pyload/pyload/module/utils.py", line 95, in formatSize
return "%.2f %s" % (size, sizes[steps])
IndexError: list index out of range
python2.7 pyLoadCore.py --daemon
python2.7 pyLoadCore.py -s
Nein klappt auch nicht.Und
Code:python2.7 pyLoadCore.py --daemon
Klappt nicht wenn du es manuell machst?
Ja wirklich alle Rechte: rwxrwxrwxHat dein pyload Verzeichniss volle Rechte für alle User?
Bei der Installation mit:
Code:python2.7 pyLoadCore.py -s
gab es keine Fehler? Sieht mir nach einem Pyhtonfehler aus.
python2.7 pyLoadCore.py
12.10.2013 10:14:57 INFO starte pyLoad 0.4.9
12.10.2013 10:14:57 INFO Benutze Home-Verzeichnis: /root/pyload
12.10.2013 10:14:57 INFO Checksum: Checksum validation is disabled in general configuration
12.10.2013 10:14:57 INFO ExtractArchive: Aktiviert UnRar UnZip
12.10.2013 10:14:57 INFO Aktivierte Plugins: BypassCaptcha, CaptchaTrader,Checksum, ClickAndLoad, ExternalScripts, ExtractArchive, ImageTyperz, LinkdecrypterCom, UnSkipOnFail, UpdateManager, XFileSharingPro
12.10.2013 10:14:57 INFO Deaktivierte Plugins: AlldebridCom, Captcha9kw, Ca ptchaBrotherhood, DeathByCaptcha, DownloadScheduler, EasybytezCom, Ev0InFetcher, ExpertDecoders, HotFolder, IRCInterface, MergeFiles, MultiHome, MultishareCz, Premium4Me, PremiumizeMe, RealdebridCom, RehostTo, XMPPInterface, ZeveraCom
12.10.2013 10:14:57 INFO Downloadzeit: True
12.10.2013 10:14:57 INFO Starte ThriftBackend: 0.0.0.0:7227
12.10.2013 10:14:57 INFO Starting threaded webserver: 0.0.0.0:8000
Traceback (most recent call last):
File "pyLoadCore.py", line 667, in <module>
main()
File "pyLoadCore.py", line 658, in main
pyload_core.start()
File "pyLoadCore.py", line 412, in start
self.log.info(_("Free space: %s") % formatSize(spaceLeft))
File "/usr/home/pyload/module/utils.py", line 95, in formatSize
return "%.2f %s" % (size, sizes[steps])
IndexError: list index out of range
12.10.2013 10:16:30 WARNING Info Fetching for ShareonlineBiz failed | (48, '')
12.10.2013 10:16:30 INFO Added package Test containing 1 links
SMB2
Local Master Browser: yes
Time server: yes
Send Buffer Size: 32768
Receive Buffer Size: 262144
Large read/write: yes
Use sendfile: no (wg. SMB2)
Asynchronous I/O (AIO): yes
AIO read size: 4096
AIO write size: 16384
Compression: off
Dedup: off
sync: standard
access time: off
vm.kmem_size="3G"
vfs.zfs.arc_max="2560M"
vfs.zfs.arc_min="1024M"
vfs.zfs.txg.timeout="5"
vfs.zfs.txg.write_limit_override="268435456"
vfs.zfs.vdev.min_pending="2"
vfs.zfs.vdev.max_pending="10"
vfs.zfs.prefetch_disable="0"
@old-papa
Das ohne ACPI gebootet wird, wurde schon länger geändert, habe aber gerade nicht mehr im Kopf warum das gemacht wurde, aber das sollte schon einen Grund haben.
Würde mich interessieren. Insbesondere, ob das Booten mit ACPI auf einem HP ProLiant MicroServer N54L möglich / sinnvoll / nützlich ist und wie man das dann eben als default aktiviert...
Leider hab ich über die Suche nichts gefunden, wurde das schon geklärt?
sysctl hw.acpi
acpi_load="YES"
netsh interface tcp set global autotuninglevel=disable
Hi,
danke für dein Feedback und den Tipp.
Ich kann dir sagen, das dies nicht immer der Grund ist was den Speed angeht - leider. Da gibts noch mehr Parameter die man in Windows anpassen kann, aber in der Regel ist das nicht das Problem. Gäbe z.B. noch:
Code:netsh interface tcp set global autotuninglevel=disable
Damit auch bei längeren Kopiervorgängen die Schreibrate nicht so stark einbricht, aber Achtung nicht einfach eingeben, sondern lieber erst einmal in das Thema einlesen, z.B. SG :: Windows 7, Vista, 2008 Tweaks
hallo AG1M !!,
vielen Dank für Deine Antwort und Dein Tip ;-), und na klar gibt es leider wahrscheinlich noch 1000 andere parameter die es einzustellen gäbe (was ich auch hoffe ;-))...
Da ich gerade oben zufällig in der Überschrift "Nas4Free" gelesen habe ;-), bin ich hier ja richtig und Du ja auch gerade meintest "...Samba Server von FreeBSD kommt nie an den Speed von einem Solaris CIFS Server oder den von OmniOS/OpenIndina heran" is doch nu echt, so mal ganz salopp gesagt/gefragt, die Frage warum nicht ?
(stell die Frage auch nur hier in Raum, damit wir hier alle mal ein kleines "HOW-TO" zusammenkriegen das wir dann vllt. sogar ins nächste NasFree-Release (hochgradig wünsch ;-)) einfliessen lassen könnten/anmerken könnten..
Viele Grüße und Danke nochmal von hier !!
(PS.:so, jetzt müssen wir bloß noch die slownetworkspeed vom nas4free übern Samba(CIFS) raus aufn Win-Rechner hinkriegen..(smb.conf-tuning ?))
Viele Grüße von hier !!