Hallo,
nach dem Einbau von 2 weiteren Mirror vdevs (aus Seagate Exos X16 16TB HDDs) bekomme ich während des Scrubs nach ~ 3,3 gescannten TB einen reproduzierbaren Kernel Panic unter FreeNAS 11.3-U5.
Hat jemand eine Idee bzw. kann aus dem Dump rauslesen, woran das liegen könnte? Ich habe die neuen Platten zuvor in einem anderen Filer mit badblocks getestet, lief einwandfrei. /var/log/messages gibt keine Infos her. Specs zum Server:
SM X11SPM-TPF
Xeon Silber 4110
Broadcom 9400-16i HBA
SuperChassis 836BA-R920LPB
192GB RAM
Optane SSD DC P4800X 375GB PCIe
8x Seagate Exos X16 16TB (4 mirror vdevs)
Zpool:
Was ich schon probiert habe:
- Freenas Update von 11.3-U4.1 auf U5
- Update der HBA Firmware auf die letzte Version - da lief noch eine ur-alt-Version (v4 -> v16); HBA BIOS hab ich so gelassen.
Was ich als nächstes probieren würde:
- Festplatten Slots der 4 neuen HDDs tauschen.
-- Wenn das nicht hilft, würde ich die beiden neuen mirror vdevs mittels "zpool remove Spinning mirror-X" auflösen. (nach meinem Verständnis sollte dies möglich sein, ohne den Pool zu verlieren; wäre kein Drama, Backup ist vorhanden ... dennoch)
Wäre toll, wenn jemand einen Input hätte. Besten Dank!
alex.
nach dem Einbau von 2 weiteren Mirror vdevs (aus Seagate Exos X16 16TB HDDs) bekomme ich während des Scrubs nach ~ 3,3 gescannten TB einen reproduzierbaren Kernel Panic unter FreeNAS 11.3-U5.
Code:
Fatal trap 12: page fault while in kernel mode
cpuid = 1; apic id = 01
fault virtual address = 0x4b0
fault code = supervisor write data, page not present
instruction pointer = 0x20:0xffffffff80412116
stack pointer = 0x28:0xfffffe2faebdd5f0
frame pointer = 0x28:0xfffffe2faebdd670
code segment = base 0x0, limit 0xfffff, type 0x1b
= DPL 0, pres 1, long 1, def32 0, gran 1
processor eflags = interrupt enabled, resume, IOPL = 0
current process = 15 (txg_thread_enter)
trap number = 12
panic: page fault
cpuid = 1
KDB: stack backtrace:
db_trace_self_wrapper() at db_trace_self_wrapper+0x2b/frame 0xfffffe2faebdd2a0
vpanic() at vpanic+0x17e/frame 0xfffffe2faebdd300
panic() at panic+0x43/frame 0xfffffe2faebdd360
trap_fatal() at trap_fatal+0x369/frame 0xfffffe2faebdd3b0
trap_pfault() at trap_pfault+0x49/frame 0xfffffe2faebdd410
trap() at trap+0x29d/frame 0xfffffe2faebdd520
calltrap() at calltrap+0x8/frame 0xfffffe2faebdd520
--- trap 0xc, rip = 0xffffffff80412116, rsp = 0xfffffe2faebdd5f0, rbp = 0xfffffe2faebdd670 ---
dsl_scan_scrub_cb() at dsl_scan_scrub_cb+0x316/frame 0xfffffe2faebdd670
dsl_scan_visitbp() at dsl_scan_visitbp+0x329/frame 0xfffffe2faebdd720
dsl_scan_visitbp() at dsl_scan_visitbp+0x5a1/frame 0xfffffe2faebdd7d0
dsl_scan_visitbp() at dsl_scan_visitbp+0x291/frame 0xfffffe2faebdd880
dsl_scan_visitbp() at dsl_scan_visitbp+0x291/frame 0xfffffe2faebdd930
dsl_scan_visitbp() at dsl_scan_visitbp+0x291/frame 0xfffffe2faebdd9e0
dsl_scan_visitbp() at dsl_scan_visitbp+0x291/frame 0xfffffe2faebdda90
dsl_scan_visitbp() at dsl_scan_visitbp+0x291/frame 0xfffffe2faebddb40
dsl_scan_visitbp() at dsl_scan_visitbp+0x3ed/frame 0xfffffe2faebddbf0
dsl_scan_visit_rootbp() at dsl_scan_visit_rootbp+0x134/frame 0xfffffe2faebddc40
dsl_scan_visitds() at dsl_scan_visitds+0xfe/frame 0xfffffe2faebdddf0
dsl_scan_sync() at dsl_scan_sync+0xfcb/frame 0xfffffe2faebddff0
spa_sync() at spa_sync+0xb67/frame 0xfffffe2faebde220
txg_sync_thread() at txg_sync_thread+0x238/frame 0xfffffe2faebde2f0
fork_exit() at fork_exit+0x83/frame 0xfffffe2faebde330
fork_trampoline() at fork_trampoline+0xe/frame 0xfffffe2faebde330
--- trap 0, rip = 0, rsp = 0, rbp = 0 ---
KDB: enter: panic
Hat jemand eine Idee bzw. kann aus dem Dump rauslesen, woran das liegen könnte? Ich habe die neuen Platten zuvor in einem anderen Filer mit badblocks getestet, lief einwandfrei. /var/log/messages gibt keine Infos her. Specs zum Server:
SM X11SPM-TPF
Xeon Silber 4110
Broadcom 9400-16i HBA
SuperChassis 836BA-R920LPB
192GB RAM
Optane SSD DC P4800X 375GB PCIe
8x Seagate Exos X16 16TB (4 mirror vdevs)
Zpool:
Code:
pool: Spinning
state: ONLINE
scan: scrub in progress since Tue Oct 27 21:37:29 2020
3.29T scanned at 2.81G/s, 2.37M issued at 4.90K/s, 12.7T total
0 repaired, 0.00% done, no estimated completion time
config:
NAME STATE READ WRITE CKSUM
Spinning ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
gptid/f2401efa-839e-11ea-b711-ac1f6bbcc2e8.eli ONLINE 0 0 0
gptid/142f1a04-83dd-11ea-b711-ac1f6bbcc2e8.eli ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
gptid/6629e212-8461-11ea-b711-ac1f6bbcc2e8.eli ONLINE 0 0 0
gptid/fee155dc-849a-11ea-b711-ac1f6bbcc2e8.eli ONLINE 0 0 0
mirror-3 ONLINE 0 0 0
gptid/2af5eb56-150d-11eb-b48b-ac1f6bbcc2e8.eli ONLINE 0 0 0
gptid/2c62ca51-150d-11eb-b48b-ac1f6bbcc2e8.eli ONLINE 0 0 0
mirror-4 ONLINE 0 0 0
gptid/2a4fe28c-150d-11eb-b48b-ac1f6bbcc2e8.eli ONLINE 0 0 0
gptid/2b8f21ea-150d-11eb-b48b-ac1f6bbcc2e8.eli ONLINE 0 0 0
logs
gptid/de03a5ad-a9b5-11ea-8d05-ac1f6bbcc2e8.eli ONLINE 0 0 0
Was ich schon probiert habe:
- Freenas Update von 11.3-U4.1 auf U5
- Update der HBA Firmware auf die letzte Version - da lief noch eine ur-alt-Version (v4 -> v16); HBA BIOS hab ich so gelassen.
Was ich als nächstes probieren würde:
- Festplatten Slots der 4 neuen HDDs tauschen.
-- Wenn das nicht hilft, würde ich die beiden neuen mirror vdevs mittels "zpool remove Spinning mirror-X" auflösen. (nach meinem Verständnis sollte dies möglich sein, ohne den Pool zu verlieren; wäre kein Drama, Backup ist vorhanden ... dennoch)
Wäre toll, wenn jemand einen Input hätte. Besten Dank!
alex.