mdadm zickt ...

NiclasM

Enthusiast
Thread Starter
Mitglied seit
06.02.2007
Beiträge
4.331
Ort
Dortmund
Hi

Hab auf einem Server ein RAID5 eingerichtet mit mdadm. Ok, direkt nachdem ich es erstellt hatte war auch direkt sdf als removed und spare Platte drin. Darauf hin hab ich die entfernt und wieder hinzugefügt. Alles okay, doch jetzt macht erst schonwieder einen Rebuild. Im Syslog finde ich nicht sonderlich viel und frage mich warum er einen Rebuild macht ?


Code:
Sep  4 11:45:59 Server kernel: [   91.166731] sd 1:0:0:0: [sda] 3907029168 512-byte hardware sectors (2000399 MB)
Sep  4 11:45:59 Server kernel: [   91.166731] sd 1:0:0:0: [sda] Write Protect is off
Sep  4 11:45:59 Server kernel: [   91.166731] sd 1:0:0:0: [sda] Mode Sense: 00 3a 00 00
Sep  4 11:45:59 Server kernel: [   91.166753] sd 1:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Sep  4 11:45:59 Server kernel: [   91.166753]  sda: sda1
Sep  4 11:46:01 Server kernel: [   93.170648] sd 1:0:0:0: [sda] 3907029168 512-byte hardware sectors (2000399 MB)
Sep  4 11:46:01 Server kernel: [   93.170648] sd 1:0:0:0: [sda] Write Protect is off
Sep  4 11:46:01 Server kernel: [   93.170648] sd 1:0:0:0: [sda] Mode Sense: 00 3a 00 00
Sep  4 11:46:01 Server kernel: [   93.170648] sd 1:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Sep  4 11:46:01 Server kernel: [   93.170648]  sda: sda1
Sep  4 11:46:19 Server kernel: [  110.960210] sd 2:0:0:0: [sdb] 3907029168 512-byte hardware sectors (2000399 MB)
Sep  4 11:46:19 Server kernel: [  110.963433] sd 2:0:0:0: [sdb] Write Protect is off
Sep  4 11:46:19 Server kernel: [  110.963433] sd 2:0:0:0: [sdb] Mode Sense: 00 3a 00 00
Sep  4 11:46:19 Server kernel: [  110.963455] sd 2:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Sep  4 11:46:19 Server kernel: [  110.963455]  sdb: sdb1
Sep  4 11:46:21 Server kernel: [  112.957134] sd 2:0:0:0: [sdb] 3907029168 512-byte hardware sectors (2000399 MB)
Sep  4 11:46:21 Server kernel: [  112.957134] sd 2:0:0:0: [sdb] Write Protect is off
Sep  4 11:46:21 Server kernel: [  112.957134] sd 2:0:0:0: [sdb] Mode Sense: 00 3a 00 00
Sep  4 11:46:21 Server kernel: [  112.957134] sd 2:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Sep  4 11:46:21 Server kernel: [  112.957134]  sdb: sdb1
Sep  4 11:47:03 Server kernel: [  155.504115] sd 4:0:0:0: [sdc] 3907029168 512-byte hardware sectors (2000399 MB)
Sep  4 11:47:03 Server kernel: [  155.504115] sd 4:0:0:0: [sdc] Write Protect is off
Sep  4 11:47:03 Server kernel: [  155.504115] sd 4:0:0:0: [sdc] Mode Sense: 00 3a 00 00
Sep  4 11:47:03 Server kernel: [  155.504177] sd 4:0:0:0: [sdc] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Sep  4 11:47:03 Server kernel: [  155.504177]  sdc: sdc1
Sep  4 11:47:05 Server kernel: [  157.497828] sd 4:0:0:0: [sdc] 3907029168 512-byte hardware sectors (2000399 MB)
Sep  4 11:47:05 Server kernel: [  157.497828] sd 4:0:0:0: [sdc] Write Protect is off
Sep  4 11:47:05 Server kernel: [  157.497828] sd 4:0:0:0: [sdc] Mode Sense: 00 3a 00 00
Sep  4 11:47:05 Server kernel: [  157.497828] sd 4:0:0:0: [sdc] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Sep  4 11:47:05 Server kernel: [  157.497828]  sdc: sdc1
Sep  4 11:48:02 Server kernel: [  215.076530] sd 4:0:1:0: [sdd] 3907029168 512-byte hardware sectors (2000399 MB)
Sep  4 11:48:02 Server kernel: [  215.076530] sd 4:0:1:0: [sdd] Write Protect is off
Sep  4 11:48:02 Server kernel: [  215.076530] sd 4:0:1:0: [sdd] Mode Sense: 00 3a 00 00
Sep  4 11:48:02 Server kernel: [  215.076586] sd 4:0:1:0: [sdd] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Sep  4 11:48:02 Server kernel: [  215.076586]  sdd: sdd1
Sep  4 11:48:04 Server kernel: [  217.080552] sd 4:0:1:0: [sdd] 3907029168 512-byte hardware sectors (2000399 MB)
Sep  4 11:48:04 Server kernel: [  217.080552] sd 4:0:1:0: [sdd] Write Protect is off
Sep  4 11:48:04 Server kernel: [  217.080552] sd 4:0:1:0: [sdd] Mode Sense: 00 3a 00 00
Sep  4 11:48:04 Server kernel: [  217.080552] sd 4:0:1:0: [sdd] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Sep  4 11:48:04 Server kernel: [  217.080552]  sdd: sdd1
Sep  4 11:48:47 Server kernel: [  259.546847] sd 6:0:0:0: [sdf] 3907029168 512-byte hardware sectors (2000399 MB)
Sep  4 11:48:47 Server kernel: [  259.546847] sd 6:0:0:0: [sdf] Write Protect is off
Sep  4 11:48:47 Server kernel: [  259.546847] sd 6:0:0:0: [sdf] Mode Sense: 00 3a 00 00
Sep  4 11:48:47 Server kernel: [  259.546866] sd 6:0:0:0: [sdf] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Sep  4 11:48:47 Server kernel: [  259.546866]  sdf: sdf1
Sep  4 11:48:49 Server kernel: [  261.567803] sd 6:0:0:0: [sdf] 3907029168 512-byte hardware sectors (2000399 MB)
Sep  4 11:48:49 Server kernel: [  261.567803] sd 6:0:0:0: [sdf] Write Protect is off
Sep  4 11:48:49 Server kernel: [  261.567803] sd 6:0:0:0: [sdf] Mode Sense: 00 3a 00 00
Sep  4 11:48:49 Server kernel: [  261.567803] sd 6:0:0:0: [sdf] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Sep  4 11:48:49 Server kernel: [  261.567803]  sdf: sdf1
Sep  4 11:51:11 Server kernel: [  404.563433] md: bind<sda1>
Sep  4 11:51:11 Server kernel: [  404.597969] md: bind<sdb1>
Sep  4 11:51:11 Server kernel: [  404.603424] md: bind<sdc1>
Sep  4 11:51:11 Server kernel: [  404.615293] md: bind<sdd1>
Sep  4 11:51:11 Server kernel: [  404.620018] md: bind<sdf1>
Sep  4 11:51:11 Server mdadm[2865]: NewArray event detected on md device /dev/md0
Sep  4 11:51:11 Server kernel: [  404.731138] raid5: device sdd1 operational as raid disk 3
Sep  4 11:51:11 Server kernel: [  404.731138] raid5: device sdc1 operational as raid disk 2
Sep  4 11:51:11 Server kernel: [  404.731138] raid5: device sdb1 operational as raid disk 1
Sep  4 11:51:11 Server kernel: [  404.731138] raid5: device sda1 operational as raid disk 0
Sep  4 11:51:11 Server kernel: [  404.731206] raid5: allocated 5324kB for md0
Sep  4 11:51:11 Server kernel: [  404.731206] raid5: raid level 5 set md0 active with 4 out of 5 devices, algorithm 2
Sep  4 11:51:11 Server kernel: [  404.731206] RAID5 conf printout:
Sep  4 11:51:11 Server kernel: [  404.731206]  --- rd:5 wd:4
Sep  4 11:51:11 Server kernel: [  404.731206]  disk 0, o:1, dev:sda1
Sep  4 11:51:11 Server kernel: [  404.731206]  disk 1, o:1, dev:sdb1
Sep  4 11:51:11 Server kernel: [  404.731206]  disk 2, o:1, dev:sdc1
Sep  4 11:51:11 Server kernel: [  404.731206]  disk 3, o:1, dev:sdd1
Sep  4 11:51:11 Server mdadm[2865]: DegradedArray event detected on md device /dev/md0
Sep  4 11:52:51 Server kernel: [  505.557772] md: unbind<sdf1>
Sep  4 11:52:51 Server kernel: [  505.557772] md: export_rdev(sdf1)
Sep  4 11:53:00 Server kernel: [  514.258623] md: bind<sdf1>
Sep  4 11:53:00 Server mdadm[2865]: RebuildStarted event detected on md device /dev/md0
Sep  4 11:53:00 Server kernel: [  514.277195] RAID5 conf printout:
Sep  4 11:53:00 Server kernel: [  514.277195]  --- rd:5 wd:4
Sep  4 11:53:00 Server kernel: [  514.277195]  disk 0, o:1, dev:sda1
Sep  4 11:53:00 Server kernel: [  514.277195]  disk 1, o:1, dev:sdb1
Sep  4 11:53:00 Server kernel: [  514.277195]  disk 2, o:1, dev:sdc1
Sep  4 11:53:00 Server kernel: [  514.277195]  disk 3, o:1, dev:sdd1
Sep  4 11:53:00 Server kernel: [  514.277195]  disk 4, o:1, dev:sdf1
Sep  4 11:53:00 Server kernel: [  514.277195] md: recovery of RAID array md0
Sep  4 11:53:00 Server kernel: [  514.277195] md: minimum _guaranteed_  speed: 1000 KB/sec/disk.
Sep  4 11:53:00 Server kernel: [  514.277195] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.
Sep  4 11:53:00 Server kernel: [  514.277195] md: using 128k window, over a total of 1953511936 blocks.
Sep  4 12:17:02 Server /USR/SBIN/CRON[3151]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Sep  4 12:50:14 Server kernel: [ 4215.971889] kjournald starting.  Commit interval 5 seconds
Sep  4 12:50:14 Server kernel: [ 4216.086650] EXT3 FS on md0, internal journal
Sep  4 12:50:14 Server kernel: [ 4216.086650] EXT3-fs: mounted filesystem with ordered data mode.
Sep  4 12:58:56 Server kernel: [ 4833.599203] warning: `proftpd' uses 32-bit capabilities (legacy support in use)
Sep  4 13:02:46 Server proftpd[3530]: no such group 'nobody'
Sep  4 13:02:46 Server proftpd[3530]: Fatal: Group: Unknown group 'nobody' on line 21 of '/etc/proftpd/proftpd.conf'
Sep  4 13:17:02 Server /USR/SBIN/CRON[5357]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Sep  4 13:56:53 Server kernel: [ 8764.104736] CE: hpet increasing min_delta_ns to 15000 nsec
Sep  4 14:17:01 Server /USR/SBIN/CRON[5383]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Sep  4 14:40:00 Server mdadm[2865]: Rebuild20 event detected on md device /dev/md0
Sep  4 15:17:02 Server /USR/SBIN/CRON[5410]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Sep  4 16:17:02 Server /USR/SBIN/CRON[5423]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Sep  4 17:01:00 Server mdadm[2865]: Rebuild40 event detected on md device /dev/md0
Sep  4 17:17:01 Server /USR/SBIN/CRON[5464]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Sep  4 18:14:00 Server mdadm[2865]: Rebuild60 event detected on md device /dev/md0
Sep  4 18:17:01 Server /USR/SBIN/CRON[5480]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Sep  4 19:17:01 Server /USR/SBIN/CRON[5496]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Sep  4 19:30:00 Server mdadm[2865]: Rebuild80 event detected on md device /dev/md0
Sep  4 20:17:01 Server /USR/SBIN/CRON[5511]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Sep  4 20:59:00 Server kernel: [37497.229636] md: md0: recovery done.
Sep  4 20:59:00 Server kernel: [37497.278734] RAID5 conf printout:
Sep  4 20:59:00 Server kernel: [37497.278734]  --- rd:5 wd:5
Sep  4 20:59:00 Server kernel: [37497.278734]  disk 0, o:1, dev:sda1
Sep  4 20:59:00 Server kernel: [37497.278734]  disk 1, o:1, dev:sdb1
Sep  4 20:59:00 Server kernel: [37497.278734]  disk 2, o:1, dev:sdc1
Sep  4 20:59:00 Server kernel: [37497.278734]  disk 3, o:1, dev:sdd1
Sep  4 20:59:00 Server kernel: [37497.278734]  disk 4, o:1, dev:sdf1
Sep  4 20:59:00 Server mdadm[2865]: RebuildFinished event detected on md device /dev/md0
Sep  4 20:59:00 Server mdadm[2865]: SpareActive event detected on md device /dev/md0, component device /dev/sdf1
Sep  4 21:17:01 Server /USR/SBIN/CRON[5520]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Sep  4 22:17:01 Server /USR/SBIN/CRON[5529]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Sep  4 23:17:02 Server /USR/SBIN/CRON[9234]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Sep  5 00:17:01 Server /USR/SBIN/CRON[9240]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Sep  5 00:57:01 Server /USR/SBIN/CRON[9245]: (root) CMD ([ -x /usr/share/mdadm/checkarray ] && [ $(date +%d) -le 7 ] && /usr/share/mdadm/checkarray --cron --all --quiet)
Sep  5 00:57:01 Server mdadm[2865]: RebuildStarted event detected on md device /dev/md0
Sep  5 00:57:01 Server kernel: [51802.616361] md: data-check of RAID array md0
Sep  5 00:57:01 Server kernel: [51802.616361] md: minimum _guaranteed_  speed: 200000 KB/sec/disk.
Sep  5 00:57:01 Server kernel: [51802.616361] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for data-check.
Sep  5 00:57:01 Server kernel: [51802.616361] md: using 128k window, over a total of 1953511936 blocks.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Darauf hin hab ich die entfernt und wieder hinzugefügt.
du hast die spare platte aus dem raid entfernt und wieder dazugefuegt?
welchen sinn soll das haben?
und dann fragst du dich warum er rebuildet wenn du eine platte rausnimmst und wieder reinklatschst?
 
Ich habe die Festplatte nur rausgenommen, da diese als Spare drin war und er KEIN Rebuild am laufen hatte. Bei einem GANZ neu erstelltem RAID. Weil ich wollte dass er diese Platte nutze habe ich die halt rausgenommen und nochmal neu hinzugefügt. Das hat auch zum gewünschten Ergebnis geführt. Warum er dann aber noch ein Rebuild macht ist mir schleierhaft ?!
 
warum sollte er keines machen wenn du eine platte hinzufuegst?
 
GENAU dass habe ich mich auch gefragt ;)

Deswegen schreibe ich doch :)

habe "cat /proc/mdstat" und "mdadm -D /dev/md0" laufen lassen und es stand nichts von Rebuild o.ä. deshalb hab ich das ja gemacht...
 
achso?
irgendwie verstehe ich deine posts immer noch nicht. viel zu konfus und ungenau geschrieben.
im ersten post redest du von "schon wieder ein rebuild"
jetzt meinst du er macht keine?
was denn nun?
 
Zuletzt bearbeitet:
Also ich probiers mal so zu schreiben :

- RAID Erstellt, direkte war eine Platte als "removed" und die gleiche als "Spare" -> Spare rausgenommen und erneut hinzugefügt, da diese nicht von mdadm verwendet wurde.
-RAID Rebuild fertig
-Nach ein paar Stunden hat er schonwieder einen Rebuild angefangen, keine Ahnung warum

- Bis jetzt hält sich das RAID und er macht keinen Rebuild.

Für mich stellt sich nur die Frage
1. Warum hatte ich ganz am anfang eine Spare Platte und warum waren nicht alle direkt nach dem Erstellen des RAIDs als Active angezeigt ?
2. Warum hat er nachdem er einen Rebuild gemacht hat, NOCHMAL einen Rebuild gemacht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh