Raid geht nach Reboot verloren...

martin12345

Enthusiast
Thread Starter
Mitglied seit
25.11.2011
Beiträge
509
Hallo zusammen,
ich habe ein Problem mit meinem Raid 10, welches aus 4 x 2TB Platten besteht.

Nach jedem Reboot geht mir das übergelagerte Raid 0 verloren,
die 4 x Raid 1 bleiben bestehen.
Als Behelf habe ich mir folgendes Skript gebaut, was auch soweit okay funktioniert.
Code:
sudo mdadm --assemble --scan
sudo mount /dev/md4 /samba

Folgende Ausgaben bekomme ich von mdadm und so sieht meine mdadm.conf aus:
Code:
martin@elephant:~$ sudo mdadm --detail --scan
ARRAY /dev/md1 metadata=1.2 name=elephant:1 UUID=3323ff01:2f736008:5dfcb147:4fa96eea
ARRAY /dev/md0 metadata=1.2 name=elephant:0 UUID=36394f72:d7eebd69:a4d09f26:310b17d3
ARRAY /dev/md2 metadata=1.2 name=elephant:2 UUID=f8622e58:f1760b44:d38f8e1b:009dbc51
ARRAY /dev/md3 metadata=1.2 name=elephant:3 UUID=dbf25945:80cf2878:7fa5ddcf:1f2f7638
ARRAY /dev/md4 metadata=1.2 name=elephant:4 UUID=a34f9fd6:336111b6:c92acef3:6cdb7f98

martin@elephant:~$ cat /etc/mdadm/mdadm.conf
ARRAY /dev/md0 UUID=36394f72:d7eebd69:a4d09f26:310b17d3
ARRAY /dev/md1 UUID=3323ff01:2f736008:5dfcb147:4fa96eea
ARRAY /dev/md2 UUID=f8622e58:f1760b44:d38f8e1b:009dbc51
ARRAY /dev/md3 UUID=dbf25945:80cf2878:7fa5ddcf:1f2f7638
ARRAY /dev/md4 UUID=a34f9fd6:336111b6:c92acef3:6cdb7f98

Ich würde das Problem aber gerne etwas nachhaltiger lösen.. habt ihr Tipps für mich?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mach mal ein
update-initramfs -u
damit baust du die mdadm.conf in die init ramfs und somit sollte beim reboot alles noch da sein.
 
Mach mal ein
update-initramfs -u
damit baust du die mdadm.conf in die init ramfs und somit sollte beim reboot alles noch da sein.

Habe ich leider schon mehrmals (in unterschiedlichen Variaten z.B. auch sudo update-initramfs -k all -u) probiert... leider erfolglos.
 
Check mal dein mismatch_cnt (/sys/block/mdX/md/mismatch_cnt) oder suche mal Fehler in /var/log/syslog oder /var/log/messages je nach Distri.
 
Syslog wirft in Bezug auf mdadm folgendes aus:
Code:
cat /var/log/syslog | grep md
Sep  6 09:41:45 elephant kernel: [51613.942878] md: md0: data-check done.
Sep  6 09:41:45 elephant mdadm[1490]: RebuildFinished event detected on md device /dev/md0
Sep 11 12:07:00 elephant kernel: [    0.000000] Command line: BOOT_IMAGE=/boot/vmlinuz-3.16.0-30-generic root=UUID=e2fa389c-0760-484a-9c4a-449208842512 ro quiet splash nomdmonddf nomdmonisw vt.handoff=7
Sep 11 12:07:00 elephant kernel: [    0.000000] Kernel command line: BOOT_IMAGE=/boot/vmlinuz-3.16.0-30-generic root=UUID=e2fa389c-0760-484a-9c4a-449208842512 ro quiet splash nomdmonddf nomdmonisw vt.handoff=7
Sep 11 12:07:00 elephant kernel: [    0.541190] systemd-udevd[115]: starting version 204
Sep 11 12:07:00 elephant kernel: [    0.556322] md: linear personality registered for level -1
Sep 11 12:07:00 elephant kernel: [    0.559046] md: multipath personality registered for level -4
Sep 11 12:07:00 elephant kernel: [    0.561442] md: raid0 personality registered for level 0
Sep 11 12:07:00 elephant kernel: [    0.565591] md: raid1 personality registered for level 1
Sep 11 12:07:00 elephant kernel: [    0.566446] ata1: PATA max UDMA/100 cmd 0xcc00 ctl 0xc880 bmdma 0xc400 irq 16
Sep 11 12:07:00 elephant kernel: [    0.566448] ata2: PATA max UDMA/100 cmd 0xc800 ctl 0xc480 bmdma 0xc408 irq 16
Sep 11 12:07:00 elephant kernel: [    0.860441] md: raid6 personality registered for level 6
Sep 11 12:07:00 elephant kernel: [    0.860443] md: raid5 personality registered for level 5
Sep 11 12:07:00 elephant kernel: [    0.860444] md: raid4 personality registered for level 4
Sep 11 12:07:00 elephant kernel: [    0.865871] md: raid10 personality registered for level 10
Sep 11 12:07:00 elephant kernel: [    2.783321] md: bind<sdd>
Sep 11 12:07:00 elephant kernel: [    3.119557] md: bind<sda>
Sep 11 12:07:00 elephant kernel: [    3.131936] md: bind<sdb>
Sep 11 12:07:00 elephant kernel: [    3.133396] md/raid1:md0: active with 2 out of 2 mirrors
Sep 11 12:07:00 elephant kernel: [    3.133415] md0: detected capacity change from 0 to 1997014892544
Sep 11 12:07:00 elephant kernel: [    3.134753] md: bind<sdc>
Sep 11 12:07:00 elephant kernel: [    3.136145] md/raid1:md1: active with 2 out of 2 mirrors
Sep 11 12:07:00 elephant kernel: [    3.136194] md1: detected capacity change from 0 to 1997014892544
Sep 11 12:07:00 elephant kernel: [    3.138713] md: bind<sdh>
Sep 11 12:07:00 elephant kernel: [    3.144205] md: bind<sde>
Sep 11 12:07:00 elephant kernel: [    3.149253] md: bind<sdg>
Sep 11 12:07:00 elephant kernel: [    3.150654] md/raid1:md3: active with 2 out of 2 mirrors
Sep 11 12:07:00 elephant kernel: [    3.150678] md3: detected capacity change from 0 to 1997014892544
Sep 11 12:07:00 elephant kernel: [    3.154052] md: bind<sdf>
Sep 11 12:07:00 elephant kernel: [    3.155379] md/raid1:md2: active with 2 out of 2 mirrors
Sep 11 12:07:00 elephant kernel: [    3.155402] md2: detected capacity change from 0 to 1997014892544
Sep 11 12:07:00 elephant kernel: [    4.820181] systemd-udevd[455]: starting version 204
Sep 11 12:07:01 elephant kernel: [    5.189887]  md2: unknown partition table
Sep 11 12:07:01 elephant kernel: [    5.193870]  md0: unknown partition table
Sep 11 12:07:01 elephant kernel: [    5.197440]  md1: unknown partition table
Sep 11 12:07:01 elephant kernel: [    5.206789]  md3: unknown partition table
Sep 11 12:07:02 elephant mdadm[1497]: DeviceDisappeared event detected on md device /dev/md4

Nachdem ich das oben angeführte Script gestartet habe, kommt folgender Teil hinzu.
Code:
Sep 11 12:10:40 elephant kernel: [  239.683385] md: md4 stopped.
Sep 11 12:10:40 elephant kernel: [  239.684708] md: bind<md1>
Sep 11 12:10:40 elephant kernel: [  239.685872] md: bind<md2>
Sep 11 12:10:40 elephant kernel: [  239.686059] md: bind<md3>
Sep 11 12:10:40 elephant kernel: [  239.686252] md: bind<md0>
Sep 11 12:10:40 elephant kernel: [  239.691837] md/raid0:md4: md_size is 15601676288 sectors.
Sep 11 12:10:40 elephant kernel: [  239.691839] md: RAID0 configuration for md4 - 1 zone
Sep 11 12:10:40 elephant kernel: [  239.691840] md: zone0=[md0/md1/md2/md3]
Sep 11 12:10:40 elephant kernel: [  239.691860] md4: detected capacity change from 0 to 7988058259456
Sep 11 12:10:40 elephant kernel: [  239.692608]  md4: unknown partition table
Sep 11 12:10:40 elephant kernel: [  240.213607] EXT4-fs (md4): mounted filesystem with ordered data mode. Opts: (null)
 
Zuletzt bearbeitet:
Mal auf den Mismatch Counter für alle Devices md0-md3 gesschaut ?
Dein RAID10 ist ja auch nicht wirklich optimal und gut zu warten.Normal wird das RAID10 direkt mit den Platten erstellt.
Du hast ein Nested RAID und aus 4 vorhandenen RAID´s gestaltet.Wie ich finde ziemlich Fehleranfällig ist.Sollte zwar auch Funktionieren aber wie es scheint nicht stabil.

PS: Der Overhead RAID in RAID ist auch viel größer für das System.
 
Zuletzt bearbeitet:
Ja, das ist schon ein Problem.. momentan liegen aber auch noch einige Daten drauf, wenn ich die gesichert habe, erstelle ich es neu.
Wie kann ich den Mismatch Counter einsehen?
 
Code:
martin@elephant:/samba/share5/share5$ cat /sys/block/md0/md/mismatch_cnt
0
martin@elephant:/samba/share5/share5$ cat /sys/block/md1/md/mismatch_cnt
0
martin@elephant:/samba/share5/share5$ cat /sys/block/md2/md/mismatch_cnt
0
martin@elephant:/samba/share5/share5$ cat /sys/block/md3/md/mismatch_cnt
0
martin@elephant:/samba/share5/share5$ cat /sys/block/md4/md/mismatch_cnt
cat: /sys/block/md4/md/mismatch_cnt: Datei oder Verzeichnis nicht gefunden

MD4 ist das Raid 0.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh