Software Raid (mdadm) wird nicht automatisch eingebunden

Cantor

Enthusiast
Thread Starter
Mitglied seit
28.05.2006
Beiträge
323
Hallo, ich habe unter der LiveCD von 10.10 ein RAID5 erstellt. Beim booten habe ich jedoch aktuell immer folgendes Problem:

~$cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sde1[2](S) sdg1[0](S) sdf1[1](S) sdd1[3](S) sdb1[4](S)
9767572072 blocks super 1.2
md_d127 : inactive sda1[6](S)
1953514414 blocks super 1.2
unused devices: <none>

Wie ihr seht, versucht Ubuntu immer eine Platte als eigenes RAID aufzubauen (sda1 @ md_d127).
~$ sudo mdadm --detail /dev/md0
mdadm: md device /dev/md0 does not appear to be active.

~$ sudo mdadm --stop /dev/md_d127
mdadm: stopped /dev/md_d127

~$ sudo mdadm --stop /dev/md0
mdadm: stopped /dev/md0

~$ sudo mdadm --assemble /dev/md0 /dev/sda1 /dev/sdb1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1
mdadm: /dev/md0 has been started with 6 drives.

~$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdg1[0] sda1[6] sdb1[4] sdd1[3] sde1[2] sdf1[1]
9767569920 blocks super 1.2 level 5, 512k chunk, algorithm 2 [6/6] [UUUUUU]
bitmap: 1/466 pages [4KB], 2048KB chunk
unused devices: <none>

Wenn ich also beide RAIDs manuelle stoppe, kann ich den md0-Verbung problemlos aus allen 6 Platten zusammenfügen. Ein reshaping wird nicht durchgeführt.

~$ sudo mdadm --detail --scan
ARRAY /dev/md0 level=raid5 num-devices=6 metadata=01.02 name=:10TB_RAID5 UUID=0d372c1e:26184f39:4b51ec0c:a106c982

Mich wundert, dass --examine ein " Array State: failed" ausspuckt.

$ sudo mdadm --examine /dev/sde1
mdadm: metadata format 1.02 unknown, ignored.
/dev/sde1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 0d372c1e:26184f39:4b51ec0c:a106c982
Name : :10TB_RAID5
Creation Time : Tue Mar 1 22:20:17 2011
Raid Level : raid5
Raid Devices : 6

Avail Dev Size : 3907028829 (1863.02 GiB 2000.40 GB)
Array Size : 19535139840 (9315.08 GiB 10001.99 GB)
Used Dev Size : 3907027968 (1863.02 GiB 2000.40 GB)
Data Offset : 272 sectors
Super Offset : 8 sectors
State : clean
Device UUID : f49f8385:bf3bc0da:0559000e:50e661df

Internal Bitmap : 8 sectors from superblock
Update Time : Sat Mar 5 21:30:43 2011
Checksum : e05c603a - correct
Events : 26541

Layout : left-symmetric
Chunk Size : 512K

Array Slot : 2 (0, 1, 2, 3, 4, failed, 5)
Array State : uuUuuu 1 failed

Wie schaffe ich es, dass mein RAID5 aus 6 Platten beim Start ordnungsgemäß eingebunden wird?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wenn du dein raid5 manuell zusammengebaut hast. mach mal das:

mdadm -D /dev/md0 | grep UUID

und noch ein "mdadm -E /dev/sdX" fuer alle 6 raid partitionen

die UUID des raid arrays sollte bei allen platten mit der UUID im superblock uebereinstimmen

wenn der superblock auf sda1 irgendwie was andres anzeigt, wuerd ich diese partition einfach mal mit 0en ueberschreiben (die ersten 100mb oder so) und/oder "mdadm --zero-superblock /dev/sda1" durchfuehren.
danach das raid5 mit einer missing platte starten und sda1 dem raid array wieder hinzufuegen -> dann wird ein rebuild ausgefuehrt und der superblock sollte richtig sein.
 
Zuletzt bearbeitet:
Die UUID stimmt bei allen Platten überein.
 
steht bei dmesg was intressantes bezueglich der arrays?
 
Nicht viel.

[ 2.538133] md: bind<sda1>
...
[ 10.045810] md: bind<sdf1>
[ 10.056197] md: bind<sdd1>
[ 10.061447] md: bind<sdb1>
[ 10.069794] md: bind<sde1>
...
[ 10.273443] md: bind<sdg1>

sda1 wird also relativ früh "gebindet", wohingegen die restlichen Devices erst zum Schluss gemeinsam "gebindet" werden.

Es gibt keine Fehlermeldung bezüglich dem Raid oder dergleichen.
 
hast du auf dem array schon was drauf?
sonst wuerd ichs einfach loeschen (also alle superblocks auf den partitionen) und neu erstellen.
 
Ja, auf dem Array ist schon was drauf. Hab jetzt in die rc.local die Einträge reingeschrieben. Ist nicht die sauberste Lösung, aber es funktioniert.
 
naja, das is eher ein workaround als ne loesung
sonst kannsts ja noch immer mal probiern die sda1 rausnehmen, superblock loeschen, und wieder reinstopfen. hast halt einen rebuild ...
 
Platte wurde soeben aus dem RAID Verbund genommen und anschließend in den Verbund wieder aufgenommen (Superblock wurde gelöscht). Jetzt der der rebuild, das dauert leider etwas. ich werde vermutlich erst morgen weiter berichten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh