Debian mdadm State : removed Brauche schnelle Hilfe

NiclasM

Enthusiast
Thread Starter
Mitglied seit
06.02.2007
Beiträge
4.331
Ort
Dortmund
Hi

Undzwar habe ich gesten eine neue Samsung F3 ins RAID5 einbinden lassen.
Hat auch alles gut geklappt , nur nachdem ich neugestartet habe hat das BIOS immer bei der Platte gehängt und wurde nichtmehr erkannt im BIOS / OS.

Habe jetzt ein anderes SATA Kabel genommen und Sie wird vom OS / BIOS wieder erkannt , nur bei mdadm --detail /dev/md0 steht bei der Platte


Zeus:~# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90
Creation Time : Fri Sep 11 18:00:41 2009
Raid Level : raid5
Array Size : 3907039744 (3726.04 GiB 4000.81 GB)
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Raid Devices : 5
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Sat Oct 17 16:08:51 2009
State : clean, degraded
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 64K

UUID : 97f5d4fb:2f9da94a:4b9062e0:a0bd6cbd
Events : 0.1302440

Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 65 3 active sync /dev/sde1
4 0 0 4 removed


mit mdadm /dev/md0 --remove /dev/sdf1 gehts auchnit , da er dann sagt :

Zeus:~# mdadm /dev/md0 --remove /dev/sdf1
mdadm: cannot find /dev/sdf1: No such file or directory


Bitte helft mir schnell ^^

Bisher sind keine Neuen Daten im RAID gelandet...

unter Gparted wird die Platte so angezeigt :



---------- Beitrag hinzugefügt um 16:28 ---------- Vorheriger Beitrag war um 16:12 ----------

Ok ich glaube ich habs geschafft :

Lösung :

neue Platte Formatieren und wieder mit mdadm --add /dev/md0 /dev/sdf1

Und jetzt wird mir mit mdadm --detail /dev/md0 :

Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 65 3 active sync /dev/sde1
5 8 81 4 spare rebuilding /dev/sdf1
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Formatieren ist nicht notwendig. Es muss zumindest eine Partitionstabelle vorhanden sein.

Mit "cat /proc/mdstat" kannst du dir ausgeben lassen , wie weit der sync ist. Wo ich das gerade lese, ist es richtig, dass die sdf1 eine spare sein soll? wenn nein, dann musst du mit
mdadm manage --grow --raid-devices=5 /dev/md0 die Anzahl der Raid devices erhöhen.

ob die syntax so genau stimmt kann ich jetzt nicht sagen ;) sollte aber fasst hinkommen
 
Zeus:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sdf1[5] sdb1[0] sde1[3] sdd1[2] sdc1[1]
3907039744 blocks level 5, 64k chunk, algorithm 2 [5/4] [UUUU_]
[===============>.....] recovery = 75.5% (738243968/976759936) finish=47.0min speed=84464K/sec

unused devices: <none>



Also Theoretisch habe ich die Platte aus dem RAID wo er meinte die wäre "removed" nicht rausgelöscht da das nicht ging. Habe Sie formatiert als ext3 und sie ins RAID eingebunden. Dann hat er sie als Spare Platte erkannt und sofort mit dem Rebuilden angefangen. Alles wieder fit dannach würd ich sagen
 
als "Raid Detection" sollte man die Platte schon formatieren.

formatieren ist hier wohl falsch ausgedrückt ;) man gibt lediglich der partition den typ "raid autodetect" formatiert wird da an sich nichts. Formatieren wäre hier etwas wie ein Dateisystemanlegen, was aber nicht benötigt wird, da mdadm dieses eh wieder überschreiben würde.
 
formatieren ist hier wohl falsch ausgedrückt ;) man gibt lediglich der partition den typ "raid autodetect" formatiert wird da an sich nichts. Formatieren wäre hier etwas wie ein Dateisystemanlegen, was aber nicht benötigt wird, da mdadm dieses eh wieder überschreiben würde.

ok klar formatieren kann man es nicht nennen, aber wie soll man es den dann bezeichnen?
 
partionieren :bigok:
 
Die Platte wird schonwieder als Removed angezeigt -.-

Zeus:~# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90
Creation Time : Fri Sep 11 18:00:41 2009
Raid Level : raid5
Array Size : 3907039744 (3726.04 GiB 4000.81 GB)
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Raid Devices : 5
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Mon Oct 19 10:43:21 2009
State : clean, degraded
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 64K

UUID : 97f5d4fb:2f9da94a:4b9062e0:a0bd6cbd
Events : 0.1302682

Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 65 3 active sync /dev/sde1
4 0 0 4 removed


Dann wird die Platte echt kapput sein oder ?

Wobei die Platte nun wie die anderen RAID Platten als Filesystem unknown angezeigt werden...

Was soll ich nur machen :( ?

---------- Beitrag hinzugefügt um 10:49 ---------- Vorheriger Beitrag war um 10:44 ----------

in der /etc/mdadm/mdadm.conf steht immernoch 4 Devices , ich glaube es hängt daran...
 
Zuletzt bearbeitet:
Binde die Platte mal wieder ins raid ein und mache anschließend ein:

mdadm --examine --scan

die dann ausgespuckten Zeilen kopierst du einfach in die mdadm.conf bzw überschreibst die alten.

---------- Beitrag hinzugefügt um 18:16 ---------- Vorheriger Beitrag war um 18:15 ----------

Ggf die Initrd noch neubauen, da der Kernel sonst nicht weiß, wie sich das RAID zusammensetzt.
 
Wie kann ich die Initrd neu aufbauen ?
Server ist gerade am "spare rebuilding"

Was ich gemerkt hatte , ich hatte die neu Platte immer mit msdos formatiert, habe jetzt mal gpt genommen so wie die anderen auch sind...

Sind noch paar Minuten. Hatte die mdadm.conf schon geupdatet aber hmm mal gucken. Es läuft immer bis zum neustart
 
Binde die Platte mal wieder ins raid ein und mache anschließend ein:

mdadm --examine --scan

die dann ausgespuckten Zeilen kopierst du einfach in die mdadm.conf bzw überschreibst die alten.

---------- Beitrag hinzugefügt um 18:16 ---------- Vorheriger Beitrag war um 18:15 ----------

Ggf die Initrd noch neubauen, da der Kernel sonst nicht weiß, wie sich das RAID zusammensetzt.


So gerade gemacht , was du gesagt hast aber hat nix gebracht...
Selbst mit GPT bringt das nix -.-

Beim besten willen weiß ich nicht woran das hängt.

im syslog werden die platten anerkannt...

Ich poste mal einfach mein syslog , evtl. erkennst du ja was draus...

Passwörter sind darin ja nicht enthalten. Habe mermals neugestartet...

http://muellersserver.dyndns.org/text

Da der Syslog
 
Hilfe , das RAID lässt sich nichtmehr Starten

Syslog :


Oct 27 15:55:25 Zeus kernel: [ 799.782267] raid5: device sdb1 operational as raid disk 0
Oct 27 15:55:25 Zeus kernel: [ 799.782270] raid5: device sde1 operational as raid disk 3
Oct 27 15:55:25 Zeus kernel: [ 799.782272] raid5: device sdd1 operational as raid disk 2
Oct 27 15:55:25 Zeus kernel: [ 799.782273] raid5: device sdc1 operational as raid disk 1
Oct 27 15:55:25 Zeus kernel: [ 799.782275] raid5: cannot start dirty degraded array for md0
Oct 27 15:55:25 Zeus kernel: [ 799.782277] RAID5 conf printout:
Oct 27 15:55:25 Zeus kernel: [ 799.782278] --- rd:5 wd:4
Oct 27 15:55:25 Zeus kernel: [ 799.782280] disk 0, o:1, dev:sdb1
Oct 27 15:55:25 Zeus kernel: [ 799.782281] disk 1, o:1, dev:sdc1
Oct 27 15:55:25 Zeus kernel: [ 799.782282] disk 2, o:1, dev:sdd1
Oct 27 15:55:25 Zeus kernel: [ 799.782284] disk 3, o:1, dev:sde1
Oct 27 15:55:25 Zeus kernel: [ 799.782285] raid5: failed to run raid set md0
Oct 27 15:55:25 Zeus kernel: [ 799.782286] md: pers->run() failed ...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh