Daten auf Intel SS4200 NAS nicht verfügbar

bar_ney

Neuling
Thread Starter
Mitglied seit
06.07.2005
Beiträge
48
Ich betreibe ein Raid 5 mit 4x Samsung 154UI in einem Intel Entry Storage System SS4200. Als Software kommt die mitgelieferte von EMC zum Einsatz.
Seit eben erhalte ich im Dashboard von der EMC Software die Mitteilung, dass die Daten auf meinem NAS nicht verfügbar sind:

Die Daten auf Ihrem Gerät sind nicht verfügbar. 4 Datenträger auf dem Gerät enthalten vorhandene Daten, die überschrieben werden müssen, um den Speicherplatz erneut zu aktivieren. Klicken Sie hier, um das Überschreiben vorhandener Daten zu genehmigen.




Was bedeutet das genau? Sind nach dem Überschreiben alle Daten weg?


Bin für jede Hilfe dankbar.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da hat's wohl dein Raid zerlegt - wieso, weshalb, warum kann ich nicht wissen.
Nach dem Überschreiben ( INIT) sind die Daten weg, also keine gute Idee, da hilft nur Platten ausbauen, alle gkeichzeitig (!) in den Rechner hängen und versuchen mit Datenrettung was zu erreichen...
Raid Recovery Software - reconstruct all types of corrupted RAID arrays
RAID Recovery, RAID Datenrettung, RAID Wiederherstellen

Und dann wäre da noch zu klären, welches Dateisystem das NAS einsetzt - ich vermute mal sowas "gemeines" wie extfs, was unter Windows erstmal nicht lesbar ist - gibt aber Tools, die Windows in die Lage versetzen.
Hier steige ich jetzt aus bevor ich irgendwelchen Blödsinn erzähle, da ich von Datenrettung in Verbindung mit Linux Dateisystemen keine Ahnung habe, ich denke mal, daß das Unter Windows gar nicht gehen wird.
ciao
Lothar
 
Zuletzt bearbeitet:
Puh, nicht gut. Hier mal das was ich machen würde:

1. Nichts unüberlegtes, außer die Daten sind nicht wichtig. Liest jetzt zuerst Punkt 27!
2. 4 gleiche oder größere Platten besorgen, der Typ ist erstmal egal, am besten von einem anderen Hesrteller, das vermeidet später Fehler.
3. Linux Rechner besorgen, oder eine Live CD von Ubuntu oder so brennen.
4. Festplatte 1 des NAS sowie die erste Ersatzplatte in einen Rechner einbauen.
5. Ubuntu oder welches Linux auch immer anbooten.
6. Terminalfenster aufmachen, root werden: "sudo su" oder so. "su" steht für SuperUser
7. "fdisk -l" eingeben. Die eingebauten Platten werden aufgelistet. Nun kommt die Stuntnummer: Den Inhalt der NAS Platte 1:1 auf die neue Platte kopieren und nicht umgekehrt.
8. Der Befehl lautet: dd if=/dev/sdX of=/dev/sdY bs=64k. Erklärung: "if" ist die Quelle, also deine INTEL NAS Platte, "of" das Ziel, also deine Ersatzplatte. "sdX" ist der Ort, unter dem Linux die INTEL NAS Platte einsortiert hat. "sdY" der Ort, unter dem Linux deine Ersatzplatte einsortiert hat. "X"und "Y" musst Du selbst zuordnen.
9. Dreimal kontrollieren ob Quelle und Ziel stimmt, ansonsten Feierabend.
10. Return drücken.
11. Waren bis das Komandozeilenprompt wieder kommt, das kann mehrere Stunden dauern.
12. Rechner runterfahren, Platten raus, auf die Ersatzplatte ein Postit "Platte1".
13. Dreimal wiederholen mit den anderen Platten.
14. Jetzt hast Du es fast geschafft, Du hast jetzt eine exakte Kopie der Daten.
15. Alle vier Ersatzplatten in einen Rechner einbauen und Linux booten.
16. Mit "cat /proc/mdstat" siehtst Du, ob Linux (wen es den ein Linux komaptibles RAID ist) das RAID erkennt und es schon selbst repariert.
17. Wenn ja, warten bis er fertig ist. Wenn nein:
18. Vermutlich sind auf den einzelnen Platten Partitionen eingerichtet, /dev/sdY1 oder /dev/sdY2 und so weiter. "fdisk -l" zeigt die einzelen Partitionen der Platten an.
19. Nun must Du versuchen, das RAID von Hand zu starten.
20. Auf der Console:" mdadm --assemble -v /dev/md3 /dev/sdY3 /dev/sdZ3 /dev/sdX3 /dev/sdV3"
21. Wenns Gut geht, dann hast Du ein RAID mit Namen /dev/md3 am Laufen. Schaue nach mit "cat /proc/mdstat". Eventuell wird es synchronisiert. Warte dann bis es fertig ist.
22. Wenn es nicht gut geht, zwinge mdadm es zu tun: "mdadm --assemble --force -v /dev/md3 /dev/sdY3 /dev/sdZ3 /dev/sdX3 /dev/sdV3"
23. Wenn es jetzt nicht klappt, hast Du verloren.
24. Wenn es klappt, solltest Du noch das Dateisystem checken. "fsck /dev/md3"
25. Wiederhole das mit jeder Partition, die auf den Platten drauf sind. 4 Partitionen pro Platte sind vermutlich 4 RAIDs. Für jedes RAID must Du natürlich einen anderen Namen wählen, wenn Du es wiederherstellen willst. /dev/md1 oder /dev/md2, oder /dev/md3 usw.
26. Wenn das auch durch ist, bau die Platten un dein NAS ein schließe mich in dein Nachtgebet ein. Falls Da ein spezial-Dateisystemdrauf ist, kann ich auch nicht helfen.
27. Jedesmal, wenn Du etwas versaut hast, musst Du alle Platten nochmals kopieren. Die ganzen Platten und nicht einzelne Partitionen drauf. Eine Platte heist "/dev/sdX", eine Partition heist "/dev/sdX1" oder /dev/sdX2".
 
Zuletzt bearbeitet:
Das nenn ich doch mal 'ne Anleitung, damit kann man sogar als nicht Linuxxer was anfangen (zumindest arbeite ich nicht ständig damit).
Meine Gebete begleiten dich :-)
ciao
Lothar
 
Vielen Dank für die ausführliche Erklärung. Ich habe jetzt 4 WD20EARX. Muss ich die neuen WD20EARX zuerst in irgendeiner Weise formatieren oder kann ich sie direkt einbauen und die Daten kopieren?
 
Nein, kein Formatieren notwendig. "dd" kopiert alles: Partitionstabelle, Dateisystem und Inhalt. Deshalb auch meine Warnung: Wenn Du dd in die falsche Richtung anwirfst, also "if" unf "of" vertauscht, werden lauter nullen auf deine NAS Platten geschrieben....
"if" ist Quelle, "of" ist Ziel. Ich will Dich nicht für blöd halten, aber mir ist das einmal passiert, ich hatte richtig schlechte Laune....
Poste doch mal den output von "fdisk -l", dann schaue ich mal drüber.
Sollte so ungefähr aussehen:

Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0006d0df

Device Boot Start End Blocks Id System
/dev/sdb1 1 122 976560 83 Linux
/dev/sdb2 122 4175 32552728 83 Linux
/dev/sdb3 4175 4296 976560 83 Linux
/dev/sdb4 4296 4299 19528 83 Linux

Ich habe hier vier Partitionen auf der /dev/sdb. Die ist sdb ist 1TB groß.

Zweite Aufgabe:

Printe den Output des Befehls "mdadm -E /dev/sdX1". "mdadm-E /dev/sdX1" liefert die RAID Informationen der Partition 1 auf der Platte sdX, wie X bei dir auch immer lautet. der Output sieht so ungefähr aus:
# mdadm -E /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : ca685c07:2933017c:8e2a0726:64112ea0
Name : LinuxRAID:1
Creation Time : Thu Dec 8 13:51:43 2011
Raid Level : raid1
Raid Devices : 4

Avail Dev Size : 1953096 (953.82 MiB 999.99 MB)
Array Size : 1953096 (953.82 MiB 999.99 MB)
Data Offset : 24 sectors
Super Offset : 8 sectors
State : clean
Device UUID : 312d2be0:18458c1b:362dea19:2e80bae1

Update Time : Thu Dec 8 13:52:16 2011
Checksum : 6e5c6018 - correct
Events : 17


Device Role : Active device 0
Array State : AAAA ('A' == active, '.' == missing)


Die zweitletzte Zeile (btw: Ich gehe hier fest davon aus, das es ein Linix RAID ist, aber wissen tu ich es nicht), sagt, ob das Device axtive war oder zerstört wurde, als der chrash bei Dir anfing. Bei vier Platten wäre es richtig gut, wenn mindestens drei auf active stünden.
 
Zuletzt bearbeitet:
Dann habe ich bis jetzt alles richtig gemacht. Habe bereits alle 4 HDD´s erfolgreich kopiert. Die unterschiedlichen Größen der HDD´s sind normal im Raid 5?

HDD1: 797GB
HDD2: 1,5TB
HDD3: 1,5TB
HDD4: 806GB
 
Ups, nein, das sind sie nicht. Wenn das ein RAID5 war, dann ist die nutzbare Kapazität 797GB x 3 = 2,4 TB gewesen. Hast Du das Ding so neu gekauft?
 
Zuletzt bearbeitet:
Ich habe das Gehäuse und die 4x Samsung 154UI gesondert gekauft und selber eingebaut. Wäre die nutzbare Kapazität im Raid 5 nicht: (4-1)*1500GB = 4500GB ?

Den mdadm Befehl kann ich leider nicht ausführen, da ich eine Ubuntu Live CD laufen habe und das Programm nicht installiert ist. Aber ich kann doch sicherlich mit deinem Punkt 17 fortfahren und mal sehen, was passiert?

---------- Post added at 21:35 ---------- Previous post was at 20:13 ----------

Hier sind die Ausgaben zu deinen Befehlen für die WD20EARX:


fdisk -l

Code:
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xcbf92f28

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1              63  2930272064  1465136001   83  Linux
Partition 1 does not start on physical sector boundary.

Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xcbf92f2a

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1              63  2930272064  1465136001   83  Linux
Partition 1 does not start on physical sector boundary.

Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x7dc421a5

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1              63  2930272064  1465136001   83  Linux
Partition 1 does not start on physical sector boundary.

Disk /dev/sde: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xcbf92f2b

   Device Boot      Start         End      Blocks   Id  System
/dev/sde1              63  2930272064  1465136001   83  Linux
Partition 1 does not start on physical sector boundary.


mdadm -E /dev/sda1

Code:
mdadm: No md superblock detected on /dev/sda1.


mdadm -E /dev/sdd1

Code:
/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 62992dcf:5d731a59:e6691b63:4796c598
  Creation Time : Fri May 15 04:24:42 2009
     Raid Level : raid5
  Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)
     Array Size : 4395407808 (4191.79 GiB 4500.90 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Mon Jan  2 22:57:35 2012
          State : clean
 Active Devices : 2
Working Devices : 3
 Failed Devices : 1
  Spare Devices : 1
       Checksum : 879d302f - correct
         Events : 66098

         Layout : left-asymmetric
     Chunk Size : 32K

      Number   Major   Minor   RaidDevice State
this     1     254        1        1      active sync

   0     0       0        0        0      removed
   1     1     254        1        1      active sync
   2     2     254        2        2      active sync
   3     3       0        0        3      faulty removed
   4     4     254        3        4      spare


mdadm -E /dev/sdc1

Code:
/dev/sdc1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 62992dcf:5d731a59:e6691b63:4796c598
  Creation Time : Fri May 15 04:24:42 2009
     Raid Level : raid5
  Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)
     Array Size : 4395407808 (4191.79 GiB 4500.90 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Mon Jan  2 22:57:35 2012
          State : clean
 Active Devices : 2
Working Devices : 3
 Failed Devices : 1
  Spare Devices : 1
       Checksum : 879d3032 - correct
         Events : 66098

         Layout : left-asymmetric
     Chunk Size : 32K

      Number   Major   Minor   RaidDevice State
this     2     254        2        2      active sync

   0     0       0        0        0      removed
   1     1     254        1        1      active sync
   2     2     254        2        2      active sync
   3     3       0        0        3      faulty removed
   4     4     254        3        4      spare


mdadm -E /dev/sde1
Code:
mdadm: No md superblock detected on /dev/sde1.


cat /proc/mdstat

Code:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md127 : inactive sdc1[2](S) sdd1[1](S)
      2930271872 blocks
      
unused devices: <none>
 
Zuletzt bearbeitet:
Oh je, ich glaube das wird, wenn überhaupt noch was zu machen ist, 'ne "Operation am offenen Herzen"!
Es sind offenbar 2 Disks raus..... Der Supergau für ein Raid 5

mdadm: No md superblock detected on /dev/sda1.
mdadm: No md superblock detected on /dev/sde1.

Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1

3 3 0 0 3 faulty removed
4 4 254 3 4 spare

dazu passt dann auch Dieses, wobei ich die Grössenangaben grade gar nicht verstehe, wo sind die abgelesen / ausgegeben worden?
HDD1: 797GB
HDD2: 1,5TB
HDD3: 1,5TB
HDD4: 806GB

Da ist was mächtig kaputt gegangen!
Ich stelle mir daß so vor, daß erst eine Platte rausgeflogen ist, und während des rebuilds die 2. geflogen ist, die Platte die als erstes geflogen ist, dürfte jetzt vermutlich die SPARE sein...
99% aller Raids sterben beim Rebuild!

ciao
Lothar
 
Zuletzt bearbeitet:
dazu passt dann auch Dieses, wobei ich die Grössenangaben grade gar nicht verstehe, wo sind die abgelesen / ausgegeben worden?
HDD1: 797GB
HDD2: 1,5TB
HDD3: 1,5TB
HDD4: 806GB

Sobald der Kopiervorgang abgeschlossen ist, steht die übertragene Datenmenge, Laufzeit sowie Kopiergeschwindigkeit im Terminal-Fenster.

Ich habe nochmal die 4 Samsung 154UI, die aus dem NAS sind, an den PC angeschlossen und die Befehle ausgeführt. Hier sieht es besser aus als bei den WD20EARX ?

fdisk -l

Code:
Disk /dev/sda: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders, total 2930277168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0xcbf92f28

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1              63  2930272064  1465136001   83  Linux

Disk /dev/sdc: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders, total 2930277168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x7dc421a5

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1              63  2930272064  1465136001   83  Linux

Disk /dev/sdd: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders, total 2930277168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0xcbf92f2a

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1              63  2930272064  1465136001   83  Linux

Disk /dev/sdb: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders, total 976773168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00086d7b

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *        2048   968384511   484191232   83  Linux
/dev/sdb2       968386558   976771071     4192257    5  Extended
/dev/sdb5       968386560   976771071     4192256   82  Linux swap / Solaris

Disk /dev/sde: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders, total 2930277168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0xcbf92f2b

   Device Boot      Start         End      Blocks   Id  System
/dev/sde1              63  2930272064  1465136001   83  Linux


mdadm -E /dev/sda1

Code:
/dev/sda1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 62992dcf:5d731a59:e6691b63:4796c598
  Creation Time : Fri May 15 04:24:42 2009
     Raid Level : raid5
  Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)
     Array Size : 4395407808 (4191.79 GiB 4500.90 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Mon Jan  2 22:57:35 2012
          State : clean
 Active Devices : 2
Working Devices : 3
 Failed Devices : 1
  Spare Devices : 1
       Checksum : 879d3031 - correct
         Events : 66098

         Layout : left-asymmetric
     Chunk Size : 32K

      Number   Major   Minor   RaidDevice State
this     4     254        3        4      spare

   0     0       0        0        0      removed
   1     1     254        1        1      active sync
   2     2     254        2        2      active sync
   3     3       0        0        3      faulty removed
   4     4     254        3        4      spare


mdadm -E /dev/sdc1

Code:
/dev/sdc1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 62992dcf:5d731a59:e6691b63:4796c598
  Creation Time : Fri May 15 04:24:42 2009
     Raid Level : raid5
  Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)
     Array Size : 4395407808 (4191.79 GiB 4500.90 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Mon Jan  2 22:57:35 2012
          State : clean
 Active Devices : 2
Working Devices : 3
 Failed Devices : 1
  Spare Devices : 1
       Checksum : 879d3032 - correct
         Events : 66098

         Layout : left-asymmetric
     Chunk Size : 32K

      Number   Major   Minor   RaidDevice State
this     2     254        2        2      active sync

   0     0       0        0        0      removed
   1     1     254        1        1      active sync
   2     2     254        2        2      active sync
   3     3       0        0        3      faulty removed
   4     4     254        3        4      spare


mdadm -E /dev/sdd1

Code:
/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 62992dcf:5d731a59:e6691b63:4796c598
  Creation Time : Fri May 15 04:24:42 2009
     Raid Level : raid5
  Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)
     Array Size : 4395407808 (4191.79 GiB 4500.90 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Mon Jan  2 22:57:35 2012
          State : clean
 Active Devices : 2
Working Devices : 3
 Failed Devices : 1
  Spare Devices : 1
       Checksum : 879d302f - correct
         Events : 66098

         Layout : left-asymmetric
     Chunk Size : 32K

      Number   Major   Minor   RaidDevice State
this     1     254        1        1      active sync

   0     0       0        0        0      removed
   1     1     254        1        1      active sync
   2     2     254        2        2      active sync
   3     3       0        0        3      faulty removed
   4     4     254        3        4      spare


mdadm -E /dev/sde1

Code:
/dev/sde1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 62992dcf:5d731a59:e6691b63:4796c598
  Creation Time : Fri May 15 04:24:42 2009
     Raid Level : raid5
  Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)
     Array Size : 4395407808 (4191.79 GiB 4500.90 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Mon Jan  2 22:45:32 2012
          State : clean
 Active Devices : 3
Working Devices : 4
 Failed Devices : 1
  Spare Devices : 1
       Checksum : 879d2d2a - correct
         Events : 66080

         Layout : left-asymmetric
     Chunk Size : 32K

      Number   Major   Minor   RaidDevice State
this     0     254        0        0      active sync

   0     0     254        0        0      active sync
   1     1     254        1        1      active sync
   2     2     254        2        2      active sync
   3     3       0        0        3      faulty removed
   4     4     254        3        4      spare


cat /proc/mdstat

Code:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md127 : inactive sdc1[2](S) sdd1[1](S) sda1[4](S) sde1[0](S)
      5860543744 blocks
      
unused devices: <none>


Im Disk Utiliy werden 2 154UI mit einigen defekten Sektoren angezeigt, die anderen beiden als healthy:





Das RAID-5 Array wird so ausgegeben:




Ist hier noch etwas zu retten?
 
Die Frage aller Fragen lautet, ist eine der beiden fehlenen Platten noch "Synchron" zu den beiden intakten Platten - theoretisch müsste ja die zuletzt rausgeflogene Platte in Sync sein, bis auf die deffekten Sektoren, aber da das ganze ja vermutlich während des Rebuilds stattgefunden hat, befürchte ich, daß da ohne professionelle Datenrettung nichts zu machen sein wird.
ich klinke mich mangels Linux Efahrung wieder aus und lese weiter interessiert mit!
Ich muss halt ab und zu meinen "Senf" dazugeben und meine Überlegungen mitteilen, Sorry!
 
Viele Informationen, ich sage mal was ich sehe:

- Das RAID war ein Linux RAID im Modus 5. Jede Platte ist 1,5TB gross und dadurch ergibt sich eine RAID Größe von (4-1)*1,5TB = 4,5TB. Das Passt auch mit der Ausgabe von mdadm -E zusammen:

**************
Raid Level : raid5
Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)
Array Size : 4395407808 (4191.79 GiB 4500.90 GB)
Raid Devices : 4
Total Devices : 4
***************
Jede Platte hat eine Partition in der Größe 1,5TB und da war ein RAID 5 drauf. Zwei Platten sind defekt.
Das mit den defekten Sektoren ist nicht wirklich gut.
Jetzt müssen wir würfeln...
Baue die WD platten wieder ein. Dort sind ja keine defekten Sektoren drauf, aber dafür vermutlich Datenmüll an der Stelle. Die Daten dort sind vermutlich weg.
Jetzt musst Du mdadm zwingen, aus den 4 Platten wieder ein RAID zu bauen.
Bevor wir das tun, noch ein paar Erklärungen was passiert:
- Ich vermute, die Platten sind zu unterschiedlichen Zeiten gestorben
- wenn wir alle 4 Platten wieder zu einem RAID einbinden, wird das Dateisystem sehr wahrscheinlich schon an Odins Tafel speisen, da unterschiedliche Daten drauf sind.
- Wir wissen zu dem Zeitpunkt noch nicht, welches Dateisystem drauf ist, das ist noch Baustelle.
- Idealerweise nehmen wir also die zwei funktionierenden Platten und eine defekte und versuchen damit ein RAID 5 aufzubauen, bestehend aus 4 Platten und eine fehlt.
- Ich gehe im Folgenden davon aus, das die Partitionen sda1, sdb1, sdc1 heißen.

Hier der Befehl:
mdadm --assemble --force -v /dev/md1 /dev/sda1 /dev/sdb1 /dev/sdc1

Poste bitte die Ausgabe.
Jetzt sollte das RAID mit einer fehlenden Platte hochkommen.
Gib "cat /proc/mdstat" ein, poste bitte das Ergebnis.

- Wenn da alles in Ordnung ist, müssen wir rausfinden, welches Dateisystem drauf ist und in welchem Zustand es ist.
- Wenn nicht, kopiere sicherheitshalber nochmals die Platten und beginne dann gleich mit der zweiten freien Platte und den beiden Funktionierenden.
Gib bitte "fsck /dev/md1" ein. Das kann zienlich lange dauern. Jetzt versucht der Pinguin, das Dateisystem wider zu fixen. Alle Daten, die er nicht wieder zusammenfügen kann, legt er unter dem Ordner "/Lost+Found" ab. Je kleiner der ist, umso besser.

Vermutlich ist ein Ext3 oder ein XFS drauf. bei XFS ist der Befehl " xfs_check /dev/md1" wenn der nicht durchläuft, müssen wir das gr0ße Besteck anwenden.
falls alles klappt, erstelle eun Verzeichnis: "mkdir /WieAuchImmer" und mounte das RAID under dem Verzeichnis. " mount /dev/md1 /WieAuchImmer". Prüfe, ob die Daten da sind.Kopiere die Wichtigsten auf eine externe Platte. Nimm nicht die Samsung, die brauchen wir vielleicht noch.

Noch ist genug Hoffnung da!
 
Ich habe es jeweils mit einer der beiden HDD´s mit defekten Sektoren probiert:

sda1: mdadm: No md superblock detected on /dev/sda1.
sdb1: mdadm: No md superblock detected on /dev/sdb1.
sdc1: intakt
sde1: intakt


mdadm --assemble --force -v /dev/md1 /dev/sda1 /dev/sdc1 /dev/sde1

Code:
mdadm: looking for devices for /dev/md1
mdadm: no recogniseable superblock on /dev/sda1
mdadm: /dev/sda1 has no superblock - assembly aborted

mdadm --assemble --force -v /dev/md1 /dev/sdb1 /dev/sdc1 /dev/sde1

Code:
mdadm: looking for devices for /dev/md1
mdadm: no recogniseable superblock on /dev/sdb1
mdadm: /dev/sdb1 has no superblock - assembly aborted
 
Zuletzt bearbeitet:
Ok, noch habe ich ideen :-) Was daran liegt, dass ich da auch schon durch bin...
Jetzt legen wir einfach ein neues RAID an über alle vier Platten. Der Superblock ist wohl wirklich weg.
Was passiert?
- Wir erzeugen ein neus RAID 5 über vier Platten mit der alten RAID Geometrie.
- Wir sagen mdadm, er soll das RAID nur neu anlegen und nicht neu syncen. dadurch ist der Zustand der Daten noch vorhanden, nur die Superblöcke werden neu geschrieben.
- Jetzt müssen wir raten:
1. Das Dateisystem ist in Ordnung, es wurde also nichts mehr geschrieben, als schon eine Platte weg war. Best Case
2. Das Dateisystem ist bugy, weil geschrieben wurde als Platte 3 weg war.
3. Das Dateisystem ist buggy, weil geschrieben wurde als Platte 4 weg war.
Diese drei Fälle können passiert sein.
Wir raten und tippen, das Fall drei eingetreten ist. Platte 4 ist eine von den beiden, die keinen Superblock mehr haben.
Deshalb bauen wir das RAID mit allen 4 Platten zusammen schalten den Rechner aus und entfernen Platte 4. Dann schalten wir wieder ein, das RAID ist defekt, wir schalten den Rechner wieder aus, bauen Platte vier ein und schalten wieder ein. Platte vier wird wieder in das RAID eingebaut. der Vorteil gebenüber Fall 1 ist, das der Fall eins in Fall 3 beinhaltet ist.
Das Dateisystem anschliessend mounten und die Ausgabe posten. Wenns rumpelt, fsck usw, wie oben beschrieben. Wenn der fsck auch scheitert, das gleiche Spiel wie eben beschrieben, nur mit PLatte 3.

So, nun zu dem Befehl, wie man tote Linux RAIDs zum Leben erweckt:

mdadm --create /dev/md1--run --spare-devices=0 --chunk=32 --assume-clean --metadata=0.90 --level=5 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1

Die Chunksize ist die, die mdadm-E ausgeworfen hat und die metadata Version wurde ebenfalls oben von Dir angegeben. Müsste also alles passen. Die Partitionen musst Du aber selbst prüfen.

Wenn alles klappt und du es auch noch verstanden hast was Du tust, dann klopf Dir auf die Schulter. Das ist deutlich mehr als nur "Mausschubsen am Computer" :-)
 
Zuletzt bearbeitet:
Ich mache also folgendes?

1. 4 WD20EARX einbauen und den PC wieder booten.
2. Befehl ausführen: mdadm --create /dev/md1--run --spare-devices=0 --chunk=32 --assume-clean --metadata=0.90 --level=5 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
 
Hat wohl nicht funktioniert:

mdadm --create /dev/md1--run --spare-devices=0 --chunk=32 --assume-clean --metadata=0.90 --level=5 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sde1

Code:
mdadm: super0.90 cannot open /dev/sdc1: Device or resource busy
mdadm: /dev/sdc1 is not suitable for this array.
mdadm: super0.90 cannot open /dev/sde1: Device or resource busy
mdadm: /dev/sde1 is not suitable for this array.
mdadm: create aborted
 
was mich wundert, ist die Tatsache, daß auf den "Originalplatten" der Superblock auf allen 4 Plattern vorhanden zu sein scheint (Post #11), und auf den per DD kopierten Platten auf 2 Disks fehlt (Post#9), mich dünkt, da ist was schiefgelaufen....!
 
Hmm, Kann es sein, das das Ubuntu im vorauseilendem Gehorsam die beiden Platten mit RAID Signatur versucht hat zu aktivieren? Schau mal mit cat /proc/mdstat nach. Wenn ja, stope das entsprechende device mit "mdadm -S /dev/mdX"
 
Sieht nicht gut aus?


cat /proc/mdstat

Code:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md127 : inactive sdc1[2](S) sde1[1](S)
      2930271872 blocks
       
unused devices: <none>


mdadm -S /dev/sdc1

Code:
mdadm: /dev/sdc1 does not appear to be an md device


mdadm -S /dev/sde1

Code:
mdadm: /dev/sde1 does not appear to be an md device
 
Doch. Da läuft ein RAID. Stoppen mit "mdadm -S /dev/md127 und weiter wie in Posting 15 beschrieben.
 
Hat funktioniert. Wie muss ich weiter vorgehen?


mdadm --create /dev/md/md1--run --spare-devices=0 --chunk=32 --assume-clean --metadata=0.90 --level=5 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sde1

Code:
mdadm: /dev/sdc1 appears to be part of a raid array:
    level=raid5 devices=4 ctime=Fri May 15 04:24:42 2009
mdadm: /dev/sde1 appears to be part of a raid array:
    level=raid5 devices=4 ctime=Fri May 15 04:24:42 2009


Continue creating array? y

Code:
mdadm: array /dev/md/md1--run started.
 
Jetzt versuche es mal zu mounten. "mkdir /nas" Danach "mount /dev/md1 /nas"

---------- Post added at 09:22 ---------- Previous post was at 09:19 ----------

Poste den Output. wenn es keinen Fehler gab, poste bitte die Ausgabe von "mount"
 
Läuft aus irgendeinem Grund unter md126:

fdisk -l

Code:
Disk /dev/md126: 4500.9 GB, 4500897595392 bytes
2 heads, 4 sectors/track, 1098851952 cylinders, total 8790815616 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 32768 bytes / 98304 bytes
Alignment offset: 512 bytes
Disk identifier: 0x00000000

Disk /dev/md126 doesn't contain a valid partition table


cat /proc/mdstat

Code:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md126 : active raid5 sde1[3] sdc1[2] sdb1[1] sda1[0]
      4395407808 blocks level 5, 32k chunk, algorithm 2 [4/4] [UUUU]
      
unused devices: <none>


mkdir /nas


mount /dev/md1 /nas

Code:
mount: special device /dev/md1 does not exist


mount /dev/md126 /nas

Code:
mount: unknown filesystem type 'LVM2_member'
 
Grummel, die haben auch nichts ausgelassen. Da ist ein Logical Volume drauf. Ist LVM2 unter deinem Linux verfügbar? Es sollte dann einen Befehl wie z.B. pvcreate geben

Wenn ja, gib mal "pvs" ein und poste bitte wieder

---------- Post added at 12:27 ---------- Previous post was at 12:25 ----------

Oder gleichwertig " pvdisplay"
 
Habe es installiert, nun gehen die Befehle:


pvs

Code:
  Found duplicate PV dV55TEQIlKunJN3pmw4Ow4ejjaNlvFLH: using /dev/sdb1 not /dev/sda1
  WARNING: Physical Volume /dev/sde1 is too large for underlying device
  PV         VG           Fmt  Attr PSize PFree
  /dev/md126 md0Container lvm2 a-   4.09t    0 
  /dev/sde1  md0Container lvm2 a-   4.09t    0


pvdisplay

Code:
Found duplicate PV dV55TEQIlKunJN3pmw4Ow4ejjaNlvFLH: using /dev/sdb1 not /dev/sda1
  WARNING: Physical Volume /dev/sde1 is too large for underlying device
  --- Physical volume ---
  PV Name               /dev/md126
  VG Name               md0Container
  PV Size               4.09 TiB / not usable 6.44 MiB
  Allocatable           yes (but full)
  PE Size               32.00 MiB
  Total PE              134137
  Free PE               0
  Allocated PE          134137
  PV UUID               dV55TE-QIlK-unJN-3pmw-4Ow4-ejja-NlvFLH
   
  --- Physical volume ---
  PV Name               /dev/sde1
  VG Name               md0Container
  PV Size               4.09 TiB / not usable 2.73 TiB
  Allocatable           yes (but full)
  PE Size               32.00 MiB
  Total PE              134137
  Free PE               0
  Allocated PE          134137
  PV UUID               iqUuVZ-FzRn-moYl-r35I-k31h-mLJb-UaGI5W
 
Was das Volume auf /dev/sde1 soll. ist mir schleierhaft. Sind nicht alle 4 Platten im RAID? Wenn ja, gut, wenn nicht wo zum Teufel kommt die sde1 her?
Poste bitte mal "cat /proc/mdstat" sowie "lvdisplay /dev/md0Container" md0Container ist wohl der Name des Logical Volumes auf dem NAS. Das Problem wird jetzt sein, das beide physikalischen Volumes den gleichen Namen haben.
das logische Volume auf dem physikalischen Volume /dev/sde1 ist aber defekt, weil viel zu groß.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh