ubuntuusers.de

Soft Raid 5 degraded

Status: Ungelöst | Ubuntu-Version: Server 10.04 (Lucid Lynx)
Antworten |

pilleslife

Anmeldungsdatum:
11. September 2010

Beiträge: 13

Hallo zusammen,

ich habe ein großes Problem mit dem Software Raid 5 auf meinem Ubuntu-System (mdadm). Das Array besteht aus 6 Festplatten, von denen jetzt eine ausgefallen ist. Leider stehe ich nun vor dem Problem, dass ich die restlichen 5 nicht mehr zu einem Array zusammenbauen kann:

mdadm --assemble /dev/md/127_0 /dev/sdf1 /dev/sde1 /dev/sdd1 /dev/sdb /dev/sda1 -v
mdadm: looking for devices for /dev/md/127_0
mdadm: /dev/sdf1 is identified as a member of /dev/md/127_0, slot 0.
mdadm: /dev/sde1 is identified as a member of /dev/md/127_0, slot 1.
mdadm: /dev/sdd1 is identified as a member of /dev/md/127_0, slot 3.
mdadm: /dev/sdb is identified as a member of /dev/md/127_0, slot 4.
mdadm: /dev/sda1 is identified as a member of /dev/md/127_0, slot 2.
mdadm: added /dev/sde1 to /dev/md/127_0 as 1
mdadm: added /dev/sda1 to /dev/md/127_0 as 2
mdadm: failed to add /dev/sdd1 to /dev/md/127_0: Invalid argument
mdadm: added /dev/sdb to /dev/md/127_0 as 4
mdadm: no uptodate device for slot 5 of /dev/md/127_0
mdadm: added /dev/sdf1 to /dev/md/127_0 as 0
mdadm: /dev/md/127_0 assembled from 4 drives - not enough to start the array.

Die betroffene Platte zeigt:

mdadm --examine /dev/sdd1
/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : ebef6e3a:9c5e32ed:9ef9defe:407a6f51
  Creation Time : Mon Aug 30 22:57:40 2010
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 4883799680 (4657.55 GiB 5001.01 GB)
   Raid Devices : 6
  Total Devices : 6
Preferred Minor : 0

    Update Time : Sun Apr 17 18:34:52 2011
          State : clean
 Active Devices : 6
Working Devices : 6
 Failed Devices : 0
  Spare Devices : 0
       Checksum : e55136b2 - correct
         Events : 116032

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     3       8       65        3      active sync   /dev/sde1

   0     0       8       49        0      active sync   /dev/sdd1
   1     1       8       17        1      active sync
   2     2       8        1        2      active sync   /dev/sda1
   3     3       8       65        3      active sync   /dev/sde1
   4     4       8       32        4      active sync   /dev/sdc
   5     5       8       96        5      active sync

bei allen anderen sieht es so aus:

mdadm --examine /dev/sda1
/dev/sda1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : ebef6e3a:9c5e32ed:9ef9defe:407a6f51
  Creation Time : Mon Aug 30 22:57:40 2010
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 4883799680 (4657.55 GiB 5001.01 GB)
   Raid Devices : 6
  Total Devices : 5
Preferred Minor : 127

    Update Time : Sat Apr 30 12:13:01 2011
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0
       Checksum : e5622c4f - correct
         Events : 116032

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     2       8       65        2      active sync   /dev/sde1

   0     0       8       33        0      active sync
   1     1       8       17        1      active sync
   2     2       8       65        2      active sync   /dev/sde1
   3     3       0        0        3      faulty removed
   4     4       8       80        4      active sync   /dev/sdf
   5     5       8       48        5      active sync   /dev/sdd

Gibt es noch eine Möglichkeit die Daten zu retten?

Danke für eure Hilfe.

Gruß Pilleslife

agaida

Avatar von agaida

Anmeldungsdatum:
24. Februar 2010

Beiträge: 3348

Wohnort: Bielefeld

Möglichkeiten sind da immer, das ist der Sinn eines Raids. Wo ist jetzt aber das Problem?

frostschutz

Avatar von frostschutz

Anmeldungsdatum:
18. November 2010

Beiträge: 7790

Blöd, wenn zwei Laufwerke aussteigen. sdd hat scheinbar gar nicht mehr mitbekommen daß eine ausgefallen ist bzw. da ist dann nichts mehr drauf geschrieben worden. Du könntest dein Glück mit --force probieren, ggf. auch --readonly. Eine andere Alternative wäre auch create mit missing Device und --assume-clean. Da musst du dann aber alle Parameter richtig hinbekommen (gleiche Reihenfolge, gleiche Metadata-Version, gleiche Chunk Size, etc.). Sonst hast du Datensalat.

Wenns wichtig ist, und kein Backup vorhanden, vorher eine 1:1 Kopie von dem ganzen Schlamassel. ☺

pilleslife

(Themenstarter)

Anmeldungsdatum:
11. September 2010

Beiträge: 13

@agaida: Wenn es noch Möglichkeiten gibt, dann ist ja gut. Leider kenne ich diese aber nicht. Deswegen frage ich. Problem ist ganz einfach: ich kann das Raid nicht zusammensezten und starten.

@frostschutz: Danke für die Tipps. --force hilft leider auch nicht weiter. --readonly not valid in assemble mode. Die Parameter sollte ich doch aus den Superblocks auselesn können oder? Das scheint ja alles zu stimmen. Mich wundert es nur, die richtige Reihenfolge scheint ja erkannt zu werden, aber das Zusammensetzen funktioniert nicht. Backups ziehe ich dann mit dd auf eine andere Festplatte oder? Mal schauen, was ich noch an Platten finde, den 5 1TB Platten habe ich nicht gerade rumliegen.

pilleslife

(Themenstarter)

Anmeldungsdatum:
11. September 2010

Beiträge: 13

So Backup der Platten läuft. Mit welchen Parametern muss ich den --create Befehl genau aufrufen, damit ich das Raid mit 6 (davon 5 aktiven) Festplatten neu erstellen kann?

Danke für eure Hilfe.

Gruß Pilleslife

Antworten |