ubuntuusers.de

raid5 mit mdadm eine platte defekt

Status: Ungelöst | Ubuntu-Version: Xubuntu 11.10 (Oneiric Ocelot)
Antworten |

MonoEmbolex

Anmeldungsdatum:
8. November 2010

Beiträge: 23

Hi Leute,

Ich habe eine Software Raid5 mit 5 Platten laufen.

eine der Platten ist mir abgeschmiert. Dann hatte ich mit sudo mdadm --detail /dev/md0 diese Ausgabe:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
/dev/md0: 
Version : 1.2
  Creation Time : Sun Apr 22 16:05:03 2012
     Raid Level : raid5
     Array Size : 7812446208 (7450.53 GiB 7999.94 GB)
  Used Dev Size : 1953111552 (1862.63 GiB 1999.99 GB)
   Raid Devices : 5
  Total Devices : 5
    Persistence : Superblock is persistent

    Update Time : Tue May  1 13:31:46 2012
          State : clean, FAILED
 Active Devices : 3
Working Devices : 4
 Failed Devices : 1
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

           Name : server:0  (local to host server)
           UUID : 444b27d5:8ebc3951:c0ded283:7cb9cfa4
         Events : 140555

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       65        1      active sync   /dev/sde1
       2       8       81        2      active sync   /dev/sdf1
       3       0        0        3      removed
       4       0        0        4      removed

       3       8       97        -      faulty spare   /dev/sdg1
       5       8      113        -      spare   /dev/sdh1

0:

dann habe ich blöderweise folgendes eingegeben: sudo mdadm /dev/md0 --remove /dev/sdg1 dann viel mir ein, ich habe ja gar keine ersatz HDD...

jetzt liefert mir mdadm folgendes:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
/dev/md0:
        Version : 1.2
  Creation Time : Sun Apr 22 16:05:03 2012
     Raid Level : raid5
     Array Size : 7812446208 (7450.53 GiB 7999.94 GB)
  Used Dev Size : 1953111552 (1862.63 GiB 1999.99 GB)
   Raid Devices : 5
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Tue May  1 13:45:15 2012
          State : clean, FAILED
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

           Name : server:0  (local to host server)
           UUID : 444b27d5:8ebc3951:c0ded283:7cb9cfa4
         Events : 140558

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       65        1      active sync   /dev/sde1
       2       8       81        2      active sync   /dev/sdf1
       3       0        0        3      removed
       4       0        0        4      removed

       5       8      113        -      spare   /dev/sdh1

habe ich jetzt noch eine möglichkeit auf das raid mit einer hdd weniger zuzugreifen? Oder muss ich warten, bis ich morgen eine neue HDD gekauft habe? Ich weiß gerade leider nicht mehr weiter. Würde mich über eure Hilfe sehr freuen. Danke!

da1l6

Avatar von da1l6

Anmeldungsdatum:
29. August 2005

Beiträge: 3825

Was genau ist das Problem? In der annahme das du vorher ein Array mit 4 Aktiven platten hattest und jetzt noch eines mit 3, dann sollte es nach wie vor funktionieren. Da das Array ein Spare-Device hatte, sollte sich dieses grade im Rebuild befinden oder bereits aktiv als viertes Mitglied sein.

Zeig mal

cat /proc/mdstat

MonoEmbolex

(Themenstarter)

Anmeldungsdatum:
8. November 2010

Beiträge: 23

hi,

ich habe blöderweise, da ich nicht mehr zugreifen konnte das raid gestoppt: sudo mdadm --manage --stop /dev/md0 mdadm: stopped /dev/md0

da1l6

Avatar von da1l6

Anmeldungsdatum:
29. August 2005

Beiträge: 3825

Bitte beim Umgang mit RAIDs keine Panikreaktionen! Das macht nur mehr kaputt als es nützt.

Zeig erstmal mal

cat /proc/mdstat

MonoEmbolex

(Themenstarter)

Anmeldungsdatum:
8. November 2010

Beiträge: 23

1
2
ersonalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
unused devices: <none>

ich verstehe aber nicht, warum er behauptet ich hätte ein spare laufwerk... ich habe 5 X 2TB platten eingesetzt und hatte nachher 8TB zur verfügung. also ganz normal raid5, oder heißt beim raid5 eine spare?

da1l6

Avatar von da1l6

Anmeldungsdatum:
29. August 2005

Beiträge: 3825

MonoEmbolex schrieb:

1
2
ersonalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
unused devices: <none>

Das RAID ist also komplett abgeschaltet.

ich verstehe aber nicht, warum er behauptet ich hätte ein spare laufwerk... ich habe 5 X 2TB platten eingesetzt und hatte nachher 8TB zur verfügung. also ganz normal raid5, oder heißt beim raid5 eine spare?

Nein, heißt es nicht. Ich schlage vor du machst vor jeglichen weiteren experimenten das Backup startklar. Jeder weitere schritt kann helfen aber auch Daten vernichten.

sudo mdadm --assemble /dev/md0

sollte versuchen das RAID zu starten. Poste die Ausgabe des Befehls und die von /proc/mdstat danach.

da1l6

MonoEmbolex

(Themenstarter)

Anmeldungsdatum:
8. November 2010

Beiträge: 23

1
mdadm: /dev/md0 assembled from 3 drives and 1 spare - not enough to start the array.

aber ich habe ja vorhin schon die eine platte mit:

1
/dev/md0 --remove /dev/sdg1

entfernt

/proc/mdstat:

1
2
3
4
5
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [r$
md0 : inactive sdd1[0](S) sdh1[5](S) sdg1[3](S) sdf1[2](S) sde1[1](S)
      9765560320 blocks super 1.2

unused devices: <none>

da1l6

Avatar von da1l6

Anmeldungsdatum:
29. August 2005

Beiträge: 3825

Ich interpretiere das Geschehen so dass, das Array schon vorher degraded war, also nur mit 4 von 5 Platten lief. Da jetzt noch eine ausgefallen ist, sind die Daten weg.

MonoEmbolex

(Themenstarter)

Anmeldungsdatum:
8. November 2010

Beiträge: 23

ok. shit...

soll ich mal das testen:

sudo mdadm --assemble /dev/md0 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 --force

da1l6

Avatar von da1l6

Anmeldungsdatum:
29. August 2005

Beiträge: 3825

Falls die rausgefallene Festplatte noch funktioniert, hätte ich

mdadm --manange /dev/md0 --re-add /dev/sdg1

versucht. Aber hier traue ich mir nicht zu hinreichend qualifizierte Ratschläge zu geben. Wenn du ein Backup hast, kannst du experimentieren, wenn nicht pack deine platten zusammen und schicke sie zu einem professionellen Datenretter.

da1l6

MonoEmbolex

(Themenstarter)

Anmeldungsdatum:
8. November 2010

Beiträge: 23

1
2
3
4
5
6
sudo mdadm --manage /dev/md0 --re-add /dev/sdg1
mdadm: cannot get array info for /dev/md0

server:~$ sudo mdadm --assemble /dev/md0 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 --force
mdadm: cannot open device /dev/sdd1: Device or resource busy
mdadm: /dev/sdd1 has no superblock - assembly aborted

hmm?!?

da1l6

Avatar von da1l6

Anmeldungsdatum:
29. August 2005

Beiträge: 3825

Stoppe das Array vor dem --assemble erstmal.

MonoEmbolex

(Themenstarter)

Anmeldungsdatum:
8. November 2010

Beiträge: 23

hab ich... dann:

1
2
3
4
cat /proc/mdstatPersonalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid5 sdd1[0] sdh1[5] sdg1[3] sdf1[2] sde1[1]
      7812446208 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/4] [UUUU_]
      [>....................]  recovery =  0.0% (1732180/1953111552) finish=1706.1min speed=19062K/sec

da1l6

Avatar von da1l6

Anmeldungsdatum:
29. August 2005

Beiträge: 3825

Das sieht doch ganz gut aus. Im Prinzip müsstest du md0 schon mounten können.

MonoEmbolex

(Themenstarter)

Anmeldungsdatum:
8. November 2010

Beiträge: 23

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
tt@server:~$ sudo mdadm --detail /dev/md0 
[sudo] password for tt: 
/dev/md0:
        Version : 1.2
  Creation Time : Sun Apr 22 16:05:03 2012
     Raid Level : raid5
     Array Size : 7812446208 (7450.53 GiB 7999.94 GB)
  Used Dev Size : 1953111552 (1862.63 GiB 1999.99 GB)
   Raid Devices : 5
  Total Devices : 5
    Persistence : Superblock is persistent

    Update Time : Tue May  1 20:42:30 2012
          State : clean, degraded, recovering
 Active Devices : 4
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

 Rebuild Status : 0% complete

           Name : server:0  (local to host server)
           UUID : 444b27d5:8ebc3951:c0ded283:7cb9cfa4
         Events : 140561

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       65        1      active sync   /dev/sde1
       2       8       81        2      active sync   /dev/sdf1
       3       8       97        3      active sync   /dev/sdg1
       5       8      113        4      spare rebuilding   /dev/sdh1

also, ist jetzt /dev/sdh1 das problem?

Antworten |