MonoEmbolex
Anmeldungsdatum: 8. November 2010
Beiträge: 23
|
Hi Leute, Ich habe eine Software Raid5 mit 5 Platten laufen. eine der Platten ist mir abgeschmiert. Dann hatte ich mit
sudo mdadm --detail /dev/md0 diese Ausgabe: 1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33 | /dev/md0:
Version : 1.2
Creation Time : Sun Apr 22 16:05:03 2012
Raid Level : raid5
Array Size : 7812446208 (7450.53 GiB 7999.94 GB)
Used Dev Size : 1953111552 (1862.63 GiB 1999.99 GB)
Raid Devices : 5
Total Devices : 5
Persistence : Superblock is persistent
Update Time : Tue May 1 13:31:46 2012
State : clean, FAILED
Active Devices : 3
Working Devices : 4
Failed Devices : 1
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Name : server:0 (local to host server)
UUID : 444b27d5:8ebc3951:c0ded283:7cb9cfa4
Events : 140555
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
2 8 81 2 active sync /dev/sdf1
3 0 0 3 removed
4 0 0 4 removed
3 8 97 - faulty spare /dev/sdg1
5 8 113 - spare /dev/sdh1
|
0: dann habe ich blöderweise folgendes eingegeben:
sudo mdadm /dev/md0 --remove /dev/sdg1
dann viel mir ein, ich habe ja gar keine ersatz HDD... jetzt liefert mir mdadm folgendes: 1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32 | /dev/md0:
Version : 1.2
Creation Time : Sun Apr 22 16:05:03 2012
Raid Level : raid5
Array Size : 7812446208 (7450.53 GiB 7999.94 GB)
Used Dev Size : 1953111552 (1862.63 GiB 1999.99 GB)
Raid Devices : 5
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Tue May 1 13:45:15 2012
State : clean, FAILED
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Name : server:0 (local to host server)
UUID : 444b27d5:8ebc3951:c0ded283:7cb9cfa4
Events : 140558
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
2 8 81 2 active sync /dev/sdf1
3 0 0 3 removed
4 0 0 4 removed
5 8 113 - spare /dev/sdh1
|
habe ich jetzt noch eine möglichkeit auf das raid mit einer hdd weniger zuzugreifen?
Oder muss ich warten, bis ich morgen eine neue HDD gekauft habe?
Ich weiß gerade leider nicht mehr weiter. Würde mich über eure Hilfe sehr freuen.
Danke!
|
da1l6
Anmeldungsdatum: 29. August 2005
Beiträge: 3825
|
Was genau ist das Problem? In der annahme das du vorher ein Array mit 4 Aktiven platten hattest und jetzt noch eines mit 3, dann sollte es nach wie vor funktionieren. Da das Array ein Spare-Device hatte, sollte sich dieses grade im Rebuild befinden oder bereits aktiv als viertes Mitglied sein. Zeig mal cat /proc/mdstat
|
MonoEmbolex
(Themenstarter)
Anmeldungsdatum: 8. November 2010
Beiträge: 23
|
hi, ich habe blöderweise, da ich nicht mehr zugreifen konnte das raid gestoppt:
sudo mdadm --manage --stop /dev/md0
mdadm: stopped /dev/md0
|
da1l6
Anmeldungsdatum: 29. August 2005
Beiträge: 3825
|
Bitte beim Umgang mit RAIDs keine Panikreaktionen! Das macht nur mehr kaputt als es nützt. Zeig erstmal mal cat /proc/mdstat
|
MonoEmbolex
(Themenstarter)
Anmeldungsdatum: 8. November 2010
Beiträge: 23
|
| ersonalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
unused devices: <none>
|
ich verstehe aber nicht, warum er behauptet ich hätte ein spare laufwerk...
ich habe 5 X 2TB platten eingesetzt und hatte nachher 8TB zur verfügung. also ganz normal raid5, oder heißt beim raid5 eine spare?
|
da1l6
Anmeldungsdatum: 29. August 2005
Beiträge: 3825
|
MonoEmbolex schrieb: | ersonalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
unused devices: <none>
|
Das RAID ist also komplett abgeschaltet. ich verstehe aber nicht, warum er behauptet ich hätte ein spare laufwerk...
ich habe 5 X 2TB platten eingesetzt und hatte nachher 8TB zur verfügung. also ganz normal raid5, oder heißt beim raid5 eine spare?
Nein, heißt es nicht. Ich schlage vor du machst vor jeglichen weiteren experimenten das Backup startklar. Jeder weitere schritt kann helfen aber auch Daten vernichten. sudo mdadm --assemble /dev/md0 sollte versuchen das RAID zu starten. Poste die Ausgabe des Befehls und die von /proc/mdstat danach. da1l6
|
MonoEmbolex
(Themenstarter)
Anmeldungsdatum: 8. November 2010
Beiträge: 23
|
| mdadm: /dev/md0 assembled from 3 drives and 1 spare - not enough to start the array.
|
aber ich habe ja vorhin schon die eine platte mit:
| /dev/md0 --remove /dev/sdg1
|
entfernt /proc/mdstat:
| Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [r$
md0 : inactive sdd1[0](S) sdh1[5](S) sdg1[3](S) sdf1[2](S) sde1[1](S)
9765560320 blocks super 1.2
unused devices: <none>
|
|
da1l6
Anmeldungsdatum: 29. August 2005
Beiträge: 3825
|
Ich interpretiere das Geschehen so dass, das Array schon vorher degraded war, also nur mit 4 von 5 Platten lief. Da jetzt noch eine ausgefallen ist, sind die Daten weg.
|
MonoEmbolex
(Themenstarter)
Anmeldungsdatum: 8. November 2010
Beiträge: 23
|
ok. shit... soll ich mal das testen: sudo mdadm --assemble /dev/md0 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 --force
|
da1l6
Anmeldungsdatum: 29. August 2005
Beiträge: 3825
|
Falls die rausgefallene Festplatte noch funktioniert, hätte ich mdadm --manange /dev/md0 --re-add /dev/sdg1 versucht.
Aber hier traue ich mir nicht zu hinreichend qualifizierte Ratschläge zu geben. Wenn du ein Backup hast, kannst du experimentieren, wenn nicht pack deine platten zusammen und schicke sie zu einem professionellen Datenretter. da1l6
|
MonoEmbolex
(Themenstarter)
Anmeldungsdatum: 8. November 2010
Beiträge: 23
|
| sudo mdadm --manage /dev/md0 --re-add /dev/sdg1
mdadm: cannot get array info for /dev/md0
server:~$ sudo mdadm --assemble /dev/md0 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 --force
mdadm: cannot open device /dev/sdd1: Device or resource busy
mdadm: /dev/sdd1 has no superblock - assembly aborted
|
hmm?!?
|
da1l6
Anmeldungsdatum: 29. August 2005
Beiträge: 3825
|
Stoppe das Array vor dem --assemble erstmal.
|
MonoEmbolex
(Themenstarter)
Anmeldungsdatum: 8. November 2010
Beiträge: 23
|
hab ich...
dann:
| cat /proc/mdstatPersonalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdd1[0] sdh1[5] sdg1[3] sdf1[2] sde1[1]
7812446208 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/4] [UUUU_]
[>....................] recovery = 0.0% (1732180/1953111552) finish=1706.1min speed=19062K/sec
|
|
da1l6
Anmeldungsdatum: 29. August 2005
Beiträge: 3825
|
Das sieht doch ganz gut aus. Im Prinzip müsstest du md0 schon mounten können.
|
MonoEmbolex
(Themenstarter)
Anmeldungsdatum: 8. November 2010
Beiträge: 23
|
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34 | tt@server:~$ sudo mdadm --detail /dev/md0
[sudo] password for tt:
/dev/md0:
Version : 1.2
Creation Time : Sun Apr 22 16:05:03 2012
Raid Level : raid5
Array Size : 7812446208 (7450.53 GiB 7999.94 GB)
Used Dev Size : 1953111552 (1862.63 GiB 1999.99 GB)
Raid Devices : 5
Total Devices : 5
Persistence : Superblock is persistent
Update Time : Tue May 1 20:42:30 2012
State : clean, degraded, recovering
Active Devices : 4
Working Devices : 5
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Rebuild Status : 0% complete
Name : server:0 (local to host server)
UUID : 444b27d5:8ebc3951:c0ded283:7cb9cfa4
Events : 140561
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
2 8 81 2 active sync /dev/sdf1
3 8 97 3 active sync /dev/sdg1
5 8 113 4 spare rebuilding /dev/sdh1
|
also, ist jetzt /dev/sdh1 das problem?
|