Hallo zusammen, in meinem Rechner werkelt seit längerem ein RAID5 sehr zuverlässig. Bis ich am Montag eine weitere Platte eingehangen habe. Das Sytem hat das reshape begommen bis knapp über 50% und dann stehengeblieben. Da ich dachte die neue Platte wäre schuld habe ich diese manuell auf "fault" gesetzt und ausgebaut. Leider arbeitet das RAID nicht weiter. TOP zeigt mir 100% Prozessorleistung auf dem Task ...
Update: Jetzt funktioniert auch MDADM nicht mehr, sieht aus als würde sich das RAID-System komplett aufhängen und nicht mehr reagieren.
Hier mal die wichtigsten Infos vorab:
/dev/sda WD-WX32DA0HYJX3: hat 29 Grad celsius. 1 days /dev/sdb WD-WX21D690LS3V: hat 30 Grad celsius. 377 days /dev/sdc WD-WX11D37PE2NX: hat 30 Grad celsius. 506 days /dev/sdd WD-WX31D8815JZ1: hat 32 Grad celsius. 510 days /dev/sde WD-WX31D8815E80: hat 33 Grad celsius. 488 days /dev/nvme0n1 19318229000128550593: hat 42 Grad celsius. 511 days ********************************* Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid5 sdc1[4] sdb1[8](S) sda1[6](S) sdd1[3] sde1[5] 11720770560 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [UUU_] [==========>..........] reshape = 54.0% (3169713848/5860385280) finish=636016.0min speed=70K/sec bitmap: 5/44 pages [20KB], 65536KB chunk unused devices: <none> /dev/md0: Version : 1.2 Creation Time : Wed Nov 27 18:52:11 2019 Raid Level : raid5 Array Size : 11720770560 (11177.80 GiB 12002.07 GB) Used Dev Size : 5860385280 (5588.90 GiB 6001.03 GB) Raid Devices : 4 Total Devices : 5 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Wed Apr 21 10:14:51 2021 State : clean, degraded, reshaping Active Devices : 3 Working Devices : 5 Failed Devices : 0 Spare Devices : 2 Layout : left-symmetric Chunk Size : 512K Consistency Policy : bitmap Reshape Status : 54% complete Delta Devices : 1, (3->4) Name : rainer-X570-AMD:0 (local to host rainer-X570-AMD) UUID : 4e86d728:529a1986:bc1fdafb:0d54ddc5 Events : 274952 Number Major Minor RaidDevice State 4 8 33 0 active sync /dev/sdc1 5 8 65 1 active sync /dev/sde1 3 8 49 2 active sync /dev/sdd1 - 0 0 3 removed 6 8 1 - spare /dev/sda1 8 8 17 - spare /dev/sdb1
Was kann ich tun?
Liebe Grüße Rainer