Hallo zusammen,
vorweg: ich alles andere als ein Linuxexperte und bitte daher um ein wenig Nachsicht.
Vor einiger Zeit bastelte ich mir einen kleinen Dateiserver. Es funktionierte alles und deshalb habe ich mich auch knapp ein Jahr um das System dahinter gar nicht gekümmert. Heute wollte ich mich dann doch mal wieder per ssh aufschalten, was jedoch nicht möglich war. Also an den Server. Hier begrüßten mich schon vor dem Login Writeerrors in Listenform. Login selbst war wahnsinnig langsam mit Fehlermeldung (systemd-logind failed to start session scope connection timed out). Ich nehme an die Writeerrors dürften das eigentliche Problem darstellen (write error on swap device - laut dmesg). Das ich zur Zeit nicht per ssh auf den Server komme, muss ich ein bisschen abtippen...
1 2 3 4 5 6 7 | cat /proc/mdstat md0 : active raid1 nvme1n1p5[0] 214711296 blocks super 1.2 [2/1] [U_] bitmap: 1/2 pages [4KB], 65536KB chunk md1 : active raid0 nvme1n1p6[0] 9754624 blocks super 1.2 512k chunks |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 | mdadm --detail /dev/md0 /dev/md0: Version : 1.2 Creation Time : ... 2019 Raid Level : raid1 Array Size : 214711296 (204.76 GiB 219.86 GB) Used Dev Size : 214711296 (204.76 GiB 219.86 GB) Raid Devices : 2 Total Devices : 1 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Tue Oct 6 20:03:38 2020 State : clean, degraded Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0 Consistency Policy : bitmap Name : (none):0 UUID : e741edff:dfb887f8:6d8890ad:58c59a0a Events : 986626 Number Major Minor RaidDevice State 0 259 6 0 active sync /dev/nvme1n1p5 - 0 0 1 removed |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 | mdadm --detail /dev/md1 /dev/md1: Version : 1.2 Creation Time : ... 2019 Raid Level : raid0 Array Size : 9754624 (9.30 GiB 9.99 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Thu Jun 13 02:06:01 2019 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Chunk Size : 512K Consistency Policy : none Name : (none):1 UUID : 21bb171a:648f0ec6:56383315:27ca3ce7 Events : 0 Number Major Minor RaidDevice State 0 259 7 0 active sync /dev/nvme1n1p6 1 259 4 1 active sync |
Eigentlich sollte md0 die gespiegelte Systempartition (/) sein und md1 als Raid0 auf den selben Datenträgern sein. Wenn einfach nur eine der Platten (nvme) hin wäre, könnte ich das wahrscheinlich selber wieder hinbasteln, aber das hier verstehe ich absolut nicht. Warum ist in dem einen Raid der eine Datenträger(/dev/nvme1n1p6) und in dem anderen Raid der andere Datenträger(/dev/nvme1n1p5)? Und wie behebe ich das am besten wieder?
Ich bin für jede Hilfe Dankbar.