Hallo zusammen,
ich habe folgendes Problem: ich will zwei Platten in RAID 1 verbinden und als "home" einbinden.
Losgelegt habe ich mit dem RAID 1 und habe es nach dieser Schritt-für-Schritt-Anleitung erstellt, (Kap. Creating a RAID 1 Array) https://www.digitalocean.com/community/tutorials/how-to-create-raid-arrays-with-mdadm-on-ubuntu-18-04
Alles lief soweit problemlos. Danach habe ich den kompletten Ihalt meines Home-Verzeichnisses auf /mnt/md0 kopiert.
Dann habe ich in /etc/fstab folgende Zeilen auskommentiert
#UUID=7fb74860-8a73-4897-88c8-c1d96f30dea4 /home ext4 defaults 0 2 #/dev/md0 /mnt/md0 ext4 defaults,nofail,discard 0 0
und durch die folgende Zeile ersetzt
UUID=bcf68671-0c61-4020-9f7c-53caf6b37fb7 /home ext4 defaults,nofail,discard 0 0
Dabei habe ich das UUID des neuen Dateisystems auf dem RIAD verwendet.
Nach dem PC-Nuestart habe ich mich allerdings erst mal nicht mehr einloggen können und kam nicht über das Anmeldebilschirm hinaus. Also habe ich die Änderungen in /etc/fstab rückwirkend gemacht, den PC neugestartet und es ging wieder.
Dann habe ich festgestellt, dass das neue RAID nicht gemountet wurde. Das RAID ist offensichtlich inaktiv:
:~$ cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : inactive sde[1](S) 3906887512 blocks super 1.2 unused devices: <none>
lsblk zeigt folgendes Bild:
1 2 3 4 5 6 7 8 9 10 11 12 13 | :~$ lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT,UUID NAME SIZE FSTYPE TYPE MOUNTPOINT UUID sda 232,9G disk ├─sda1 100M vfat part /boot/efi 7A1D-1A8E ├─sda2 16M part ├─sda3 232,3G ntfs part 46181DBE181DAE45 └─sda4 499M ntfs part 382212382211FB96 sdb 232,9G disk └─sdb1 232,9G ext4 part /home 7fb74860-8a73-4897-88c8-c1d96f30dea4 sdc 232,9G disk └─sdc1 232,9G ext4 part / 4ac5bb2b-54c9-4b48-8fa6-23bf38708ca6 sdd 3,7T disk sde 3,7T linux_raid_me disk ca7a425b-4239-8e5e-5291-c5a9c4300b4f |
(mal kurz zur Erläuterung
sda ist die Windows-Platte (dualboot)
sdb ist die alte /home Platte
sdc ist die kubuntu-Platte
sdd und sde sollen das neue /home werden und, wenn alles läuft, die sdb ablösen)
Also sieht es für mich so aus, dass wäre die Platte sdd nicht als RAID Bestandteil erkannt und daher das RAID nicht gestartet. Liege ich mit der vermutung richtig?
Ich kann auch nicht ohne weiterres das RAID re-assembeln:
:~$ sudo mdadm --stop /dev/md0 mdadm: stopped /dev/md0 :~$ sudo mdadm -A -v /dev/md0 /dev/sde /dev/sdd mdadm: looking for devices for /dev/md0 mdadm: no RAID superblock on /dev/sdd mdadm: /dev/sdd has no superblock - assembly aborted
Ich kann das problem temporär beheben via:
:~$ sudo mdadm --stop /dev/md0 mdadm: stopped /dev/md0 :~$ sudo mdadm -A -v --force /dev/md0 /dev/sde mdadm: looking for devices for /dev/md0 mdadm: /dev/sde is identified as a member of /dev/md0, slot 1. mdadm: no uptodate device for slot 0 of /dev/md0 mdadm: added /dev/sde to /dev/md0 as 1 mdadm: /dev/md0 has been started with 1 drive (out of 2). :~$ sudo mdadm --manage /dev/md0 --add /dev/sdd mdadm: added /dev/sdd
Danach kann ich das RAID mounten und nutzen
:~$ cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid1 sdd[2] sde[1] 3906887488 blocks super 1.2 [2/1] [_U] [>....................] recovery = 1.3% (52530752/3906887488) finish=380.8min speed=168664K/sec bitmap: 0/30 pages [0KB], 65536KB chunk unused devices: <none> :~$ lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT,UUID NAME SIZE FSTYPE TYPE MOUNTPOINT UUID sda 232,9G disk ├─sda1 100M vfat part /boot/efi 7A1D-1A8E ├─sda2 16M part ├─sda3 232,3G ntfs part 46181DBE181DAE45 └─sda4 499M ntfs part 382212382211FB96 sdb 232,9G disk └─sdb1 232,9G ext4 part /home 7fb74860-8a73-4897-88c8-c1d96f30dea4 sdc 232,9G disk └─sdc1 232,9G ext4 part / 4ac5bb2b-54c9-4b48-8fa6-23bf38708ca6 sdd 3,7T linux_raid_member disk ca7a425b-4239-8e5e-5291-c5a9c4300b4f └─md0 3,7T ext4 raid1 bcf68671-0c61-4020-9f7c-53caf6b37fb7 sde 3,7T linux_raid_member disk ca7a425b-4239-8e5e-5291-c5a9c4300b4f └─md0 3,7T ext4 raid1 bcf68671-0c61-4020-9f7c-53caf6b37fb7
...bis zum nächsten PC-Reboot ☹ Danach fängt alles wieder von vorne an.
Was mache ich falsch und wie komme ich aus der Situation heraus, hat jemand eine Idee?
Viele Grüße
P.S. was noch relevant sein köönte: Die Platten sind zwar baugleich, eine davon (die sde, also die, die keine Probleme macht) war neu und unbeschrieben. Auf der anderen befand sich am Anfang eine beschribene ext4 Partition. Da ich die Daten nicht brauchte, habe ich das einfach ignoriert. Die Partition habe ich nicht vorher gelöscht. Vielleicht hat das Kuddel-Muddel bei dem Superblock oder sontigen verursacht?
P.P.S. nach der oben beschriebenen Wiederherstellung des RAIDs zeigt fdisk etwas interessantes, was evtl. einen Hinweis auf die Ursache enthält. Ich weiß allerdings nicht, was ich damit anfange und wie ich das Problem löse:
:~$ sudo fdisk -l The primary GPT table is corrupt, but the backup appears OK, so that will be used. Disk /dev/sdd: 3,7 TiB, 4000787030016 bytes, 7814037168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disklabel type: gpt Disk identifier: 2A4FEF61-9D98-44D6-AD73-9A104BEDB1AD Disk /dev/sde: 3,7 TiB, 4000787030016 bytes, 7814037168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes