ubuntuusers.de

LVM gefreezt

Status: Gelöst | Ubuntu-Version: Ubuntu 18.04 (Bionic Beaver)
Antworten |

jokerGermany

Anmeldungsdatum:
11. Mai 2008

Beiträge: 1004

mehrere mdadm Raid 5/1 Verbünde 2 davon sind Raid 5 und haben seit ein paar Tagen 5 Statt 4 Platten und 2 Spare Platten. Nun wollte ich gerne 4 der 5 Platten nutzen.

Also habe ich folgendes Kommando abgesetzt:

!code bash
sudo mdadm --grow --raid-devices=4  /dev/md1 --backup-file /root/md1.backup

Dann ist mir aufgefallen, dass ich vielleicht vorher vorsichtshalber die Daten verschieben hätte sollen ... und habe das auch angestoßen:

1
sudo pvmove -i1 -v /dev/md1

Ein paar Stunden später ist mir dann aufgefallen, dass der Status immer noch bei 0,01% liegt

1
/dev/md1: Moved: 0,01%

Dann am Abend nochmal nachkontrolliert und gleiches Ergebnis... Also STRG+C gedrückt und nochmal angeworfen. Tja und seit dem steht er und macht scheinbar gar nichts:

1
2
3
4
sudo pvmove -i1 -v /dev/md1
    Cluster mirror log daemon is not running.
    Wiping internal VG cache
    Wiping cache of LVM-capable devices

sudo pvs gibt auch keine Ausgabe mehr zurück.

mdadm ist mittlerweile fertig und zufrieden, bloß lvm weiß noch nichts von der geänderten Größe:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
sudo mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Wed Mar  6 20:09:35 2019
        Raid Level : raid5
        Array Size : 2929287168 (2793.59 GiB 2999.59 GB)
     Used Dev Size : 976429056 (931.20 GiB 999.86 GB)
      Raid Devices : 4
     Total Devices : 5
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Tue Feb 25 18:54:51 2020
             State : clean
    Active Devices : 4
   Working Devices : 5
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : bitmap

              Name : nas:1  (local to host nas)
              UUID : 
            Events : 19008

    Number   Major   Minor   RaidDevice State
       0       8       33        0      active sync   /dev/sdc1
       1       8       49        1      active sync   /dev/sdd1
       5       8       69        2      active sync   /dev/sde5
       4       8       17        3      active sync   /dev/sdb1

       3       8        1        -      spare   /dev/sda1

(Es tut sich einfach nichts, also ich kann auch nicht, dass nächste Kommando eingeben, nichts)

Die Dienst wie Nextcloud scheinen ganz normal zu funktionieren...

Was mache ich am Besten in so einer Situation?

misterunknown Team-Icon

Ehemalige
Avatar von misterunknown

Anmeldungsdatum:
28. Oktober 2009

Beiträge: 4403

Wohnort: Sachsen

Hast du den LVM-Daemon mal neu gestartet? Wenn pvdisplay nichts mehr sagt, ist das sehr merkwürdig.

jokerGermany

(Themenstarter)

Anmeldungsdatum:
11. Mai 2008

Beiträge: 1004

Das einzige was ich ich neustarten konnte war lvm2-lvmpolld, alle anderen freezen genauso
Okay, lvm2-lvmetad hat danach auch geklappt.
Löst aber nicht die probleme

cat /var/log/syslog | grep lvm
Feb 27 06:51:35 nas lvm[12522]:   5 logical volume(s) in volume group "Raid" unmonitored
Feb 27 06:51:40 nas systemd[1]: lvm2-lvmetad.service: State 'stop-sigterm' timed out. Killing.
Feb 27 06:51:40 nas systemd[1]: lvm2-lvmetad.service: Killing process 24737 (lvmetad) with signal SIGKILL.
Feb 27 06:51:40 nas systemd[1]: lvm2-lvmetad.service: Main process exited, code=killed, status=9/KILL
Feb 27 06:51:40 nas systemd[1]: lvm2-lvmetad.service: Failed with result 'timeout'.
Feb 27 06:51:40 nas lvmpolld[21952]: W: #011LVPOLL: PID 21957: STDERR: '  WARNING: lvmetad connection failed, cannot reconnect.'
Feb 27 06:51:40 nas lvmpolld[21952]: W: #011LVPOLL: PID 21957: STDERR: '  lvmetad cannot be used due to error: Connection reset by peer'
Feb 27 06:51:40 nas lvmpolld[21952]: W: #011LVPOLL: PID 21957: STDERR: '  Volume group "RaidSpare" not found'
Feb 27 06:51:40 nas lvmpolld[21952]: W: #011LVPOLL: PID 21957: STDERR: '  ABORTING: Can't reread VG for RaidSpare/pvmove0.'
Feb 27 06:51:40 nas lvmpolld[21952]: LVMPOLLD: lvm2 cmd (PID 21957) failed (retcode: 5)
Feb 27 06:51:41 nas lvm[12522]:   No input from event server.
Feb 27 06:51:53 nas lvm[12522]: message repeated 2 times: [   No input from event server.]
Feb 27 06:51:53 nas lvm[12522]:   15 logical volume(s) in volume group "Wichtig" unmonitored
Feb 27 06:51:53 nas lvm[12522]:   WARNING: lvmetad connection failed, cannot reconnect.
Feb 27 06:51:53 nas lvm[12522]:   lvmetad cannot be used due to error: Connection reset by peer
Feb 27 06:51:53 nas lvm[12522]:   WARNING: lvmetad connection failed, cannot reconnect.
Feb 27 06:51:53 nas lvm[12522]:   lvmetad cannot be used due to error: Connection reset by peer

ChickenLipsRfun2eat Team-Icon

Anmeldungsdatum:
6. Dezember 2009

Beiträge: 12067

Hallo!

Hat denn mit mdadm alles geklappt?

cat /proc/mdstat

jokerGermany

(Themenstarter)

Anmeldungsdatum:
11. Mai 2008

Beiträge: 1004

ja, hatte ja im Eingangspost schon die Ausgabe vom dem betreffenden Raid gepostet

md9 : active raid1 sde13[0]
      976429056 blocks super 1.2 [1/1] [U]
      bitmap: 0/8 pages [0KB], 65536KB chunk

md8 : active raid5 sda8[2] sde12[0]
      976429056 blocks super 1.2 level 5, 512k chunk, algorithm 2 [2/2] [UU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

md7 : active raid1 sda7[3] sde11[2]
      976429056 blocks super 1.2 [2/2] [UU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

md6 : active raid1 sda6[3] sde10[2]
      976429056 blocks super 1.2 [2/2] [UU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

md5 : active raid1 sda5[3] sde9[2]
      976429056 blocks super 1.2 [2/2] [UU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

md4 : active raid5 sda4[4](S) sde8[5] sdc4[0] sdd4[2]
      1952858112 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

md1 : active raid5 sdb1[4] sda1[3](S) sde5[5] sdd1[1] sdc1[0]
      2929287168 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

md2 : active raid5 sdb2[4](S) sda2[3](S) sde6[6] sdc2[0] sdd2[2]
      1952858112 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

md3 : active raid5 sda3[4](S) sde7[6] sdc3[0] sdd3[2]
      1952860160 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

jokerGermany

(Themenstarter)

Anmeldungsdatum:
11. Mai 2008

Beiträge: 1004

Wollte das Problem eigentlich mit einer Ubuntu Server 20.04 installation lösen...

Das NAS ist aber in den letzten Tagen mal abgestürzt und seitdem funktioniert LVM wieder...

Antworten |