Hallo Zusammen
Ich habe auf einem Synology NAS eine VM und darin einen Ubuntu Server 18.04 installiert und schon geraume Zeit im Betrieb.(rein privat/inhouse) Nun ist die Platte voll gelaufen und hat mir einiges an Ärger bereitet, den Server wieder zu Laufen zu bringen. Er tut nun wieder. Ich will das Problem aber dauerhaft fixen und habe deshalb Verständnisfragen. Ich habe sehr viel über die folgenden Themen gelesen, und habe aber wohl deswegen einen Knoten im Kopf und die Hoffnung Ihr könnt mir helfen diesen wieder zu entknoten.
1) Nach dem der Server voll war, habe ich im VMM den Plattenplatz erweitert, von 15GB auf 25GB. Allerdings kommen diese nicht an. Ich habe da wohl einen Fehler gemacht. Da es sich um ein LVm handelt, hätte ich anders vorgehen sollen
root@UbuSrv:/mnt# df -hT
Dateisystem Typ Größe Benutzt Verf. Verw% Eingehängt auf udev devtmpfs 3,9G 0 3,9G 0% /dev tmpfs tmpfs 798M 1,1M 797M 1% /run /dev/mapper/UbuSrv--vg-root btrfs 14G 12G 1,4G 89% / tmpfs tmpfs 3,9G 0 3,9G 0% /dev/shm tmpfs tmpfs 5,0M 0 5,0M 0% /run/lock tmpfs tmpfs 3,9G 0 3,9G 0% /sys/fs/cgroup /dev/loop0 squashfs 8,5M 8,5M 0 100% /snap/canonical-livepatch/77 /dev/loop1 squashfs 89M 89M 0 100% /snap/core/7270 /dev/loop2 squashfs 8,5M 8,5M 0 100% /snap/canonical-livepatch/81 /dev/loop3 squashfs 89M 89M 0 100% /snap/core/7169 /dev/mapper/UbuSrv--vg-root btrfs 14G 12G 1,4G 89% /home RieSrv2:/volume1/scripts nfs4 9,7T 1,1T 8,6T 11% /home/openkm/scripts RieSrv2:/volume1/scans nfs4 9,7T 1,1T 8,6T 11% /home/openkm/scans RieSrv2:/volume1/scanns_fertig nfs4 9,7T 1,1T 8,6T 11% /home/openkm/scanns_fertig tmpfs tmpfs 798M 0 798M 0% /run/user/1000 tmpfs tmpfs 798M 4,0K 798M 1% /run/user/115
root@UbuSrv:/mnt# fdisk -l
Festplatte /dev/sdb: 25 GiB, 26843545600 Bytes, 52428800 Sektoren Einheiten: Sektoren von 1 * 512 = 512 Bytes Sektorgröße (logisch/physikalisch): 512 Bytes / 512 Bytes E/A-Größe (minimal/optimal): 512 Bytes / 512 Bytes Festplattenbezeichnungstyp: dos Festplattenbezeichner: 0x3202044f Gerät Boot Anfang Ende Sektoren Größe Kn Typ /dev/sdb1 * 2048 52428799 52426752 25G 8e Linux LVM Festplatte /dev/mapper/UbuSrv--vg-root: 14 GiB, 14973665280 Bytes, 29245440 Sektoren Einheiten: Sektoren von 1 * 512 = 512 Bytes Sektorgröße (logisch/physikalisch): 512 Bytes / 512 Bytes E/A-Größe (minimal/optimal): 512 Bytes / 512 Bytes Festplatte /dev/mapper/UbuSrv--vg-swap_1: 976 MiB, 1023410176 Bytes, 1998848 Sektoren Einheiten: Sektoren von 1 * 512 = 512 Bytes Sektorgröße (logisch/physikalisch): 512 Bytes / 512 Bytes E/A-Größe (minimal/optimal): 512 Bytes / 512 Bytes
root@UbuSrv:/mnt# nano /etc/fstab
/dev/mapper/UbuSrv--vg-root / btrfs defaults,subvol=@ 0 1 /dev/mapper/UbuSrv--vg-root /home btrfs defaults,subvol=@home 0 2 /dev/mapper/UbuSrv--vg-swap_1 none swap sw 0 0
Wenn ich mir die partition auf /dev/sdb anschaue werden auch die 25G angezeigt:
Festplatte: /dev/sdb Größe: 25 GiB, 26843545600 Bytes, 52428800 Sektoren Bezeichner: dos, Identifikator: 0x3202044f Gerät Boot Anfang Ende Sektoren Größe Kn Typ >> /dev/sdb1 * 2048 52428799 52426752 25G 8e Linux LVM
root@UbuSrv:/mnt# pvs
PV VG Fmt Attr PSize PFree /dev/sdb1 UbuSrv-vg lvm2 a-- <15,00g 100,00m
root@UbuSrv:/mnt# vgs
VG #PV #LV #SN Attr VSize VFree UbuSrv-vg 1 2 0 wz--n- <15,00g 100,00m
root@UbuSrv:/mnt# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert root UbuSrv-vg -wi-ao---- <13,95g swap_1 UbuSrv-vg -wi-ao---- 976,00m
Die Versuche mit btrfs... bzw den vg-/lv-extend schlugen fehl.
Ich fand eine gute Anleitung, aber erst nach dem ich es wohl verbockt hatte... unter: https://www.thomas-krenn.com/de/wiki/LVM_vergr%C3%B6%C3%9Fern
(pkt 3 hatte ich nicht gemacht, dafür mit cfdisk die bestehende Partition erweitert)
Zitat:
Vergrößern des Festplattenspeichers (auf physikalischer oder VMware Ebene)
2. Neustarten der Maschine, damit der zusätzliche Festplattenspeicher erkannt wird
3. Erstellen einer weiteren Partition z. B. mittels cfdisk
4. Partitionstabelle neu Einlesen, z. B. per Reboot oder per Kommando partprobe
5. Initialisieren einer neuen PV mittels pvcreate
6. Vergrößern der VG mittels vgextend
7. Vergrößern des LV mittels lvextend
8. Vergrößern des Dateisystems z. B. mittels resize2fs
Kann ich die Situation noch irgendwie retten? Was muss ich in welcher Reihenfolge tun, um VG und LV zu vergrößern? Könnte ich die 10 GB, die ich mit cfdisk der bestehenden partition hinzugefügt habe ohne Risiko wieder wegnehmen und eine eigene Partion draus machen (wie in obigem Artikel beschrieben) ?
Vielen Dank vorab für Eure Hilfe! OpaHeinz