Hi Zusammen,
ich habe bei mir ein Ubuntu 20.04.6 LTS im Einsatz. Habe ein Software-Raid 5 mit zuvor 3 HDDs. Jede mit 4 TB. Da diese langsam voll sind habe ich eine weitere 4 TB Platte hinzugefügt und meinen Raid erweitert. Prinzipiell würde ich sagen, dass dies funktioniert hat. Jedoch habe ich zwei unterschiedliche Ausgaben, was die Größe betrifft, weshalb ich daran Zweifel habe.
Bei folgender Ausgabe sieht es für mich korrekt aus bei Array Size und Active/Working Devices = 4:
sudo mdadm --detail /dev/md0 [sudo] password for [user]: /dev/md0: Version : 1.2 Creation Time : Sun Sep 4 10:38:04 2016 Raid Level : raid5 Array Size : 11720656896 (11177.69 GiB 12001.95 GB) Used Dev Size : 3906885632 (3725.90 GiB 4000.65 GB) Raid Devices : 4 Total Devices : 4 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Mon Mar 11 19:23:42 2024 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 512K Consistency Policy : bitmap Name : [MyNAS]:0 (local to host [...]) UUID : cd74696b:ad911287:dc4346e0:9451297f Events : 13314 Number Major Minor RaidDevice State 0 8 33 0 active sync /dev/sdc1 1 8 49 1 active sync /dev/sdd1 3 8 65 2 active sync /dev/sde1 4 8 81 3 active sync /dev/sdf1
Allerdings wenn ich mir folgende Ausgabe ansehe, sieht es nicht richtig aus:
/etc/mdadm$ df -h Filesystem Size Used Avail Use% Mounted on udev 3.9G 0 3.9G 0% /dev tmpfs 786M 2.5M 784M 1% /run /dev/mapper/[...]--vg-root 51G 28G 21G 57% / tmpfs 3.9G 4.0K 3.9G 1% /dev/shm tmpfs 5.0M 0 5.0M 0% /run/lock tmpfs 3.9G 0 3.9G 0% /sys/fs/cgroup /dev/sdb1 470M 167M 279M 38% /boot /dev/md0 7.3T 5.4T 1.6T 78% /media/[MyNAS] tmpfs 786M 0 786M 0% /run/user/1000 /home/[...]/.Private 51G 28G 21G 57% /home/[...]
Bei /dev/md0 stand vor der Erweiterung auch schon 7.3T. War die Erweiterung auf 4 HDDs nun erfolgreich oder nicht? Muss ich, damit die Anzeige "df -h" genauso aussieht wie die erste Ausgabe noch etwas machen?
Danke euch!
Viele Grüße