Langsam bin ich am verzweifel ich bin nach dieser Anleitung vorgegangen: https://ctaas.de/software-raid.htm um mir meinen Raid zu erstellen , das geht auch alles soweit.
Allerdings wenn ich den Rechner neu Starte ist alles was ich gemacht habe wieder futsch. ☹ Hier mal die Infos für euch. mdadm ist installiert. Für jede meiner Platten eine Partitionstabelle angelegt.
1 2 3 | sudo parted /dev/sda mklabel gpt sudo parted /dev/sdb mklabel gpt sudo parted /dev/sdc mklabel gpt |
Dann den Raid erstellt:
1 | sudo mdadm --create /dev/md0 --level=0 --raid-devices=3 /dev/sda /dev/sdb /dev/sdc |
Ergeniss ist dann:
1 2 | mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md0 started. |
aktuellen Stand
1 2 3 4 5 6 | sudo cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid0 sdc[2] sdb[1] sda[0] 11720658432 blocks super 1.2 512k chunks unused devices: <none> |
Dann noch die Konfigurations Datei gesichert in mdadm
1 | sudo mdadm --examine --scan --verbose >> /etc/mdadm/mdadm.conf |
auch erfolgreich. Und noch ein
1 | update-initramfs -u -k all |
auch erfolgreich Meine mdadm.conf schaut so aus:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 | # mdadm.conf # # Please refer to mdadm.conf(5) for information about this file. # # by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to scan, using # wildcards if desired. #DEVICE partitions containers # auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes # automatically tag new arrays as belonging to the local system HOMEHOST <system> # instruct the monitoring daemon where to send mail alerts MAILADDR srawer@web.de # definitions of existing MD arrays # This file was auto-generated on Wed, 06 Jan 2016 10:50:22 +0100 # by mkconf $Id$ ARRAY /dev/md/0 level=raid0 metadata=1.2 num-devices=3 UUID=eddb1103:2ec886e8:0b05749e:9fe6c097 name=SR-localhost:0 devices=/dev/sdc,/dev/sdb,/dev/sda |
Dann das ganze noch formatiert: mkfs.ext4 -v -m 1 -b 4096 -E stride=128,stripe-width=256 /dev/md0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 | mke2fs 1.45.5 (07-Jan-2020) In /dev/md0 wurde eine gpt-Partitionstabelle gefunden Trotzdem fortfahren? (j,n) j Dateisystemtypen für das Aufschlüsseln von mke2fs.conf: 'ext4', 'big' Dateisystembezeichnung= OS-Typ: Linux Blockgröße=4096 (log=2) Fragmentgröße=4096 (log=2) Stride=128 Blöcke, Stripebreite=256 Blöcke 366272512 Inodes, 2930164608 Blöcke 29301646 Blöcke (1.00%) reserviert für den Superuser Erster Datenblock=0 Maximale Dateisystem-Blöcke=4294967296 89422 Blockgruppen 32768 Blöcke pro Gruppe, 32768 Fragmente pro Gruppe 4096 Inodes pro Gruppe UUID des Dateisystems: 81129ad1-be59-48b6-96f6-6acc5cbf1759 Superblock-Sicherungskopien gespeichert in den Blöcken: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 102400000, 214990848, 512000000, 550731776, 644972544, 1934917632, 2560000000 beim Anfordern von Speicher für die Gruppentabellen: erledigt Inode-Tabellen werden geschrieben: erledigt Das Journal (262144 Blöcke) wird angelegt: fertig Die Superblöcke und die Informationen über die Dateisystemnutzung werden geschrieben: erledigt |
Dann noch den mount Punkt gesetzt vor her aber das Verzeichnis erstellt mkdir /mnt/newraid mount /dev/md0 /mnt/newraid in der fstabe eingetragen habe ich
1 2 | #Raid /dev/md0 /mnt/newraid/ ext4 defaults,nosuid,noexec,nodev 1 2 |
Und den ganzen Spaß gemountet per
1 | mount -a |
Und wenn ich jetzt schaue ist es da, schaut selbst- mdadm --examine --scan --verbose
1 2 | ARRAY /dev/md/0 level=raid0 metadata=1.2 num-devices=3 UUID=eddb1103:2ec886e8:0b05749e:9fe6c097 name=SR-localhost:0 devices=/dev/sdc,/dev/sdb,/dev/sda |
fdisk:
1 2 3 4 | Festplatte /dev/md0: 10,94 TiB, 12001954234368 Bytes, 23441316864 Sektoren Einheiten: Sektoren von 1 * 512 = 512 Bytes Sektorgröße (logisch/physikalisch): 512 Bytes / 4096 Bytes E/A-Größe (minimal/optimal): 524288 Bytes / 1572864 Bytes |
Und wenn ich nun einen reboot mache ist alles wieder futsch.