ubuntuusers.de

Server 24.04 mountet kein Raid10

Status: Gelöst | Ubuntu-Version: Server 24.04 (Noble Numbat)
Antworten |

Bobin29

Anmeldungsdatum:
30. Juli 2024

Beiträge: Zähle...

Hallo, ich betreibe seit 8 Jahren problemlos einen Heimserver mit Ubuntu Server 18.04 mit einer m.2-Platte für das OS und einem Hardware Raid10 mit 4 Platten für die Daten. Nachdem meine Systemplatte den Dienst versagt hat, habe ich sie gegen eine neue ausgetauscht und Ubuntu Server 24.04 LTS aufgespielt. Das Raid wird bei der Installation des OS als "Verbund10" erkannt und auch als /dev/md126 verlinkt, lässt sich jedoch nicht mehr mounten.

Der Befehl:

mount /dev/md126 /mnt/storage/daten

erzeugt immer die Fehlemeldung:

mount: /mnt/storage/daten: wrong fs type, bad option, bad superblock on /dev/md126, missing codepage or helper program, or other error.

Am Raid habe ich nichts verändert. Mein Linux-Latein ist hier leider zu Ende. Kann mir da vielleicht jemand auf die Sprünge helfen?

Bearbeitet von Thomas_Do:

Bitte verwende in Zukunft Codeblöcke, um die Übersicht im Forum zu verbessern!

Bearbeitet von Thomas_Do:

Hervorghebung im Text entfernt. Sollte nur wichtige Teile in Codeblöcken hervorheben.

DJKUhpisse Team-Icon

Supporter, Wikiteam
Avatar von DJKUhpisse

Anmeldungsdatum:
18. Oktober 2016

Beiträge: 18184

Wohnort: in deinem Browser, hier auf dem Bildschirm

Was zeigt denn

file /dev/md126

Ggf. ist da noch was dazwischen wie LVM oder so.

Bobin29

(Themenstarter)

Anmeldungsdatum:
30. Juli 2024

Beiträge: 7

/dev/md126: block special (9/126)

Die Installation erfolgte ohne LVM, habe ich jedenfalls so angekreuzt.

DJKUhpisse Team-Icon

Supporter, Wikiteam
Avatar von DJKUhpisse

Anmeldungsdatum:
18. Oktober 2016

Beiträge: 18184

Wohnort: in deinem Browser, hier auf dem Bildschirm

Was zeigt denn

lsblk
sudo blkid

Bobin29

(Themenstarter)

Anmeldungsdatum:
30. Juli 2024

Beiträge: 7

NAME        MAJ:MIN RM   SIZE RO TYPE   MOUNTPOINTS
sda           8:0    0   2,7T  0 disk
├─md126       9:126  0   5,5T  0 raid10
└─md127       9:127  0     0B  0 md
sdb           8:16   0   2,7T  0 disk
├─md126       9:126  0   5,5T  0 raid10
└─md127       9:127  0     0B  0 md
sdc           8:32   0   2,7T  0 disk
├─md126       9:126  0   5,5T  0 raid10
└─md127       9:127  0     0B  0 md
sdd           8:48   0   2,7T  0 disk
├─md126       9:126  0   5,5T  0 raid10
└─md127       9:127  0     0B  0 md
nvme0n1     259:0    0 119,2G  0 disk
├─nvme0n1p1 259:1    0     1G  0 part   /boot/efi
└─nvme0n1p2 259:2    0 118,2G  0 part   /

/dev/nvme0n1p1: UUID="5102-BFD1" BLOCK_SIZE="512" TYPE="vfat" PARTUUID="560600e2-4532-4661-bb7a-8bfa1550d434"
/dev/nvme0n1p2: UUID="d0224fde-b51b-44b1-a807-458790be046f" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="dd1914da-0d48-4f22-9cf1-5ce8cea2d100"
/dev/sdd: TYPE="isw_raid_member"
/dev/sdb: TYPE="isw_raid_member"
/dev/sdc: TYPE="isw_raid_member"
/dev/sda: TYPE="isw_raid_member"
/dev/md126: PTUUID="aa28a7e0" PTTYPE="dos"

Sieht für mich ok aus, oder? Einzig der Begriff "isw_raid_member" ist mir nicht klar. Deutet das auf ein Software-Raid hin?

Bobin29

(Themenstarter)

Anmeldungsdatum:
30. Juli 2024

Beiträge: 7

Sorry, hier nochmal formatiert:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
NAME        MAJ:MIN RM   SIZE RO TYPE   MOUNTPOINTS
sda           8:0    0   2,7T  0 disk
├─md126       9:126  0   5,5T  0 raid10
└─md127       9:127  0     0B  0 md
sdb           8:16   0   2,7T  0 disk
├─md126       9:126  0   5,5T  0 raid10
└─md127       9:127  0     0B  0 md
sdc           8:32   0   2,7T  0 disk
├─md126       9:126  0   5,5T  0 raid10
└─md127       9:127  0     0B  0 md
sdd           8:48   0   2,7T  0 disk
├─md126       9:126  0   5,5T  0 raid10
└─md127       9:127  0     0B  0 md
nvme0n1     259:0    0 119,2G  0 disk
├─nvme0n1p1 259:1    0     1G  0 part   /boot/efi
└─nvme0n1p2 259:2    0 118,2G  0 part   /

und

1
2
3
4
5
6
7
/dev/nvme0n1p1: UUID="5102-BFD1" BLOCK_SIZE="512" TYPE="vfat" PARTUUID="560600e2-4532-4661-bb7a-8bfa1550d434"
/dev/nvme0n1p2: UUID="d0224fde-b51b-44b1-a807-458790be046f" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="dd1914da-0d48-4f22-9cf1-5ce8cea2d100"
/dev/sdd: TYPE="isw_raid_member"
/dev/sdb: TYPE="isw_raid_member"
/dev/sdc: TYPE="isw_raid_member"
/dev/sda: TYPE="isw_raid_member"
/dev/md126: PTUUID="aa28a7e0" PTTYPE="dos"

DJKUhpisse Team-Icon

Supporter, Wikiteam
Avatar von DJKUhpisse

Anmeldungsdatum:
18. Oktober 2016

Beiträge: 18184

Wohnort: in deinem Browser, hier auf dem Bildschirm

/dev/md126: PTUUID="aa28a7e0" PTTYPE="dos"

Auf dem Teil ist also eine MBR-Partitionstabelle und keine Partition selbst. Soll das so sein?

Falls ja könnte man da mit kpartx ggf. was machen.

Bobin29

(Themenstarter)

Anmeldungsdatum:
30. Juli 2024

Beiträge: 7

Eine Partitionstabelle ohne Partition? Hab ich noch nie gehört. Da das gesamte Raid aber nur für Daten verwendet wird, warum eigentlich nicht?

kpartx kenne ich nicht, aber ich nehme an, damit wird das gesamte Raid10 neu partitioniert. Dann sind die Daten aber weg,oder? Kann man das irgendwie vermeiden?

Falls nein, wie funktioniert das mit kpartx? Dann muss ich halt anschließend mein Backup (4.2 TB !) einspielen. Aber egal ...

Schon mal vielen Dank für deine Mühe. Ich hänge gerade echt in der Luft.

DJKUhpisse Team-Icon

Supporter, Wikiteam
Avatar von DJKUhpisse

Anmeldungsdatum:
18. Oktober 2016

Beiträge: 18184

Wohnort: in deinem Browser, hier auf dem Bildschirm

Mit kpartx kann man die einzelnen Partitionen eines Images (und ggf. auch des RAId hier) einzeln zugänglich machen. Hier ist nicht direkt ne Partition auf dem RAID, sondern noch eine MBR-Tabelle (DOS). Direkt einbinden geht da nicht.

Bobin29

(Themenstarter)

Anmeldungsdatum:
30. Juli 2024

Beiträge: 7

Also du meinst, das Raid komplett neu aufsetzen und das Daten-Backup einspielen? Ich frage mich, wieso das die letzten Jahre so reibungslos funktioniert hat. Da war doch dann auch keine Partition vorhanden, aber das Raid gemountet. Der Wechsel von Server 18.04 zu 24.04 muss dann das Problem verursacht haben. Liegt nicht unter /etc/mdadm noch eine Konfigurationsdatei für das Raid? Ich finde dort mdadm.conf, kann aber mit dem Inhalt nichts anfangen. Die letzten 3 Zeilen der Datei wurden offensichtlich automatisch von fdisk eingefügt.

DJKUhpisse Team-Icon

Supporter, Wikiteam
Avatar von DJKUhpisse

Anmeldungsdatum:
18. Oktober 2016

Beiträge: 18184

Wohnort: in deinem Browser, hier auf dem Bildschirm

Ggf. war früher eben auf dem RAID-Gerät direkt eine Partition. Das ist hier halt laut lsblk nicht der Fall und damit kannst du das direkt nicht einbinden. Spricht denn was gegen kaprtx? Wie wurde das RAID erstellt?

Bobin29

(Themenstarter)

Anmeldungsdatum:
30. Juli 2024

Beiträge: 7

Es ist wie gesagt ein Hardware-Raid und wurde im BIOS meines Servers erstellt. Deshalb läuft es eigentlich sehr stabil.

Da ich jetzt aber zufällig in gparted gesehen habe, dass offensichtlich kein Filesystem mehr vorhanden ist, habe ich die Hoffnung auf die Wiederherstellung ohne Neueinspielung der Daten aufgegeben.

Die Lösung war folgende:

1
2
mkfs.xfs /dev/md126     neues xfs Filesystem auf dem Raid erzeuen
scp -r /dev/sde1        Daten-Backup einspielen

- blkid:

1
2
3
4
5
6
7
8
9
device             fs_type   label      mount point          
-------------------------------------------------------------
/dev/nvme0n1p1     vfat                 /boot/efi            
/dev/nvme0n1p2     ext4                 /                    
/dev/sdd           isw_raid_member      (in use)
/dev/sdb           isw_raid_member      (in use)
/dev/sdc           isw_raid_member      (in use)
/dev/md126         xfs                  /mnt/storage/daten   
/dev/sda           isw_raid_member      (in use)

Das hat mich zwar mehrere Stunden Kopierzeit gekostet, funktioniert aber. Wir sehen wieder: No backup, no merci!

Ich habe übrigens keine Partition bewusst erzeugt ?!?

Nochmals danke für deine Hilfe. Ich habe wieder etwas über Linux gelernt.

DJKUhpisse Team-Icon

Supporter, Wikiteam
Avatar von DJKUhpisse

Anmeldungsdatum:
18. Oktober 2016

Beiträge: 18184

Wohnort: in deinem Browser, hier auf dem Bildschirm

Mit mkfs erzeugst du ein Dateisystem auf dem Blockgerät. Das kannst du dann mit mount einbinden.

Antworten |