ubuntuusers.de

Raid 1 mit unkown partitional table

Status: Gelöst | Ubuntu-Version: Kubuntu 13.04 (Raring Ringtail)
Antworten |

KubuCycle

Anmeldungsdatum:
3. Mai 2013

Beiträge: Zähle...

Hallo, ich habe eine normales Kubuntu 13.04 64Bit auf einer eigenen HDD installiert. Von meinem "alten" NAS-Server openmediavault, habe ich das Raid1 ausgebaut und jetzt zusätzlich eingebaut.

in fstab steht:

/dev/md127 /mnt/raid ext4 defaults 0 2

in der mdconf:(automatisch erzeugt)

CREATE owner=root group=disk mode=0660 auto=yes
HOMEHOST <system>
MAILADDR xxx at xxx.de
ARRAY /dev/md/Daten metadata=1.2 UUID=593239f6:9be25054:9b556e2f:3402ab5f name=openmediavault:Daten

und ich habe einen Link von

/dev/md/Daten nach /dev/md127

Beim Booten bekomme ich die Meldungen von einem schwerwiegendem Fehler im Raid System ... hier kann wählen I-Ignorieren oder S-Überspringen –> ich wähle überspringen. Wenn ich jetzt in der Konsole den Befehl zum mounten ergebe: funktioniert alles. (ohne Fehlermeldungen)

mount /dev/md/Daten /mnt/raid
oder
Mount /dev/md127 /mnt/raid

Nur:

mount /dev/md127

funktiert nicht obwohl ein Eintrag in der fstab steht. Meldung:

mount: wrong fs type, bad option, bad superblock on /dev/md127,
       missing codepage or helper program, or other error
       Manchmal liefert das Syslog wertvolle Informationen – versuchen
       Sie  dmesg | tail  oder so

Im Syslog steht zur :

May  3 16:22:24 amd6core kernel: [    3.647218] md: bind<sdb>
May  3 16:22:24 amd6core kernel: [    3.651851] md: bind<sda>
May  3 16:22:24 amd6core kernel: [    3.656527] md: raid1 personality registered for level 1
May  3 16:22:24 amd6core kernel: [    3.657306] md/raid1:md127: active with 2 out of 2 mirrors
May  3 16:22:24 amd6core kernel: [    3.657376] md127: detected capacity change from 0 to 2500494770176
May  3 16:22:24 amd6core kernel: [    3.661642]  md127: unknown partition table
May  3 16:22:24 amd6core kernel: [    4.337786] md: linear personality registered for level -1
May  3 16:22:24 amd6core kernel: [    4.342152] md: multipath personality registered for level -4
May  3 16:22:24 amd6core kernel: [    4.346143] md: raid0 personality registered for level 0

Hier steht in der Mitte ein Problem! Jetzt kommt meine Frage, wie kann ich einen gültigen Partitiontable eintragen ohne die Daten usw. zu verlieren?

Martin

ArnoW

Avatar von ArnoW

Anmeldungsdatum:
14. November 2009

Beiträge: 1090

Wohnort: Pfalz

Hallo Martin,

das mit der "unknown partition table" ist sehr wahrscheinlich kein Fehler, denn es ist normal, dass auf einem RAID keine Partitionstabelle angelegt wird.

Nicht so schön ist, dass dein RAID /dev/md127 heißt. Das ist normalerweise ein Fallback-Gerätenamen für RAIDs, die nicht ordentlich konfiguriert sind. Ansonsten sieht dein Log aber gesund aus, das RAID wird mit beiden Platten gestartet. Eventuell ist etwas anderes nicht in Ordnung.

Zur besseren Übersicht wäre noch der Status des RAIDs interessant (bitte hier posten):

cat /proc/mdstat

Ich würde auch u.a. den Namen des RAIDs in der /etc/mdadm/mdadm.conf ändern, so dass der Eintrag wie folgt lautet:

ARRAY /dev/md1 UUID=593239f6:9be25054:9b556e2f:3402ab5f

Du könntest auch mal nachsehen, ob ein Dateisystem auf dem RAID erkannt wird:

sudo blkid

Ansonsten mal versuchen, das RAID von Hand zu mounten, dabei aber ausdrücklich das verwendete Dateisystem angeben, also z.B.

sudo mount -t ext3 /dev/md1 /mnt/raid

Wenn das gehen sollte, ist eventuell nur der Eintrag in der fstab falsch.

Grüße,

Arno

KubuCycle

(Themenstarter)

Anmeldungsdatum:
3. Mai 2013

Beiträge: 13

Hallo Arno,

danke für die Antwort! Die Ausgabe von cat /proc/mdstat:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md127 : active raid1 sda[0] sdb[1]
      2441889424 blocks super 1.2 [2/2] [UU]
      
unused devices: <none>

Das mounten ohne -t funktioniert mit auch :

 mount -t xfs /dev/md127 /mnt/raid

Aber in der fstab ist trotzdem ein Fehler das Dateisystem ist xfs und nicht ext4 ! Aber leider booted das System immer noch nicht. Ursprünglich war das RAID /dev/md0 ( von mir angelegt ) doch in diesem Kubuntu meldet es sich mit /dev/md127.

Ich glaube, das die Platten von OpenMediaFault ohne Partitionstable also sda und sdb (und nicht sda1 sdb1)zum RAID zusammengefasst wurden, wenn ich parted -l eingebe, kommt:

Fehler: /dev/sda: unbekannte Partitionstabelle                            
Fehler: /dev/sdb: unbekannte Partitionstabelle                            

Modell: ATA WDC WD5000AADS-0 (scsi)                                                                                                              
Festplatte  /dev/sdc:  500GB                                                                                                                     
Sektorgröße (logisch/physisch): 512B/512B                                                                                                        
Partitionstabelle: msdos                                                                                                                         
                                                                                                                                                 
Nummer  Anfang  Ende    Größe   Typ      Dateisystem     Flags                                                                                   
 1      1049kB  20,0GB  20,0GB  primary  ext4            boot                                                                                    
 2      20,0GB  24,0GB  4000MB  primary  linux-swap(v1)
 3      24,0GB  500GB   476GB   primary  ext4


Modell: Linux-Software-RAID-Array (md)
Festplatte  /dev/md127:  2500GB
Sektorgröße (logisch/physisch): 512B/4096B
Partitionstabelle: loop

Nummer  Anfang  Ende    Größe   Dateisystem  Flags
 1      0,00B   2500GB  2500GB  xfs

Ich habe gestern erst einmal eine Sicherung vom RAID ge"tar"ed. Ich glaube, ich lege ein neues RAID nach der "Standart"-Methode an. Erst eine Partition auf die Einzelplatten schreiben, dann das Raid anlegen und formatieren... Wenn ich jetzt jedoch eine Partition auf den Platten anlege ist der Inhalt bstimmt weg. (Das glaube ich zumindest!) Die aktuelle Sicherung habe ich natürlich auch gemacht, damit ich an den Platten überhaupt rumspielen kann. Wenn ich jedoch nichts lernen kann ... Hast Du noch eine Idee?

Martin

ArnoW

Avatar von ArnoW

Anmeldungsdatum:
14. November 2009

Beiträge: 1090

Wohnort: Pfalz

Hallo Martin,

das RAID selbst ist offenbar in Ordnung. Es ist also eigentlich nicht nötig, es neu zu erstellen. Dass als Grundlage für das RAID keine Partitionen, sondern die nackten Platten verwendet wurden, ist kein Nachteil, ich selbst mache das bei meinen (Daten-)RAIDs auch immer so, also wenn ich von den beteiligten Platten nicht booten will. Man spart so eine eigentlich unnötige Verwaltungsschicht.

Die von dir in deinem ersten Post bemängelte Meldung:

md127: unknown partition table

hat übrigens nichts damit zu tun, dass die verwendeten Platten nicht partitioniert sind, sondern damit, dass das RAID nicht partitioniert ist. Da dies normal ist, ist auch das kein Grund für Änderungen.

Die Ursache für deine weiteren Beobachtungen (falscher Name, kein Autostart) ist eine nicht vollständige Integration des RAID in dein System. Um die Fehler zu beheben, könntest du folgendes machen:

Das RAID stoppen (Dateisystem falls gemountet natürlich vorher aushängen):

sudo mdadm --stop /dev/md127

Mit richtigem Namen neu starten:

sudo mdadm --assemble /dev/md0 /dev/sda /dev/sdb

In der /etc/mdadm/mdadm.conf den richtigen Namen eintragen (die UUID auch auf Richtigkeit prüfen!):

ARRAY /dev/md0 UUID=593239f6:9be25054:9b556e2f:3402ab5f

Das Initramfs neu schreiben. Das ist der entscheidende Schritt, bei dem das RAID in deine Startkonfiguration aufgenommen wird:

sudo update-initramfs -u -k all

Danach sollte das Teil beim Booten sauber gestartet werden.

Arno

KubuCycle

(Themenstarter)

Anmeldungsdatum:
3. Mai 2013

Beiträge: 13

Hallo Arno,

ich bin gerade, dabei Deine Vorschläge abzuarbeiten bis jetzt ohne Erfolg. Aber mir sind zwei Sachen aufgefallen: 1. meine /dev/sdx's , verändern sich! sda und sdb sind die RAID-Platten. sdc ist meine Systemplatte, eben hatte ich jedoch den Fall das die Systemplatte sda war und die RAID-Platten sdb und sdc.

2. der Befehl: mdadm --examine --scan >> /etc/mdadm/mdadm.conf schrieb folgende Zeile in die conf-Datei: ARRAY /dev/md/daten metadata=1.2 UUID=593239f6:9be25054:9b556e2f:3402ab5f name=openmediavault:Daten

wo bei es das dev /dev/md/daten gar nicht gibt!

Ich bin verwirrt und probiere weiter...

Martin

ArnoW

Avatar von ArnoW

Anmeldungsdatum:
14. November 2009

Beiträge: 1090

Wohnort: Pfalz

Hallo Martin,

dass die Geräte ihre Namen hin und wieder mal ändern, ist auch normal. Bevor man also einen Befehl mit Gerätenamen absetzt, ist es immer eine gute Idee, diese noch einmal genau zu prüfen und den Befehl auf den aktuellen Stand abzustimmen. Für deine Zwecke reicht das Nachschauen mit

cat /proc/mdstat

2. der Befehl: mdadm --examine --scan >> /etc/mdadm/mdadm.conf schrieb folgende Zeile in die conf-Datei: ARRAY /dev/md/daten metadata=1.2 UUID=593239f6:9be25054:9b556e2f:3402ab5f name=openmediavault:Daten

Ich würde dir hier auch sehr dazu raten, nicht mit irgendwelchen Automatismen zu arbeiten, sondern wirklich ganz einfach die Konfigurationszeile aus meinem Post von Hand in deine mdadm.conf einzutragen. Ob die UUID korrekt ist, kannst du vorher mit

sudo blkid

nachsehen.

Ich bin wirklich ganz sicher, dass deine Probleme ausschließlich daran liegen, dass dein RAID nicht in deinem Initramfs eingetragen ist.

Arno

KubuCycle

(Themenstarter)

Anmeldungsdatum:
3. Mai 2013

Beiträge: 13

Hallo Arno,

vielen Dank für Deine Hilfe und Geduld. Leider komme ich hier nicht weiter. Egal was ich mache, da läuft immer ein automatischer Prozess, der eingreift. Wenn ich die Datei /etc/mdadm/mdadm.conf lösche; baut er ein RAID Array nach /dev/md/Daten. Trage ich jetzt dieses /dev/ in Fstab ein, geht trotzdem nichts; auch mit neuer update-initramfs -c -k all nicht. Ich habe die blkid's eintragen. Und auch /usr/share/mdadm/mkconf brachte keine Lösung.

Ich gebe jetzt erst einmal auf. Ich mounte per Hand und versuche eine Lösung zu finden (noch ein paar Tage). Dann mache ich alles neu ...

Martin

ArnoW

Avatar von ArnoW

Anmeldungsdatum:
14. November 2009

Beiträge: 1090

Wohnort: Pfalz

Hallo Martin,

das ist wirklich schade. Hattest du nochmal versucht, deine /etc/mdadm/mdadm.conf von Hand zu öffnen, z.B. mit

kdesudo kate /etc/mdadm/mdadm.conf

und die von mir vorgeschlagene Zeile dort hinein zu schreiben? Falls ja, was genau hat dabei nicht funktioniert? Löschen allein reicht nicht, dann ist ja gar nichts mehr definiert.

Oder mach es doch noch einfacher mit

sudo echo "ARRAY /dev/md0 UUID=593239f6:9be25054:9b556e2f:3402ab5f" > /etc/mdadm/mdadm.conf

Damit erzeugst du einfach eine neue mdadm.conf mit korrektem Inhalt. Zur Sicherheit kannst du vielleicht vorher noch die Ausgabe von

sudo blkid 

hier posten, dann sehe ich, ob die UUID korrekt ist.

Dann heißt es wirklich nur noch RAID stoppen und von Hand neu starten.

Das Aktualisieren des initramfs führt nur dann zum Erfolg, wenn vorher die mdadm.conf in Ordnung ist, und das RAID von Hand korrekt mit richtigen Namen gestartet wurde.

Arno

KubuCycle

(Themenstarter)

Anmeldungsdatum:
3. Mai 2013

Beiträge: 13

Hallo Arno,

dann fangen wir ganz vorn an: mein Start-Bildschirm:

Bei der Überprüfung des Laufwerks auf /mnt/raid wurden schwere Fehler gefunden.
>>I<< zum Ignorieren, >>S<< überspringt das Einhängen, >>M<< für manuelle Wiederherstellung

Hier die /etc/mdadm/mdadm.conf

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
ARRAY /dev/md0 metadata=1.2 UUID=493239f6:9be2a054:9b526e2f:3406ab5f name=openmediavault:Daten

blkid :

/dev/sda: UUID="493239f6-9be2-a054-9b52-6e2f3406ab5f" UUID_SUB="56b4b91d-ece9-0472-62ac-4d5388e33fef" LABEL="openmediavault:Daten" TYPE="linux_raid_member" 
/dev/sdb: UUID="493239f6-9be2-a054-9b52-6e2f3406ab5f" UUID_SUB="edeeb5be-917d-9d11-2c52-7140c8810f81" LABEL="openmediavault:Daten" TYPE="linux_raid_member" 
/dev/sdc1: UUID="7aef178f-2661-4dba-978c-de12531c1273" TYPE="ext4" 
/dev/sdc2: UUID="ae1bd610-9b71-4c30-ad81-a9e9c0fd243c" TYPE="swap" 
/dev/sdc3: UUID="2cf32486-1a82-425b-bcae-387c2493fbcb" TYPE="ext4" 
/dev/md0: UUID="b336ce9c-c56a-499e-a66a-27b66173827a" TYPE="xfs" 

mdadm --examine --scan

ARRAY /dev/md/Daten metadata=1.2 UUID=493239f6:9be2a054:9b526e2f:3406ab5f name=openmediavault:Daten

mdadm --examine /dev/md/Daten

mdadm: cannot open /dev/md/Daten: No such file or directory

mdadm --examine /dev/md127

mdadm: cannot open /dev/md127: No such file or directory

mdadm --examine /dev/md0

mdadm: No md superblock detected on /dev/md0.

fstab

/dev/md0 /mnt/raid xfs defaults 0 2

cat /proc/mdstat

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid1 sda[0] sdb[1]
      2441889424 blocks super 1.2 [2/2] [UU]
      
unused devices: <none>

Das war der erste Schritt. Was soll ich machen ... Martin

ArnoW

Avatar von ArnoW

Anmeldungsdatum:
14. November 2009

Beiträge: 1090

Wohnort: Pfalz

Martin,

der Zustand des RAID laut Inhalt von /proc/mdstat am Ende deines letzten Posts ist in Ordnung. Auch die Ergebnisse deiner "--examine" -Abfragen sind OK, selbst wenn es auf den ersten Blick nicht so erscheinen mag. Der Befehl bringt nur verwertbare Resultate, wenn man ihn auf die Komponenten des RAID (also die Einzelplatten, aus denen das RAID besteht) anwendet.

Von diesem Zustand ausgehend wäre jetzt der nächste -und hoffentlich letzte- Schritt ein

sudo update-initramfs -u -k all

Danach sollte das System inclusive RAID startbar sein.

Arno

KubuCycle

(Themenstarter)

Anmeldungsdatum:
3. Mai 2013

Beiträge: 13

Hallo Arno,

ich habe :

sudo update-initramfs -u -k all
[sudo] password for martin: 
update-initramfs: Generating /boot/initrd.img-3.8.0-19-generic
martin@amd6core:~$ 

ausgeführt. Leider wie auch schon bei mir mit dem bereits bekannten Ergebnis. Es läuft nicht. Ich hatte es auch mit update-initramfs -c -k all probiert.

Martin

ArnoW

Avatar von ArnoW

Anmeldungsdatum:
14. November 2009

Beiträge: 1090

Wohnort: Pfalz

Hallo Martin,

sehr schade!

War denn das RAID zu dem Zeitpunkt, als du das Initramfs aktualisiert hast, noch als /dev/md0 aktiv? Ich habe leider erst einen Tag später gemerkt, dass du schon geantwortet hattest. Und hat denn wenigstens das dauerhafte Umbenennen in /dev/md0 geklappt?

Was passiert denn, wenn du nach dem Booten (bei dem das RAID nicht automatisch mitgestartet wird), versuchst, das RAID mit

sudo --assemble --scan 

zu starten? Falls es dann startet, wie heißt es dann?

Das ist alles recht ungewöhnlich... Ich war sicher, dass es nach den genannten Maßnahmen starten würde. Irgendetwas scheine ich aus der Ferne zu übersehen. Ich denke weiter nach.

Arno

KubuCycle

(Themenstarter)

Anmeldungsdatum:
3. Mai 2013

Beiträge: 13

Hallo Arno,

alles was ich am 8. Mai 2013 21:19 geposted habe gilt noch; ich habe nichts am System geändert. Nach dem Booten, ohne automatisches Einbinden kommt auf Deine Anfrage keine Antwort; nur leer.

sudo mdadm --assemble --scan 
[sudo] password for martin: 
martin@amd6core:~$

Die Ausgabe von:

mdadm --examine /dev/md0
mdadm: No md superblock detected on /dev/md0.

aber das manuelle mounten

 mount /dev/md0 /mnt/raid 

geht ohne Probleme!!

Martin

ArnoW

Avatar von ArnoW

Anmeldungsdatum:
14. November 2009

Beiträge: 1090

Wohnort: Pfalz

Hallo Martin,

das ist ja wenigstens mal ein Teilerfolg.

Die Ausgabe von:

mdadm --examine /dev/md0
mdadm: No md superblock detected on /dev/md0.

Wie schon geschrieben, dieser Befehl ist nicht zur Anwendung auf ein RAID gedacht, bringt deshalb keine Aussage. Er ist zur Untersuchung der Einzelplatten gedacht.

Nach dem Booten, ohne automatisches Einbinden kommt auf Deine Anfrage keine Antwort; nur leer.

sudo mdadm --assemble --scan 
[sudo] password for martin: 
martin@amd6core:~$

Das sieht wiederum sehr danach aus, dass das RAID vorher bereits lief.

aber das manuelle mounten

mount /dev/md0 /mnt/raid 

geht ohne Probleme!!

Dann ist das RAID zu diesem Zeitpunkt gelaufen. Das Wichtigste ist jetzt nachzusehen, ob das RAID schon direkt nach dem Start läuft, oder ob es in diesem Fall erst nach der Ausführung des --assemble Befehls lief.

Nachsehen, ob ein RAID läuft kann man mit

cat /proc/mdstat 

Wenn du das nächste Mal neu startest, führe bitte als allererstes diesen Befehl aus, und poste das Ergebnis.

Arno

KubuCycle

(Themenstarter)

Anmeldungsdatum:
3. Mai 2013

Beiträge: 13

Hallo Arno,

ich habe jetzt neu gebooted:

cat /proc/mdstat 
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid1 sda[0] sdb[1]
      2441889424 blocks super 1.2 [2/2] [UU]
      
unused devices: <none>

Martin

Antworten |