SmartGeist
Anmeldungsdatum: 12. März 2013
Beiträge: Zähle...
|
Hallo, ich versuche einen Server mit einem RAID1 aufzusetzen. Ich nutze Ubuntu Server und dessen integrierte RAID-Einrichtungsfunktionailität. Das Einrichten und die Installation funktioniert auch problemlos. Mit | sudo dpkg-reconfigure mdadm
|
richte ich das RAID so ein, dass es auch im degraded-Zustand bootet. Nun wollte ich mal den Worst Case testen und habe per Live CD und gparted die zweite Festplatte geleert. Danach habe ich die Partitionen wieder so eigerichtet wie bei der ersten Festplatte. Im Anschluss habe ich das RAID resynchronisieren lassen, was auch funktionierte. Später wollte ich noch mal testen und habe eine Platte im BIOS deaktiviert. Damit gelingt es mir allerdings nicht zu booten. Entweder ich sitze, nach GRUB vor einem schwarzen Bildschirm oder lande in einer endlosen Bootschleife. Also Bootschleife heißt, er bootet nach GRUB sofort neu. Außerdem bootet nicht mal mehr eine Live CD solange die zweite Festplatte im System aktiv ist. Als Fehler erhalte ich, bei einer Live CD: | (initramfs) stdin: error 0
mount: mounting /dev/sdb1 on /isodevice failed: Inavlid Argument
|
Sobald die zweite Festplatte raus ist oder alle Partitionen auf ihr gelöscht sind, funktioniert die Live CD wieder. Da schein ich also irgend einen Fehler beim ersten Versuch gemacht zu haben. Allerdings habe ich aber bereits mehrfach Neuinstalliert, mehrfach alle Partionen gelöscht und die Partitionstabellen neu geschrieben. Aber ich scheine irgendwas bei den Festplatten nicht zu löschen. Den im Partitionierungstool des Installers, wird bei manchen Partitionen nach dem Neuerstellen wieder der alte Verwendungspunkt gesetzt. Z.B. wird nach dem Neuerstellen, des zweiten RAID, dessen virtuelles Volumen direkt wieder als LVM Volumen gekennzeichnet. Hat jemand eine Idee was ich falsch mache? Ich habe das ganze auch mal in einer VirtualBox nachgestellt und dort gelingt es mir auch nicht mit einer Festplatte zu bootem. Zum teste entferne ich eine der Festplatten aus der virtuellen Maschine. Die Live CD habe ich da allerdings noch nicht getested. Im Anhang ist mein Partitionsaufbau aus der VirtualBox zu sehen. Auf der echten Maschine ist der Aufbau identisch bis auf die Größen der Partitionen. Achja und ich habe auch probiert, GRUB auf der zweiten Festplatte zu installieren (was ja ab 9.10 glaube unötig sein soll). Mfg,
SmartGeist
- Bilder
|
frostschutz
Anmeldungsdatum: 18. November 2010
Beiträge: 7651
|
Grub muss auf beiden Festplatten installiert sein, wenn von beiden Festplatten gebootet werden können soll. Wenn Grub nur auf einer Festplatte im MBR steht und diese dann fehlt, geht eben nichts mehr... Das /boot und /boot/grub selbst darf ja gerne ein RAID 1 sein. GRUB2 unterstützt auch andere RAID-Formen, für /boot bevorzuge ich aber das ganz altmodische RAID 1 mit 0.90 oder 1.0 Superblock, da der Bootloader dann auch ganz ohne spezielle RAID-Unterstützung funktioniert. RAID macht dann erst der Kernel+Initramfs wenn sie vom Bootloader geladen wurden. Zum Löschen: Wenn du nur Partitionstabelle löschst und danach die Partitionen genauso wieder anlegst, hast du nichts verloren - die Daten an sich bleiben ja unverändert. Der MBR womöglich auch, dein Problem könnte also sein, daß das vorhandene Grub zwar lädt aber wegen fehlender Partitionen dann hängen bleibt. Für solche Tests überschreibt man überlicherweise den Anfang der Platte mit Nullen (gefährlich) oder man klemmt sie einfach ganz ab...
|
SmartGeist
(Themenstarter)
Anmeldungsdatum: 12. März 2013
Beiträge: 9
|
Den GRUB hatte ich testweise auf beide Platten installiert, das meinte ich mit meinem letzten Satz. Wieso sollte das Abklemmen Einfluss auf die Partitionen haben?
|
SmartGeist
(Themenstarter)
Anmeldungsdatum: 12. März 2013
Beiträge: 9
|
Also was ich in der Zwischenzeit noch herausfinden konnte. In der VirtualBox kann ich problemlos eine Live CD booten. Folglich muss noch irgendwas auf der zweiten echte Platte sein was probleme verursacht. Ich habe zwar auch versucht die RAID-Meta-Daten loszuwerden mit | mdadm --zero-superblock /dev/sdb1
mdadm --zero-superblock /dev/sdb5
mdadm --zero-superblock /dev/sdb
|
Das hat allerdings auch nichts gebracht, nun gibts ein shred mit Nullen für die Platte. Das zweite was mir aufgefallen ist, wenn man mit der Server CD in den Rettungsmodus geht, werden bei einem intakten RAID die RAID-Volumen und LVM-Volumen gefunden (siehe Anhang). Wenn ich jetzt aber mit nur einer Platte bzw. einer zweiten defekten in den Rettungsmodus gehe, werden die Volumes nicht gefunden. Stattdessen werden nur die Basis-Partitionen gefunden:
sda1
sda2
sda5
Je nach Zustand der zweiten Platte noch:
sdb1
sdb2
sdb5 Ich könnte mir vorstellen, dass auch das normale System die Volumes nicht findet wenn eine Platte fehlt oder defekt ist? Hat keiner noch eine Idee?
- Bilder
|
frostschutz
Anmeldungsdatum: 18. November 2010
Beiträge: 7651
|
In dem Screenshot stehen doch auch mds und vgs? Bei dem Installer bin ich leider überfragt, das Partitionierungstool hat mir das letzte Mal ganz schräge Partitionen angelegt, das mache ich lieber von Hand. Ich glaube du hast meinen letzten Beitrag falsch verstanden - wenn du testen willst ob die Kiste auch mit einer Platte bootet, klemmst du halt die andere ganz ab. Oder du nullst sie (den Anfang). Das ist ja normal das was man hat wenn eine Platte abraucht und eine neue reinkommt. Was du gemacht hast (wenn ich dich richtig verstanden habe) ist nur die Partitionstabelle löschen, das könnte schiefgehen. Weil auf der Platte ohne Partitionstabelle dann immer noch der GRUB im MBR sein könnte - der dann seine Partitionen nicht findet. Und das klappt dann eben nicht mehr. Ebenso wenn die Platte zwar noch tut aber Lesefehler gerade auf /boot erzeugt. Man kann nicht gegen alles absichern. In der Praxis macht das wenig Unterschied, da das sehr künstliche/unwahrscheinliche Szenarien sind.
|
SmartGeist
(Themenstarter)
Anmeldungsdatum: 12. März 2013
Beiträge: 9
|
Der Sreenshot zeigt den Zustand wenn das RAID ok ist und beide Platten dran hängen. Entferne ich eine Platte oder hänge eine neue dran, dann werden sozusagen die letzten 3 /dev/ Einträge (mds und vgs) nicht mehr angezeigt. Dann ist es mir auch nicht mehr möglich das System einzuhängen. Die Partitionstabelle habe ich bei der zweiten echten Platte gelöscht, welche sich auch nicht mehr mit der Live CD booten lies. Ein komplettes überschreiben mit Nullen, hat zumindest das PRoblem mit der Live CD gelöst. In der VirtualBox habe ich folgendes gemacht: System installiert wie auf dem Screenshot im ersten Beitrag Gewartet bis das System laut /proc/mdstat ok ist ([UU]) GRUB auf die zweite Festplatte installiert mit
| sudo grub-install /dev/sdb
|
| sudo apt-get update
sudo apt-get upgrade
sudo apt-get dist-upgrade
sudo grub-install /dev/sdb
sudo update-grub
|
System einmal neugestartet System heruntergefahren und die erste Festplatte durch ein neues Festplattenimage ersetzt Neustart des Systems → was mit "Kein Boot Medium gefunden" quittiert wird, weil er von der ersten Platte versucht zu booten. Danach boote ich explizit von der zweiten Platte → GRUB wird ausgeführt Boote im Wiederherstellungsmodus, danach kommt entweder nur noch ein schwarzes Bild, sofortiger Reboot (im echten System) oder folgende Ausschrift.
| Linux 3.5.0-35-generic wird geladen ...
|
Nach dem schwarzen Bild oder der Ausschrift passiert nichts mehr und es gibt auch keine Festplatten aktivität.
Wenn das jetzt ein echter Ausfall wäre, wüsste ich nicht wie ich das RAID wieder in Ordnung bringen kann? Ich komme ja quasi nicht mehr ran... Mir gelingt es einfach nicht mir einer Festplatte (vornehmlich sdb) zu booten ☹
- Bilder
|
ArnoW
Anmeldungsdatum: 14. November 2009
Beiträge: 1090
Wohnort: Pfalz
|
Hast du denn deine RAIDs auch in die /etc/mdadm/mdadm.conf eingetragen, und danach ein update-initramfs gemacht? Die Namen deiner RAIDs (md126 und md127) sehen ein bisschen danach aus, als ob die Konfiguration fehlen würde.
|
SmartGeist
(Themenstarter)
Anmeldungsdatum: 12. März 2013
Beiträge: 9
|
ArnoW schrieb: Hast du denn deine RAIDs auch in die /etc/mdadm/mdadm.conf eingetragen, und danach ein update-initramfs gemacht? Die Namen deiner RAIDs (md126 und md127) sehen ein bisschen danach aus, als ob die Konfiguration fehlen würde.
weder noch weil ich davon ausgegangen bin, dass die Einrichtung automatisch über den Installer vorgenommen wird und das auch in keiner Anleitung dabei stand? Die Nummern von md werden komischerweise so nur in der Server CD (Installation und Rettungsumgebung) angezeigt, im eigentlichen System steht dann nur md0 und md1...
|
frostschutz
Anmeldungsdatum: 18. November 2010
Beiträge: 7651
|
Im Livesystem kanns natürlich keine auf dein system passende mdadm.conf geben. Ansonsten komme ich bei dem Thread leider nicht mehr so ganz mit, beim Installer kann ich auch nicht helfen. Wenn du das Problem auf der Konsole nachvollziehen kannst (Befehle und Fehlermeldungen und weitere Ausgaben wie fdisk -l, cat /proc/mdstat, mdadm --examine /dev/sd*, bzw. allgemein mdadm-Befehle und deren Fehlermeldungen die du bekommst, da könnte ich mehr mit anfangen. Das System installiert man ja (normalerweise) nur einmal und danach fasst man den Installer nie wieder an. Der Installer kann was frisches installieren, reparieren ist damit eher mühselig.
|
SmartGeist
(Themenstarter)
Anmeldungsdatum: 12. März 2013
Beiträge: 9
|
Die Frage ist ganz einfach. Ich installiere ein RAID 1 gemäß dem Screenshot weiter oben. Danach aktualisiere ich das System noch und installiere GRUB auf alle vorhandenen Platten. Sonst gibt es keine weiter konfiguration. Jetzt entferne ich die alte Festplatte (vornehmlich die erste - sda) nur durch abziehen und schließe eine neue Festplatte an (bei VirtualBox tausche ich das Festplattenimage durch ein neu erzeugtes Festplattenimage). Nun kann ich nicht mehr in das System booten. Ich komme nur noch bis zu GRUB und kann weder normal noch die Wiederherstellungkonsole booten. Meist passieret dann jeweils einer der folgende Punkte nach dem GRUB:
schwarzes Bild ohne Festplattenakivität Sofortiger Reboot → Endlosschleife hängt bei Ausschriften wie "Linux 3.5.0-35-generic wird geladen ..." dann auch keine Festplattenaktivität mehr
Also die Frage lautet jetzt, wie bringe ich das System aus der Lage wieder in einen konsistenten Zustand?
|
ArnoW
Anmeldungsdatum: 14. November 2009
Beiträge: 1090
Wohnort: Pfalz
|
So, ich habe jetzt extra mal eine neue Test-Installation (allerdings Quantal, und keine Desktop-, sondern die Server-Version, weil ich mit dem neuen Installer kein RAID aufsetzen konnte) in einer virtuellen Maschine auf einem RAID1 mit LVM gemacht. Nach der Installation habe ich folgendes gemacht: alle Updates GRUB auch auf die zweite Platte installiert sudo update-grub sudo dpkg-reconfigure mdadm, und dort eingestellt, dass er von herabgestuften RAIDs booten soll System heruntergefahren In der Konfiguration der virtuellen Maschine (Virtualbox) die zweite Platte entfernt
Anschließend Neustart: Ich kann deine Beobachtung
schwarzes Bild ohne Festplattenakivität
bestätigen. Wenn ich dann aber ca. 1 min warte, bootet das System ganz normal weiter. Hast du mal so lange gewartet?
|
SmartGeist
(Themenstarter)
Anmeldungsdatum: 12. März 2013
Beiträge: 9
|
Was du beschreibst funktioniert durch aus, in der Wiederherstellung sieht man soagr sofort ausgaben. Aber, ich habe ja mehrfach davon geschrieben die erste Festplatte (sda) zu entfernen/ersetzen und von der zweiten (sdb) zu booten. Ich bin nach deiner Anleitung vorgegangen und das stimmt auch was du sagst, wenn ich jetzt aber eben die erste (sda) als defekte simuliere, dann bleibt das Bild auch nach mehr als 5 min schwarz. In der Wiederherstellung steht dann auch nach 5 min nur "Linux 3.5.0-35-generic wird geladen ..."...
|
ArnoW
Anmeldungsdatum: 14. November 2009
Beiträge: 1090
Wohnort: Pfalz
|
Ich habe jetzt auch mal die erste Platte entfernt, und versucht, von der zweiten zu starten. Bei mir startet das System auch dann ganz normal. Das muss eigentlich auch so sein, wenn beide Platten identisch sind. Ist das bei dir sicher der Fall? In deinem ersten Post hast du etwas von der Verwendung der "integrierte(n) RAID-Einrichtungsfunktionailität" geschrieben. Hast du irgendeine Automatik verwendet? Falls ja (ich bin mir gerade unsicher, ob es so etwas für RAID überhaupt gibt), setz das RAID besser manuell auf. Was ich jetzt noch nicht getestet habe, ist, eine leere Platte als Ersatz für die fehlende anzuschließen, und dann zu starten. Das wird jetzt der nächste Versuch. Wenn das bei mir auch funktioniert, probiere ich das Ganze doch nochmal mit Precise, vielleicht gibt es da einen Bug. Ob mir das aber hilft zu verstehen, was bei dir schief läuft, kann ich nicht sagen. Irgendwie habe ich das Gefühl, dass bei dir ein Problem mit dem BIOS beim Booten von der zweiten Platte vorliegt. Darauf deutet das unnormale Verhalten hin, dass du bei deinem Startversuch mit einer Live-CD hattest. Du könntest einmal testen, was passiert, wenn du die erste Platte entfernst, dafür aber die zweite an den Anschluss der ersten hängst.
|
SmartGeist
(Themenstarter)
Anmeldungsdatum: 12. März 2013
Beiträge: 9
|
"integrierte(n) RAID-Einrichtungsfunktionailität" sollte nur die im Alternate-Installer integrierte Unterstützung für die RAID-Erstellung bezeichnen. Ich erstelle das ganze natürlich manuell mit dem Ergebnis, welches auf dem ersten Screenshot "Ubuntu_Server31.png" zu sehen ist. Dies entspricht auch ziemlich sehr den Vorgehen in folgenden Büchern:
Ubuntu Server - Installation, Konfiguration, Administration, Sicherheit - Micheal Kofler Ubuntu 12.04 LTS - Galileo OpenBooks
Ich habe nun auch mal die erste Platte entfernt, statt eine neues Image zu erstellen, das hat aber nichts verändert. Das Problem mit der Live-CD tratt nur im echten System auf, nicht aber in der VirtualBox. Die Ursache hatte ich auch gefunden, ich hab da irgendwas nicht richtig partitioniert und dies ist in den RAID-Meta erhalten gelieben. Ein totales Überschreiben mit Nullen hat das Problem beseitig. Also es gibt kein Problem mehr eine Live-CD zu booten.
|
ArnoW
Anmeldungsdatum: 14. November 2009
Beiträge: 1090
Wohnort: Pfalz
|
Ich hatte gestern Abend noch den angekündigten Versuch mit entfernter erster RAID-Platte, und anstatt dieser einer neuen völlig leeren Platte machen können. Alles natürlich virtuell unter VirtualBox. Dabei habe ich die von dir beschriebenen Bootprobleme beobachten können. Das System versucht, das RAID in degradetem Zustand zu starten, das gelingt aber nicht, und der Vorgang wiederholt sich in einer Endlosschleife. Nach dem Entfernen der leeren Platte und nun wieder allein angeschlossener zweiter RAID-Platte trat dann bei mehreren Startversuchen immer wieder der beschriebene Fehler auf. Das hat mich sehr überrascht, ließ sich doch das System vor diesem Versuch einwandfrei von dieser Platte starten. Zur Reparatur habe ich jetzt vor, von einer Live-CD zu starten (leere und zweite RAID-Platte ebenfalls angeschlossen), und das RAID offline zu synchronisieren. So eine Vorgehensweise wäre auch bei einem realen System der erste Schritt. Wenn das System dann weiter nicht bootet, wären eine Neuinstallation von GRUB (auch auf die "neue" Platte, wo noch kein GRUB ist), und ein Update des Initramfs aus einer chroot-Umgebung die nächsten Maßnahmen. Ich weiß aber noch nicht genau, wann ich dazu komme, könnte evtl etwas dauern.
|