Hey, ich bin hier gerade echt am verzweifeln und bange gerade um 4 Festplatten voll mit Daten die nicht mehr erreichbar sind.
Ich habe ein Software RAID, was ich über ein Raspberry PI zu einem NAS gemacht habe und welches 4 Festplatten im RAID5 Verbund enthielt. Da der Speicherplatz zur Neige ging, hatte ich vor eine fünfte Platte anzuschließen und habe sie wie im zugehörigen Wiki Artikel (Software-RAID) beschrieben hinzugefügt, partitioniert, --grow Befehl (mit backup Datei in /tmp) aufgerufen und gewartet.
Das Problem ist nun, dass während des natürlich etwas andauernden Reshapes es vorgekommen ist, dass 2 Festplatten kurz ausgegangen waren und somit das RAID im Zustand [ _ _UUU] war und somit nicht funktionstüchtig war, was allerdings im Normalfall kein sehr großes Problem sein sollte, da ja die Platten mit --re-add "einfach" wieder hinzugefügt werden könnten. Das eigentliche Problem ist, dass das ganze eben während des reshapes verlaufen ist, das Raspberry PI neugestartet wurde und somit selbstverständlich, der /tmp Ordner mitsamt backup Datei natürlich weg ist (an der Stelle sei übrigens mal die Frage gestattet, wer überhaupt auf so grandiose Ideen kommt in einem Wiki-Artikel zu empfehlen, anscheinend wichtige Sicherungsdateien in einem Arbeitsspeicher ähnlichem Festplatten Bereich speichern zu lassen...)
Also Fazit: ich kann natürlich, dass RAID via --create und --assume-clean zusammen kleistern und habe dann einen Verbund, aber beim mounten kommt dann spätestens die Meldung
1 2 3 4 | mount: wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error In some cases useful info is found in syslog - try dmesg | tail or so |
Ist es möglich, das RAID irgendwie oder zumindest teilweise via efsck oder ähnlichem noch zu retten oder glatt einfach in den Ausgangszustand wieder herzustellen?
Wäre echt für jede Hilfe sehr dankbar. MfG Tjong