ubuntuusers.de

NAS-System: eine Festplatte defekt

Status: Ungelöst | Ubuntu-Version: Ubuntu MATE 18.04 (Bionic Beaver)
Antworten |

Wolfmann

Anmeldungsdatum:
7. Oktober 2018

Beiträge: 346

Hallo,

ich habe auf einem raspberry pi (Version 3) mir ein NAS-System aufgesetzt. Neulich ist mir beim Aufräumen der Stecker des USB-Ports, an dem die beiden Festplatten angeschlossen sind, aus der Steckdose geraten. Seither funktioniert eine der beiden Platten nicht mehr (hat zumindest cat /proc/mdstat angezeigt) Es handelt sich um ein gespiegeltes NAS (RAID 1). Kann man da noch irgendwas retten oder sind die Daten futsch? Habe schon die Festplatten neu in die USB-Anschlüsse gesteckt - hat aber nichts genützt.

Gibt es eine Möglichkeit, ein mit mdadm erstelltes Raid-System zu reparieren?

sebix Team-Icon

Moderator, Webteam

Anmeldungsdatum:
14. April 2009

Beiträge: 5582

Der Sinn und Zweck eines RAID 1 ist es gerade, dass bei einem Defekt bei einer der beiden Festplatten die Daten nicht verloren sind.

Zur Reparatur: Software-RAID (Abschnitt „Festplattenausfall“)

Wolfmann

(Themenstarter)

Anmeldungsdatum:
7. Oktober 2018

Beiträge: 346

Danke erstmal für die Antwort. Ich habe mich mal dran gesetzt und folgende Informationen erhalten:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdb1[1]
      3906851840 blocks super 1.2 [2/1] [_U]
      bitmap: 2/30 pages [8KB], 65536KB chunk

unused devices: <none:~ $ sudo mdadm --detail /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Fri Dec 13 17:37:17 2019
        Raid Level : raid1
        Array Size : 3906851840 (3725.86 GiB 4000.62 GB)
     Used Dev Size : 3906851840 (3725.86 GiB 4000.62 GB)
      Raid Devices : 2
     Total Devices : 1
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Thu Jan 19 06:43:02 2023
             State : clean, degraded
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       17        1      active sync
:~ $ lsblk
NAME        MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda           8:0    0  3,7T  0 disk
└─sda1        8:1    0  3,7T  0 part
sdc           8:32   0  3,7T  0 disk
└─sdc1        8:33   0  3,7T  0 part
mmcblk0     179:0    0 14,9G  0 disk
├─mmcblk0p1 179:1    0  256M  0 part /boot
└─mmcblk0p2 179:2    0 14,6G  0 part /

Allerdings sind mir einige Sachen noch nicht klar. Bei /proc/mdstat steht irgendwas von einer Platte namens sdb1. Wenn ich lsblk machen, erscheint allerdings nur sda1 und sdc1. Bei der detaillierten Ausgabe von mdadm scheint es mir so, dass die erste Platte (müsste logischerweise dann wohl sda1 sein) nicht mehr funktioniert. Stimmt das soweit? Wollte mich nur rückversichern, bevor ich eine neue Platte bestelle - damit ich dann auch die richtige entferne.

Antworten |