fahrer17
Anmeldungsdatum: 27. November 2011
Beiträge: 120
Wohnort: Fast Berlin :-)
|
Hallo, ich denke, hier ist das Thema schon richtig... 😐 Ich möchte ein RAID1 für einen Server anlegen (wird [noch] kein produktiver, vorerst ein Experimentierserver zum Lernen 😉 ). Auf den zwei Platten werden sich NUR Daten befinden, das OS ist auf einer dritten Platte (hat historische Gründe).
Den Wiki-Artikel Software-RAID hier kenne ich natürlich, habe aber (trotzdem) folgende Frage: Laut Artikel soll zuerst eine neue Partitionstabelle erstellt werden, brauche ich die auch? Wenn ja, wofür? Partitionstabelle klingt für mich irgendwie wie "wichtig zum Booten"...
Weiterhin wird erwähnt, dass man - um später keine Probleme zu bekommen - einige Sektoren freilassen sollte - wonach richtet sich die Größe? Gibt es eine Faustregel wie x% der HDD? Danke+Gruß
fahrer17
|
frostschutz
Anmeldungsdatum: 18. November 2010
Beiträge: 7651
|
Laut Artikel soll zuerst eine neue Partitionstabelle erstellt werden, brauche ich die auch? Wenn ja, wofür?
Eine Partitionstabelle schafft Sicherheitsabstand (1MB vom Anfang, ggf. je nach Partitionsgröße auch was vom Ende), deklariert anhand des Partitionstyps wofür das Ding verwendet wird, und verhindert dadurch so manchen Unfall. Es gibt Installer, Partitionierungsprogramme, u.a. Softwares die ein Gerät ohne Partitionstabelle als Freiwild betrachten und dann eben was drauf schreiben - nur wenn dann schon ein LUKS-Header, RAID-Metadaten, Dateisystem etc. pp. drauf waren, geht dann halt was kaputt.
Weiterhin wird erwähnt, dass man - um später keine Probleme zu bekommen - einige Sektoren freilassen sollte
Dabei gehts darum, daß Festplatten unterschiedlicher Hersteller auch unterschiedlich groß sein können, auch wenn beide z.B. als 2TB Festplatte verkauft werden. 2TB sind 2000000000 Bytes, aber meine 2TB Festplatte hat z.B. 2000398934016 Bytes. Wenn du 140% sicher gehen willst daß jede 2TB Festplatte groß genug ist für dein RAID, bleibst du bei den 2000000000 Bytes. In dem Beispiel würde man dafür also 381MiB opfern. Die meisten Leute opfern weniger (eigentlich hat jede 2TB Platte mehr als 2000000000) oder auch gar nichts. Ein Problem ist das nicht wirklich, denn solltest du tatsächlich mal an eine kleinere Ersatzplatte geraten, kannst du immer noch das RAID selbst nachträglich verkleinern.
|
fahrer17
(Themenstarter)
Anmeldungsdatum: 27. November 2011
Beiträge: 120
Wohnort: Fast Berlin :-)
|
frostschutz schrieb: Laut Artikel soll zuerst eine neue Partitionstabelle erstellt werden, brauche ich die auch? Wenn ja, wofür?
Eine Partitionstabelle schafft Sicherheitsabstand (1MB vom Anfang, ggf. je nach Partitionsgröße auch was vom Ende), deklariert anhand des Partitionstyps wofür das Ding verwendet wird, und verhindert dadurch so manchen Unfall. Es gibt Installer, Partitionierungsprogramme, u.a. Softwares die ein Gerät ohne Partitionstabelle als Freiwild betrachten und dann eben was drauf schreiben - nur wenn dann schon ein LUKS-Header, RAID-Metadaten, Dateisystem etc. pp. drauf waren, geht dann halt was kaputt.
Denke, dass heißt dann ja 😉 Danke für die Erklärung, war mir so nicht klar! Für eine Neuinstallation in einer VM nehme ich dann aber schon die UEFI-Lösung, oder? Weiterhin wird erwähnt, dass man - um später keine Probleme zu bekommen - einige Sektoren freilassen sollte
Dabei gehts darum, daß Festplatten unterschiedlicher Hersteller auch unterschiedlich groß sein können, auch wenn beide z.B. als 2TB Festplatte verkauft werden.
Ja, das hatte ich verstanden, mir ging es hier nur darum, ob es eine Faustformel oder eine Regel gibt.
2TB sind 2000000000 Bytes, aber meine 2TB Festplatte hat z.B. 2000398934016 Bytes. Wenn du 140% sicher gehen willst daß jede 2TB Festplatte groß genug ist für dein RAID, bleibst du bei den 2000000000 Bytes. In dem Beispiel würde man dafür also 381MiB opfern. Die meisten Leute opfern weniger (eigentlich hat jede 2TB Platte mehr als 2000000000) oder auch gar nichts. Ein Problem ist das nicht wirklich, denn solltest du tatsächlich mal an eine kleinere Ersatzplatte geraten, kannst du immer noch das RAID selbst nachträglich verkleinern.
|
frostschutz
Anmeldungsdatum: 18. November 2010
Beiträge: 7651
|
fahrer17 schrieb: Für eine Neuinstallation in einer VM nehme ich dann aber schon die UEFI-Lösung, oder?
Wie du willst. Das ist Geschmackssache. Ich nutze GPT Partitionen, aber altmodische Boot mit Grub und fertig (eine 1MB bios_grub Partition). Richtiges EFI oder gar secure boot habe ich mir noch nicht angetan. Es gibt Situationen wo man nicht drum herumkommt (Dualboot mit Windows wenn Windows schon mit EFI installiert wurde) aber das betrifft mich zum Glück nicht. Es gibt auch immer noch Leute die mit MS-DOS Partitionen herummachen und solange es nicht größer als 2TB wird hat man davon auch keinen Nachteil.
|
fahrer17
(Themenstarter)
Anmeldungsdatum: 27. November 2011
Beiträge: 120
Wohnort: Fast Berlin :-)
|
Habe jetzt mit der UEFI-Version die Befehle aus dem Wiki-Artikel eingegeben zur Erstellung meines RAIDs.
Ich bekomme dabei folgende Meldung:
mdadm: /dev/sdb appears to be part of a raid array:
level=raid0 devices=0 ctime=Thu Jan 1 01:00:00 1970
mdadm: partition table exists on /dev/sdb but will be lost or
meaningless after creating array
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: /dev/sdc appears to be part of a raid array:
level=raid0 devices=0 ctime=Thu Jan 1 01:00:00 1970
mdadm: partition table exists on /dev/sdc but will be lost or
meaningless after creating array
Klingt für mich, als ob die Partitionstabelle ohnehin überschrieben wird, oder? Nun wird jedenfalls das Array erstellt. Dann muss ich ja "nur" noch ein Dateisystem erstellen und die /etc/fstab anpassen.
Für das Dateisystem warte ich aber schon, bis das Array erstellt ist, oder?
|
frostschutz
Anmeldungsdatum: 18. November 2010
Beiträge: 7651
|
fahrer17 schrieb: Klingt für mich, als ob die Partitionstabelle ohnehin überschrieben wird, oder?
Wenn du Partitionen hast, dann legst du das RAID natürlich auch mit den Partitionen an, und nicht mit der gesamten Platte. Und wenn du da schon Metadaten draufgebracht hast, machst du die mit mdadm --zero-superblock /dev/sdb wieder weg bevor du auf sdb partitionierst. Das fragliche RAID muss dazu auch schon gestoppt sein, sonst schreibt es die Metadaten wieder zurück...
Für das Dateisystem warte ich aber schon, bis das Array erstellt ist, oder?
Du musst nicht warten bis der Sync fertig ist. Du kannst sofort loslegen.
|
fahrer17
(Themenstarter)
Anmeldungsdatum: 27. November 2011
Beiträge: 120
Wohnort: Fast Berlin :-)
|
Also als erstes Danke für deine Geduld und deine hilfreichen Antworten - hast mir ja schon etliche Male geholfen! 👍 frostschutz schrieb: fahrer17 schrieb: Klingt für mich, als ob die Partitionstabelle ohnehin überschrieben wird, oder?
Wenn du Partitionen hast, dann legst du das RAID natürlich auch mit den Partitionen an, und nicht mit der gesamten Platte.
DAS ist auch so eine Sache, die ich nicht verstehe und vergessen hatte zu fragen: Ich will ja die kompletten Platten als Datengrab nutzen, das OS liegt sowieso woanders - da machen doch mehrere Partitionen keinen Sinn, oder? Und da hätte ich mir auch die Partitionstabellen ersparen können...? Und wenn du da schon Metadaten draufgebracht hast, machst du die mit mdadm --zero-superblock /dev/sdb wieder weg bevor du auf sdb partitionierst. Das fragliche RAID muss dazu auch schon gestoppt sein, sonst schreibt es die Metadaten wieder zurück...
Das hatte ich in der Arch-Wiki zu RAID gefunden, aber da ich die Platten neu in/für die VM erstellt hatte, gelassen. Im richtigen Leben mit echten Festplatten hätte ich das gemacht.
Für das Dateisystem warte ich aber schon, bis das Array erstellt ist, oder?
Du musst nicht warten bis der Sync fertig ist. Du kannst sofort loslegen.
Ok, gut zu wissen. Da die Platten je nur 15GB groß sind, war es aber zwischenzeitlich schon fertig. Ein
sudo lsblk -o NAME,UUID,FSTYPE,SIZE,LABEL,MOUNTPOINT ergibt jetzt
NAME UUID FSTYPE SIZE LABEL MOUNTPOINT
sda 20G
├─sda1 3027dbbc-b980-461d-bd74-1c6233dced57 ext4 18G /
├─sda2 1K
└─sda5 68365922-e3b7-4716-a447-cf93857c1479 swap 2G [SWAP]
sdb c13e18f4-3000-0938-2317-f5ed323a66f2 linux_raid_member 15G ubuntuserver:0
└─md0 5a488a80-fba8-44c6-8456-81409043cfab ext4 15G /media/daten
sdc c13e18f4-3000-0938-2317-f5ed323a66f2 linux_raid_member 15G ubuntuserver:0
└─md0 5a488a80-fba8-44c6-8456-81409043cfab ext4 15G /media/daten Klingt doch gut soweit, oder? Soll das so das aussehen?
|
frostschutz
Anmeldungsdatum: 18. November 2010
Beiträge: 7651
|
Na ja, so sieht es aus wenn du auf die Partitionstabelle verzichtest. Das kann man ja so machen. Musst du ja selbst wissen, ob du die Partitionstabelle brauchst bzw. haben willst, oder nicht. Zum "Warum trotzdem partitionieren" hab ich ja in der ersten Antwort schon geschrieben.
|
fahrer17
(Themenstarter)
Anmeldungsdatum: 27. November 2011
Beiträge: 120
Wohnort: Fast Berlin :-)
|
Hm, ich wollte die eigentlich schon haben, klang ja nach deiner Definition durchaus sinnvoll...
Ich habe mich streng an die Wiki gehalten, was habe ich denn dann falsch gemacht?
|
fahrer17
(Themenstarter)
Anmeldungsdatum: 27. November 2011
Beiträge: 120
Wohnort: Fast Berlin :-)
|
Sooo, hatte inzwischen mal wieder Zeit, an (m)einem RAID1 herumzubasteln, diesmal jedoch an meinem echten Server. Ich habe alles wie im Wiki beschrieben per CLI ausgeführt, dabei gab es keine Fehlermeldungen - ich denke, diesmal auch mit Partitionstabelle. Wenn ich mir das ganze anschließend jedoch unter "Laufwerke" ansehe, gibt es die im Anhang gezeigte Fehlermeldung.
Das ist der zweite Anlauf, die Fehlermeldung hatte ich im ersten Versuch auch, war mir jedoch nicht sicher, alles korrekt ausgeführt zu haben.
Laut "Laufwerke" sollen beide Platten in Ordnung sein, es gab keinerlei Auffälligkeiten in irgendeiner Form. Jetzt bin ich völlig am Ende mit meinem Linux-Latein - was ist denn hier los??? 😲 An dieser Stelle folgender Hinweis: Der Rechner lief als NAS mit OMV (= Debian-Basis) ein halbes Jahr problemlos, irgendwann wurde das damals vorhandene RAID1 aber wiederholbar nur noch lesbar gemountet. Seitdem versuche ich, dem Problem auf die Spur zu kommen und habe diesbezüglich hier im Forum auch schon mal nach der Erklärung der SMART-Werte gefragt: http://forum.ubuntuusers.de/topic/verstehe-s-m-a-r-t-werte-nicht/
- Bilder
|
fahrer17
(Themenstarter)
Anmeldungsdatum: 27. November 2011
Beiträge: 120
Wohnort: Fast Berlin :-)
|
So, habe in einem Menü angehängte Fehlermeldung gefunden - lässt das auf eine defekte Platte schließen? Wenn ja, wie kann ich das feststellen? Die SMART-Werte sind auf den ersten Blick in Ordnung...?! Ein "smartctl -t long" läuft bereits... Edit: Hier das Ergebnis von "smartctl -t short": smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.13.0-32-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Device Model: WDC WD40EFRX-68WT0N0
Serial Number: WD-WCC4E799AJR4
LU WWN Device Id: 5 0014ee 20a64ae4c
Firmware Version: 80.00A80
User Capacity: 4.000.787.030.016 bytes [4,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5400 rpm
Device is: Not in smartctl database [for details use: -P showall]
ATA Version is: ACS-2 (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 1.5 Gb/s)
Local Time is: Sat Jan 24 17:10:41 2015 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (52320) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 523) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x703d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 175 173 021 Pre-fail Always - 8225
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 102
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 100 253 000 Old_age Always - 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 362
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 253 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 54
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 19
193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 313
194 Temperature_Celsius 0x0022 117 113 000 Old_age Always - 35
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 2
200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0
SMART Error Log Version: 1
ATA Error Count: 2
CR = Command Register [HEX]
FR = Features Register [HEX]
SC = Sector Count Register [HEX]
SN = Sector Number Register [HEX]
CL = Cylinder Low Register [HEX]
CH = Cylinder High Register [HEX]
DH = Device/Head Register [HEX]
DC = Device Command Register [HEX]
ER = Error register [HEX]
ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.
Error 2 occurred at disk power-on lifetime: 304 hours (12 days + 16 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
04 51 01 00 00 00 00 Error: ABRT
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
b0 d5 01 e1 4f c2 00 08 04:18:18.058 SMART READ LOG
b0 d6 01 e0 4f c2 00 08 04:18:18.058 SMART WRITE LOG
b0 d5 01 e0 4f c2 00 08 04:18:18.058 SMART READ LOG
b0 d6 01 e0 4f c2 00 08 04:18:18.057 SMART WRITE LOG
b0 d5 01 e0 4f c2 00 08 04:18:18.057 SMART READ LOG
Error 1 occurred at disk power-on lifetime: 303 hours (12 days + 15 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
04 51 01 00 00 00 00 Error: ABRT
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
b0 d5 01 e1 4f c2 00 08 04:14:13.980 SMART READ LOG
b0 d6 01 e0 4f c2 00 08 04:14:13.979 SMART WRITE LOG
b0 d6 01 e0 4f c2 00 08 04:14:13.970 SMART WRITE LOG
b0 d5 01 e0 4f c2 00 08 04:14:13.970 SMART READ LOG
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 362 -
# 2 Short offline Completed without error 00% 337 -
# 3 Short offline Completed without error 00% 337 -
# 4 Extended offline Aborted by host 60% 308 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
- Bilder
|