@U0669 Es ist ein Raspberry Pi 4b und einen anderen testen wird heute schwierig werden. Alle Pi's die ich je gekauft habe sind 4b's, 3 Stück hatte ich noch die noch eingepackt sind
SSD sehr langsam
(Themenstarter)
Anmeldungsdatum: Beiträge: 148 Wohnort: Maxdorf |
|
(Themenstarter)
Anmeldungsdatum: Beiträge: 148 Wohnort: Maxdorf |
Ich schreibe mal was ich bis jetzt so gemacht habe, vielleicht ist ja ein Fehler dabei pacman -S gparted pacman -S gdisk pacman -S parted habe ich installiert parted /dev/sda mklabel gpt parted -a optimal -- /dev/sda mkpart primary 2048s -8192s parted /dev/sda set 1 raid on sgdisk /dev/sda -R /dev/sdb sgdisk -G /dev/sdb habe ich ausgeführt pacman -S mdadm mdadm --create --verbose /dev/md/raid --level=1 --raid-devices=2 /dev/sda1 /dev/sdb1 installiert und ausgeführt und dann kam mdadm: partition table exists on /dev/sda1 mdadm: partition table exists on /dev/sda1 but will be lost or meaningless after creating array mdadm: Note: this array has metadata at the start and may not be suitable as a boot device. If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use --metadata=0.90 mdadm: partition table exists on /dev/sdb1 mdadm: partition table exists on /dev/sdb1 but will be lost or meaningless after creating array mdadm: size set to 1000067392K mdadm: automatically enabling write-intent bitmap on large array Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md/raid started. mdadm: timeout waiting for /dev/md/raid und dann will ich formatieren mkfs.ext4 /dev/md127 Cluster size has been automatically set to 4096 bytes. Initializing device with zeroes: 0% zum Überprüfen cat /proc/mdstat und wieder langsam Personalities : [raid1] md127 : active raid1 sdb1[1] sda1[0] 1000067392 blocks super 1.2 [2/2] [UU] [>....................] resync = 0.0% (37440/1000067392) finish=82321.2min speed=202K/sec bitmap: 8/8 pages [32KB], 65536KB chunk unused devices: <none> |
Anmeldungsdatum: Beiträge: 1095 |
Sorry, aber das ist Unsinn. SMR ist eine Methode der magnetischen Aufzeichnung auf eine (im Wortsinn) Festplatte, also eine rotierende Magnetscheibe. Bei SSD gibt’s das ebensowenig wie Zurückspulen bei Youtube-Videos. --ks |
Anmeldungsdatum: Beiträge: 3759 |
Ja, alles richtig, soviel zum Thema Gedächtnis. Ich meinte eigentlich den Unterschied zwischen SLC, MLC, TLC und QLC und den Geschwindigkeitseinbruch bei TLC und QLC, wenn der Cache voll ist. Siehe https://ssd-tester.de/text_tlc_versus_qlc_speicherzellen.php. Aber so langsam wie beschrieben sollte sich das eigentlich nicht äußern. @Windoofer: hier noch 2 Fundstücke zum Thema Geschwindigkeit bei RAID-Sync zw. -Rebuild: https://www.cyberciti.biz/tips/linux-raid-increase-resync-rebuild-speed.html https://mellowhost.com/blog/how-to-speed-up-software-raid-mdadm-resync-speed.html |
Supporter, Wikiteam
Anmeldungsdatum: Beiträge: 9353 Wohnort: Münster |
|
(Themenstarter)
Anmeldungsdatum: Beiträge: 148 Wohnort: Maxdorf |
@kB dingsbums postet den Link https://forum.ubuntuusers.de/topic/samba-extremst-langsam/#post-9245038 wo drin steht das es mit dem Betriebssystem Manjaro funktioniert hat, es hat aber bei mir leider nicht funktioniert, ich werden wieder einen Ubuntu Server nehmen. @dingsbum die 2 Links sehen sehr interessant aus, ich werde sie bei Gelegenheit ausprobieren |
(Themenstarter)
Anmeldungsdatum: Beiträge: 148 Wohnort: Maxdorf |
Hallo dingsbums also ich habe mich mal durch die Seiten gestöbert was du verlinkst hattest und auch probiert [root@172 ~]# sysctl dev.raid.speed_limit_min dev.raid.speed_limit_min = 1000 [root@172 ~]# sysctl dev.raid.speed_limit_max dev.raid.speed_limit_max = 200000 dann habe ich das gemacht sysctl -w dev.raid.speed_limit_min=500000 sysctl -w dev.raid.speed_limit_max=5000000 da ein getragen nano /etc/sysctl.conf dev.raid.speed_limit_min = 500000 dev.raid.speed_limit_max = 5000000 gespeichert sysctl -p den Befehl aus geführt blockdev --setra 65536 /dev/md127 auch diesen Befehl getestet mdadm --grow --bitmap=internal /dev/md127 und zwischen jeden Schritt diesen Befehl aus geführt um zu schauen ob sich was ändert aber das Ergebniss ist [root@Nextcloud pi]# cat /proc/mdstat Personalities : [raid1] md127 : active raid1 sdb1[1] sda1[0] 1000067392 blocks super 1.2 [2/2] [UU] [>....................] resync = 0.9% (9713664/1000067392) finish=1105223.0min speed=14K/sec bitmap: 8/8 pages [32KB], 65536KB chunk der Befehl mdadm --detail /dev/md127 liefert /dev/md127: Version : 1.2 Creation Time : Sun Apr 28 11:15:40 2024 Raid Level : raid1 Array Size : 1000067392 (953.74 GiB 1024.07 GB) Used Dev Size : 1000067392 (953.74 GiB 1024.07 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Thu May 2 20:16:23 2024 State : clean, resyncing Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Consistency Policy : bitmap Resync Status : 0% complete Name : Nextcloud:raid (local to host Nextcloud) UUID : 360cc2c8:ffd83671:7e99be9e:fe881a2e Events : 4481 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 17 1 active sync /dev/sdb1 |
Anmeldungsdatum: Beiträge: 3759 |
Fällt dann wohl unter die Rubrik „Zuerst hatten wir kein Glück und dann kam auch noch Pech dazu.“ ―Jürgen Wegmann. 😉 |
(Themenstarter)
Anmeldungsdatum: Beiträge: 148 Wohnort: Maxdorf |
es sieht wohl so aus als wäre es unmöglich? |
Anmeldungsdatum: Beiträge: 3759 |
https://www.digitalocean.com/community/tutorials/how-to-create-raid-arrays-with-mdadm-on-ubuntu Führe alle beschriebenen Schritte der Abschnitte "Resetting Existing RAID Devices" und "Creating a RAID 1 Array" durch. Wenn ich das richtig lese, wird dort das RAID ohne Partitionen direkt auf den Devices angelegt: sudo mdadm --create --verbose /dev/md0 --level=1 --raid-devices=2 /dev/sda /dev/sdb Vielleicht ändert das ja etwas am Verhalten. |
(Themenstarter)
Anmeldungsdatum: Beiträge: 148 Wohnort: Maxdorf |
Hallo und sorry das ich mich erst jetzt wieder melde zu meinem Raid Problem. Hatte viel um die Ohren. Habe jetzt noch ein bisschen mit den Festplatten rum experimentiert. Habe einen Windows 10 PC installiert, hab dort die 2 externen Festplatte angeschlossen, neu formatiert, Daten drauf geschoben usw.kein Problem und super schnell. Hab dann die Partition wieder gelöscht und wollte die 2 Festplatten im Windows spiegeln, 2 Platte ausgewählt und dann kam die Meldung"Vorgang wird vom Objekt nicht unterstützt" @dingsbums der Befehl sudo mdadm --create --verbose /dev/md0 --level=1 --raid-devices=2 /dev/sda /dev/sdb ist der gleiche den ich auch benutzt habe |
Anmeldungsdatum: Beiträge: 3759 |
Soweit mir bekannt kann Windows nur spiegeln, wenn die Datenträger als "dynamischer Datenträger" eingerichtet sind. Mit Basisdatenträgern geht das nicht. Also vorher in der Datenträgerverwaltung umwandeln. Siehe z.B https://www.windows-faq.de/2019/08/15/software-raid-1-spiegelung-unter-windows-10-einrichten/
Ja, sehe es auch gerade. Hab ich überlesen. |
(Themenstarter)
Anmeldungsdatum: Beiträge: 148 Wohnort: Maxdorf |
Hallo dingsbums Die Festplatten wollen sich auch nicht in einen dynamischer Datenträger umwandeln lassen, auch hier kommt die Fehlermeldung "Vorgang wird vom Objekt nicht unterstützt" |
Anmeldungsdatum: Beiträge: 51 |
Hallo, egal welcher Raspi es auch sein mag - kein Raspi liefert OHNE aktiven HUB genug Saft für zwei SSDs. Ergo liest die eine, dann schreibt die andere (und da hat sie den maximalen Strombedarf) und die erste ist in dem Moment quasi abgemeldet. |
Anmeldungsdatum: Beiträge: 1113 |
Mit diesen Intenso usw. SSDs sehe ich kein Problem, das sind Produktionen aus China und von Intenso für gut befunden, es kann nur sein dass sie langsamer sind als Marken, wenn du viele GB kopierst z.B. oder vergisst trim zu machen( sudo fstrim -v / ). Dafür sind sie aber auch günstiger. Würde trotzdem Cacheless Marke kaufen wenn ich sie im produktiven Einsatz habe. Cache braucht man nur wenn man hohe Geschwindigkeiten braucht. Du musst schauen dass der Strom für die Dinger ausreicht, SSDs brauchen wesentlich weniger als HDDs. Du musst dir eine gute Anleitung raussuchen wie du dir dein Raid einrichtest. |