t4rj4n
Anmeldungsdatum: 3. Januar 2025
Beiträge: 7
|
Hallo und frohes Neues, ich habe ein kleines Performance Problem mit einem kleinen Linux Server (Ubuntu Server 22.04.5 LTS).
Bevor ich weitere Daten abgebe kurze Beschreibung. Ich nutze den Server (Quieter3Q mit 8GB Ram und Celeron N5105) unter anderem als lokalen Samba und FTP Server. Ein Upload von meinem Windows PC auf den Server läuft auf ein Share auf der externen Festplatte (NTFS/SanDisk SSD Plus 480@UGREEN USB 3.0) sehr schnell (ca. 80MBytes/s)
und auf die interne M2.NVME (EXT4/WD Blue SN570 NVMe) kriechend langsam (zeitweise nur 6Mbytes/s, schnellt stellen weise hoch und wieder runter). Dies ist reproduzierbar mit Samba, FTP, SCP. Ich habe leider keine Idee woran das liegen könnte. Eigentlich würde man dies andersherum erwarten.
Ein lokaler Disk Benchmark zeigt eigentlich, dass die NVME schneller sein müsste: /dev/nvme0n1 vendor: Western Digital model: WD Blue SN570 250GB size: 232.89 GiB, nvme0n1p3(ubuntu--vg-ubuntu--lv) -> /
/dev/sda type: USB vendor: SanDisk model: SSD PLUS 480GB size: 447.14 GiB, /dev/sda1 -> /media/extdisk /dev/sda:
Timing cached reads: 12346 MB in 2.00 seconds = 6184.71 MB/sec
Timing buffered disk reads: 636 MB in 3.22 seconds = 197.55 MB/sec
/dev/nvme0n1:
Timing cached reads: 12478 MB in 2.00 seconds = 6251.25 MB/sec
Timing buffered disk reads: 4084 MB in 3.00 seconds = 1360.91 MB/sec
dd if=/dev/zero of=/tmp/output bs=8k count=40k; rm -f /tmp/output
40960+0 records in
40960+0 records out
335544320 bytes (336 MB, 320 MiB) copied, 0.298677 s, 1.1 GB/s
dd if=/dev/zero of=/media/extdisk/output bs=8k count=40k; rm -f /media/extdisk/output
40960+0 records in
40960+0 records out
335544320 bytes (336 MB, 320 MiB) copied, 2.65285 s, 126 MB/s Hat jemand eine Idee warum der Netwerkzugriff auf die NVME so absurd langsam ist?
Zur Info: Zwischen Windows Client und Server ist ein 5G WLAN, dies müsste aber schnell genug sein wie man bei Samba sehen kann. Vielen Dank für die Unterstützung im Vorraus. Im Anhang sind noch weiter Infos wie lsblk, inxi, fstab
|
schwarzheit
Supporter
Anmeldungsdatum: 31. Dezember 2007
Beiträge: 3705
|
t4rj4n schrieb:
Im Anhang sind noch weiter Infos wie lsblk, inxi, fstab
Die Infos gehören in einen Codeblock nicht in den Anhang.
|
t4rj4n
(Themenstarter)
Anmeldungsdatum: 3. Januar 2025
Beiträge: 7
|
Ok.
Weitere Infos: ----------------------------- lsblk -----------------------------
sudo lsblk -o NAME,FSTYPE,SIZE,MOUNTPOINT,LABEL
NAME FSTYPE SIZE MOUNTPOINT LABEL
loop0 squashfs 55.7M /snap/core18/2829
loop1 squashfs 55.4M /snap/core18/2846
loop2 squashfs 64M /snap/core20/2379
loop3 squashfs 63.7M /snap/core20/2434
loop4 squashfs 87M /snap/lxd/29351
loop5 squashfs 89.4M /snap/lxd/31333
loop6 squashfs 1.1M /snap/mosquitto/885
loop7 squashfs 1.1M /snap/mosquitto/904
loop8 squashfs 38.8M /snap/snapd/21759
loop9 squashfs 44.3M /snap/snapd/23258
sda 447.1G
+-sda1 ntfs 447.1G /media/extdisk New Volume
mmcblk1 230.5G
+-mmcblk1p1 vfat 100M SYSTEM
+-mmcblk1p2 16M
+-mmcblk1p3 ntfs 229.5G
+-mmcblk1p4 ntfs 900M Recovery
mmcblk1boot0 4M
mmcblk1boot1 4M
nvme0n1 232.9G
+-nvme0n1p1 vfat 1G /boot/efi
+-nvme0n1p2 ext4 2G /boot
+-nvme0n1p3 LVM2_member 229.8G
+-ubuntu--vg-ubuntu--lv ext4 100G /
----------------------------- inxi -----------------------------
inxi -D
Drives:
Local Storage: total: 910.5 GiB used: 102.3 GiB (11.2%)
ID-1: /dev/mmcblk1 model: A3A444 size: 230.47 GiB
ID-2: /dev/nvme0n1 vendor: Western Digital model: WD Blue SN570 250GB size: 232.89 GiB
ID-3: /dev/sda type: USB vendor: SanDisk model: SSD PLUS 480GB size: 447.14 GiB
----------------------------- fstab -----------------------------
# /etc/fstab: static file system information.
#
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point> <type> <options> <dump> <pass>
# / was on /dev/ubuntu-vg/ubuntu-lv during curtin installation
/dev/disk/by-id/dm-uuid-LVM-72ofKF7eofNBHebZvmvfg25zL3vlhcrsdGiZ5GawSegaQNSwhc71GSrYIo4FrbNE / ext4 defaults 0 1
# /boot was on /dev/nvme0n1p2 during curtin installation
/dev/disk/by-uuid/010df60c-2453-4ab2-9d66-61e65efc75d0 /boot ext4 defaults 0 1
# /boot/efi was on /dev/nvme0n1p1 during curtin installation
/dev/disk/by-uuid/F7F7-EA75 /boot/efi vfat defaults 0 1
/swap.img none swap sw 0 0
/dev/disk/by-uuid/304C26704C2630D0 /media/extdisk ntfs defaults 0 2
|
micneu
Anmeldungsdatum: 19. Januar 2021
Beiträge: 676
Wohnort: Hamburg
|
Warum nicht über Ethernet, WLAN ist immer ein geteiltes medium? Warum eine Platte Freigeben die im NTFS-Formatiert ist, du nutzt sie doch unter Linux, warum nicht ext4? das "model A3A444" ist nicht sehr schnell was ich so gegooglet habe
|
t4rj4n
(Themenstarter)
Anmeldungsdatum: 3. Januar 2025
Beiträge: 7
|
micneu schrieb: Warum nicht über Ethernet, WLAN ist immer ein geteiltes medium?
Weil dort wo der Windows PC steht keine Netzwerkbuchse zur Verfügung steht.
Ich werde aber über den Flur eine Kabel legen und den Test wiederholen um das Wlan als Fehlerquelle auszuschließen.
2. Warum eine Platte Freigeben die im NTFS-Formatiert ist, du nutzt sie doch unter Linux, warum nicht ext4?
Damit diese ohne weiteres auch an einem Windows PC anschloßen werden kann. Der Zugriff auf die NTFS Platte ist mehr als 10x schneller als auf die ext4. Kann es sein dass die Problematik mit der LVM Partition zu tun hat? Viele Grüße
|
micneu
Anmeldungsdatum: 19. Januar 2021
Beiträge: 676
Wohnort: Hamburg
|
das "model A3A444" ist nicht sehr schnell was ich so gegooglet habe
|
t4rj4n
(Themenstarter)
Anmeldungsdatum: 3. Januar 2025
Beiträge: 7
|
Danke für die Antwort,
/dev/mmcblk1 model: A3A444 ist der interne eMMC Speicher der eine nicht verwendete Windows Installation beinhaltet.
Es geht um /dev/nvme0n1 vendor: Western Digital model: WD Blue SN570 250GB
|
Kreuzschnabel
Anmeldungsdatum: 12. Dezember 2011
Beiträge: 1313
|
t4rj4n schrieb:
2. Warum eine Platte Freigeben die im NTFS-Formatiert ist, du nutzt sie doch unter Linux, warum nicht ext4?
Damit diese ohne weiteres auch an einem Windows PC anschloßen werden kann.
Wenn du schon länger als 12 Stunden hier im Forum mitliest, kennst du ja die Voraussetzungen, damit das reibungslos klappt: Fastboot sowohl im Windows als auch im UEFI abschalten und die NTFS-Ressource immer sauber aushängen, bevor abgestöpselt oder runtergefahren wird. Dann wirst du damit glücklich.
Der Zugriff auf die NTFS Platte ist mehr als 10x schneller als auf die ext4.
Dann stimmt auch da was nicht. ext4 sollte an einem Linuxsystem rattenschnell laufen, jedenfalls schneller als NTFS. --ks
|
t4rj4n
(Themenstarter)
Anmeldungsdatum: 3. Januar 2025
Beiträge: 7
|
Hallo,
danke für den Tip oben. Wenn der Server ohne WLAN Brücke angeschlossen ist,
dann rast der Upload sowohl auf die externe SSD also auch auf die interne NVE mit knapp 110Mbytes/s.
Ich denke, dass ist ziemlich nahe am Limit von 1Gbit. Sobald der Server hinter dem WLAN ist, krückt der Upload NUR auf die NVME herum (jetzt teilweise bei 3Mbytes/s).
Auf die SSD läuft es bei 80-90Mbytes/s. Faszinierend. Irgendwie scheint die WLAN Umsetzung sich nur auf den NVME Zugriff auszuwirken.
Wie könnte man das Lösen bis auf PC ins LAN hängen? Die WLAN Brücke wird durch zwei Fritzboxen realisiert welche mit ↓975 ↑1170 gesynct sind.
Direkt mit einem WLAN Stick oder interner WLAN Karte verbinden ändert auch nichts.
|
micneu
Anmeldungsdatum: 19. Januar 2021
Beiträge: 676
Wohnort: Hamburg
|
Ich persönlich sehe es so, du nennst die kleine Kiste Server, für mich MUSS ein Server am Ethernet hängen, WLAN ist da keine Option.
Warum stellst du den Server nicht da auf wo Ethernet ist?
|
t4rj4n
(Themenstarter)
Anmeldungsdatum: 3. Januar 2025
Beiträge: 7
|
Hallo, ich konnte derweil das Problem lösen.
Ich habe Ubuntu Server erneut installiert und diesen mal ohne LVM Support und siehe da:
Zugriff auf die NVME (über WLAN) ist genauso schnell wie auf die externe SSD.
Ich kann nur vermuten, dass LVM die Disk Latenz erhöht und in Kombination mit einer WLAN Verbindung
zu einer grandios schlechten Performance bei Datei Übertragungs Protokollen führt. Schließlich sind SMB, FTP, SCP, ... stark Latenz-sensitiv.
Dabei ist die WLAN Latenz zwischen den Teilnehmern garnicht so schlecht: 3-5ms Ich hatte LVM bereits im Verdacht, habe aber die Neuinstallation gescheut.
Einen Performanceverlust durch LVM ist im Netz schlecht dokumentiert. Dort wird allenfalls von wenigen Prozenten gesprochen.
Dort gehts allerdings immer um Bandbreite beim Lesen und Schreiben... vGv T
|
Kreuzschnabel
Anmeldungsdatum: 12. Dezember 2011
Beiträge: 1313
|
t4rj4n schrieb:
Ich kann nur vermuten, dass LVM die Disk Latenz erhöht und in Kombination mit einer WLAN Verbindung
zu einer grandios schlechten Performance bei Datei Übertragungs Protokollen führt.
Dann hat da was nicht gestimmt. Ich hab hier mehrere Partitionen per LVM auf einer crypt-Partition und kann mich nicht über zu geringe Performance beschweren.
Einen Performanceverlust durch LVM ist im Netz schlecht dokumentiert. Dort wird allenfalls von wenigen Prozenten gesprochen.
Was daran liegen kann, dass normalerweise kein wesentlicher Verlust auftritt ☺ da wäre es jetzt interessant, deine ehemalige Installation mal unter die Lupe zu nehmen, aber das geht jetzt vermutlich nicht mehr. --ks
|
t4rj4n
(Themenstarter)
Anmeldungsdatum: 3. Januar 2025
Beiträge: 7
|
Hallo,
ich habe ergänzender Weise die neue Ubuntu Version genommen (Ubuntu 24.04.1 LTS).
Ich kann mir aber nicht vorstellen, dass dies den entscheidenden Unterschied gebracht hat. Ich denke nicht dass ich abermals LVM aktiviere und/oder Ubuntu neu installiere mit aktiviertem LVM.
Läuft gerade einfach zu geschmeidig werd das aber noch genau untersuchen (Momentan nur SCP getestet).
Was sollte man dann auch dort untersuchen? Ich habe leider auch keine andere Erklärung als LVM.
Und wie bereits erwähnt tritt das Problem nur in Kombination mit WLAN auf (Client hinter WLAN). Zitat (https://serverfault.com/questions/209461/lvm-performance-overhead): > LVM is fairly lightweight for just normal volumes (without snapshots, for example). It's really just a table lookup in a fairly small table that block X is actually block Y on device Z. I've never done any benchmarking, but I've never noticed any performance differences between LVM and just using the raw device. Möglichweise führt diese Indirektion zu erhöhter Latenz... vGv T
|
adelaar
Anmeldungsdatum: 23. November 2024
Beiträge: 383
|
Ich kann nur vermuten, dass LVM die Disk Latenz erhöht und in Kombination mit einer WLAN Verbindung zu einer grandios schlechten Performance bei Datei Übertragungs Protokollen führt.
Das glaube ich nicht. Habe LVM/LUKS (auf beiden Geräten, Notebook und dem Server). Habe eben eigens an dem Ubuntu 24.04 LTS (Server Edition) mit xfce4-Desktop das WIFI aktiviert und dann zweimal die gleichen zwei Dateien per scp von einem Notebook (das Notebook immer am Wifi) übertragen. Das ist das Ergebnis per LAN:
| Video#1.mp4 100% 1060MB 71.8MB/s 00:14
Video#2.mp4 100% 919MB 73.7MB/s 00:12
|
Das ist das Ergebnis per WIFI:
| Video#1.mp4 100% 1060MB 26.0MB/s 00:40
Video#2.mp4 100% 919MB 26.1MB/s 00:35
|
Die Übertragung per scp im LAN ist zwar deutlich schneller als per WIFI, aber weit entfernt von dem was du da als sehr niedrige Transferraten nennst. Zur Einordnung der ~ 26MB/s im WIFI. Bin hier in einer Großstadt, Altbauviertel, alle 4/5 geschossig, Mauer an Mauer, also sehr viel los hier auf den Frequenzen des WiFi, also anders als auf dem Dorf mit großen Grundstücken, wo man Nachbars WiFi nicht sieht. Die LAN-Transferrate wiederum ist nicht beim maximal erwartbaren, wegen der Firewall (pfsense). Ging vom WiFi-Interface ans LAN-Interface, also durch die Firewall-Rules. Dafür, dass die nur einen N100 hat ist das okay.
|