Hallo,
ich habe ein Dualboot System (Ubuntu/W64) und drei Laufwerke:
Samsung EVO SSD 1 TB (jeweils als Bootplatten)
WD Red 3 TB als zfs
WD Red 10 TB noch als ext4-/home (9 TB) und W64 Eigene Dateien (1 TB), nach Datenmigration zusätzlich als zfs (9 TB) und die W64 Eigenen Dateien bleiben.
Das /home der 3 liegt bei 2.7TB, sollte also dicke reichen um alles rüberzukopieren bevor ich die Partition kille und dem zfs-pool hinzufüge.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 | NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT loop0 7:0 0 55M 1 loop /snap/core18/1705 loop1 7:1 0 55M 1 loop /snap/core18/1754 loop2 7:2 0 30,3M 1 loop /snap/snapd/7777 loop3 7:3 0 27,1M 1 loop /snap/snapd/7264 loop4 7:4 0 14,9M 1 loop /snap/ubuntu-mate-welcome/539 loop5 7:5 0 16K 1 loop /snap/software-boutique/54 loop6 7:6 0 14,9M 1 loop /snap/ubuntu-mate-welcome/524 sda 8:0 0 9,1T 0 disk # das hier ist meine 10TB WD Red ├─sda1 8:1 0 16M 0 part ├─sda2 8:2 0 1T 0 part # das hier ist \users meiner W64 dualboot Installation └─sda3 8:3 0 8,1T 0 part /home # und hier läuft /home drauf (ext4) sdb 8:16 0 2,7T 0 disk # das hier ist meine 3TB WD Red ├─sdb1 8:17 0 2,7T 0 part # hier sollte mein zfs-pool sein └─sdb9 8:25 0 8M 0 part sdc 8:32 0 931,5G 0 disk # das hier ist meine SSD ├─sdc1 8:33 0 450M 0 part # dualboot ├─sdc2 8:34 0 100M 0 part /boot/efi ├─sdc3 8:35 0 16M 0 part ├─sdc4 8:36 0 381,5G 0 part # root der W64 Installation └─sdc5 8:37 0 549,5G 0 part / # root meines Ubuntu 20.04 sdd 8:48 1 29,9G 0 disk # just another USB stick └─sdd1 8:49 1 29,9G 0 part /media/cdrewing/J_CCSA_X64F sr0 11:0 1 1024M 0 rom |
Während ich so fröhlich vor mich her rsynce, erhalte ich einen disk full error. Aus irgendwelchen Gründen werden Daten auf der SSD gespeichert.
df vorher (schau auf sdc5):
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 | Dateisystem 1K-Blöcke Benutzt Verfügbar Verw% Eingehängt auf udev 8092872 0 8092872 0% /dev tmpfs 1634188 1800 1632388 1% /run /dev/sdc5 566089456 21483752 515780260 4% / tmpfs 8170932 179640 7991292 3% /dev/shm tmpfs 5120 4 5116 1% /run/lock tmpfs 8170932 0 8170932 0% /sys/fs/cgroup /dev/loop1 56320 56320 0 100% /snap/core18/1754 /dev/loop0 56320 56320 0 100% /snap/core18/1705 /dev/loop2 31104 31104 0 100% /snap/snapd/7777 /dev/loop3 27776 27776 0 100% /snap/snapd/7264 /dev/loop5 128 128 0 100% /snap/software-boutique/54 /dev/loop4 15232 15232 0 100% /snap/ubuntu-mate-welcome/539 /dev/loop6 15232 15232 0 100% /snap/ubuntu-mate-welcome/524 /dev/sdc2 98304 33842 64462 35% /boot/efi /dev/sda3 8623091320 2009123084 6179317972 25% /home tmpfs 1634184 24 1634160 1% /run/user/1000 /dev/sdd1 31308768 4075984 27232784 14% /media/cdrewing/J_CCSA_X64F |
Und nachher:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 | Dateisystem 1K-Blöcke Benutzt Verfügbar Verw% Eingehängt auf udev 8092872 0 8092872 0% /dev tmpfs 1634188 1800 1632388 1% /run /dev/sdc5 566089456 34778464 502485548 7% / # sdc5 ist meine SSD, die umso voller wird je mehr ich im zfs-pool speichere! tmpfs 8170932 239100 7931832 3% /dev/shm tmpfs 5120 4 5116 1% /run/lock tmpfs 8170932 0 8170932 0% /sys/fs/cgroup /dev/loop1 56320 56320 0 100% /snap/core18/1754 /dev/loop0 56320 56320 0 100% /snap/core18/1705 /dev/loop2 31104 31104 0 100% /snap/snapd/7777 /dev/loop3 27776 27776 0 100% /snap/snapd/7264 /dev/loop5 128 128 0 100% /snap/software-boutique/54 /dev/loop4 15232 15232 0 100% /snap/ubuntu-mate-welcome/539 /dev/loop6 15232 15232 0 100% /snap/ubuntu-mate-welcome/524 /dev/sdc2 98304 33842 64462 35% /boot/efi /dev/sda3 8623091320 2009134208 6179306848 25% /home tmpfs 1634184 24 1634160 1% /run/user/1000 /dev/sdd1 31308768 4075984 27232784 14% /media/cdrewing/J_CCSA_X64F |
Das oben waren nur 15 GB Testfiles, mit dem gesamten 2.7TB /home läuft die SSD komplett voll, disk full error. Was habe ich falsch gemacht? Cached zfs Daten auf dem root Laufwerk?
1 2 3 | cdrewing@cdrewing-desktop:~$ cat zpool_list.txt NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT zfs-pool 2,72T 616G 2,12T - - 2% 22% 1.01x ONLINE - |
1 2 3 4 5 6 7 8 9 10 11 | cdrewing@cdrewing-desktop:~$ cat zpool_status.txt pool: zfs-pool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM zfs-pool ONLINE 0 0 0 sdb ONLINE 0 0 0 errors: No known data errors |
Den Mountpoint ändere ich sobald alles läuft:
1 2 3 | cdrewing@cdrewing-desktop:~$ cat zpool_mountpoint.txt NAME PROPERTY VALUE SOURCE zfs-pool mountpoint /zfs local |
Wo bin ich falsch abgebogen? Liegt es an der Kompression? Beim Kopieren erhalte ich Datenraten von rund 180 MB/s - da wird wohl nichts on-the-fly-komprimiert, folglich zwischengespeichert. Allerdings verringert sich die Speichernutzung nicht über die Zeit. Hier die Parameter:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 | cdrewing@cdrewing-desktop:~$ zpool get all zfs-pool NAME PROPERTY VALUE SOURCE zfs-pool size 2,72T - zfs-pool capacity 22% - zfs-pool altroot - default zfs-pool health ONLINE - zfs-pool guid 12471884231831080834 - zfs-pool version - default zfs-pool bootfs - default zfs-pool delegation on default zfs-pool autoreplace off default zfs-pool cachefile - default zfs-pool failmode wait default zfs-pool listsnapshots off default zfs-pool autoexpand off default zfs-pool dedupditto 0 default zfs-pool dedupratio 1.01x - zfs-pool free 2,12T - zfs-pool allocated 616G - zfs-pool readonly off - zfs-pool ashift 0 default zfs-pool comment - default zfs-pool expandsize - - zfs-pool freeing 0 - zfs-pool fragmentation 2% - zfs-pool leaked 0 - zfs-pool multihost off default zfs-pool checkpoint - - zfs-pool load_guid 2164609128460223284 - zfs-pool autotrim off default zfs-pool feature@async_destroy enabled local zfs-pool feature@empty_bpobj enabled local zfs-pool feature@lz4_compress active local zfs-pool feature@multi_vdev_crash_dump enabled local zfs-pool feature@spacemap_histogram active local zfs-pool feature@enabled_txg active local zfs-pool feature@hole_birth active local zfs-pool feature@extensible_dataset active local zfs-pool feature@embedded_data active local zfs-pool feature@bookmarks enabled local zfs-pool feature@filesystem_limits enabled local zfs-pool feature@large_blocks enabled local zfs-pool feature@large_dnode enabled local zfs-pool feature@sha512 enabled local zfs-pool feature@skein enabled local zfs-pool feature@edonr enabled local zfs-pool feature@userobj_accounting active local zfs-pool feature@encryption enabled local zfs-pool feature@project_quota active local zfs-pool feature@device_removal enabled local zfs-pool feature@obsolete_counts enabled local zfs-pool feature@zpool_checkpoint enabled local zfs-pool feature@spacemap_v2 active local zfs-pool feature@allocation_classes enabled local zfs-pool feature@resilver_defer enabled local zfs-pool feature@bookmark_v2 enabled local |
Wo ist mein Fehler? Ich dachte mich eigentlich an die verfügbaren Anleitungen gehalten zu haben...
Vielen Dank!