EmilDO
Anmeldungsdatum: 22. Mai 2009
Beiträge: 334
Wohnort: NRW
|
Hallo und guten Abend ! Seit ein paar Tagen bekommen ich die folgende Fehlermeldung bei der täglichen Datensicherung (DejaDup) des persönl.Ordners [drgb] auf der ext.Festplatte [Toshi A] Datensicherung fehlgeschlagen: Giving up after 5 attempts. Error: Error opening file “/media/drgb/Toshi A/DS80Ub/duplicity-inc.20210418T090158Z.to.20210419T094703Z.vol99.difftar.gpg”: No space left on device Offensichtlich handelt es sich um ein Platzproblem auf dem Speichermedium, das ich aber nicht verstehe. Größe des persönl.Ordners 376 GB. Die Partition der extFestplatte ist 1TB, davon sind 587 GB benutzt, im wesentlichen durch das Sicherungsverzeichnis DS80UB mit 376GB. Frei sind auf der Partition noch 412 GB. Der Mehrbedarf an Speicherplatz durch eine neue Datensicherung betrug in den letzten Tagen zwischen 1,2 MB und 349 MB, also im MegaByte-Bereich,frei sind aber noch 412GB ! Deswegen verstehe ich nicht, dass die Ursache für den Abbruch der Datensicherung im fehlenden Speicherplatz liegen soll. Wo ist mein Fehler? Vielen Dank schon mal im Voraus für Eure Hilfe.EmilDO
Moderiert von redknight: Ins passende Forum verschoben.
- Bilder
|
Vej
Moderator, Supporter
Anmeldungsdatum: 7. März 2013
Beiträge: 3391
|
Hallo EmilDO, diese Meldung kommt nicht nur, wenn der Platz auf dem externen Sicherungslaufwerk voll ist, sondern auch, wenn der interne Platz für den cache nicht mehr ausreicht. Zeig also bitte einmal die Ausgabe von df um festzustellen, ob das bei dir der Fall ist (df listet die eingehängten Partitionen , die Einhängepunkte und Informationen darüber wie viel schon verwendet und frei ist). Da es auch die INodes sein könnten, bitte auch noch einmal die Ausgabe von df -i posten. Viele Grüße Vej
|
EmilDO
(Themenstarter)
Anmeldungsdatum: 22. Mai 2009
Beiträge: 334
Wohnort: NRW
|
Guten Abend und vielen Dank an Vej. Du hast sicher recht mit der Annahme, dass der cache überlastet war. Denn ich hatte an mehreren Tagen mehrere Stunden Projekte mit Audacity aufgenommen und gespeichert. Und als dann die og. Fehlermeldung immer wieder kam und ich Befürchtungen hatte, dass die Datensicherung nicht richtig arbeitet, habe ich kurzerhand alles, was zu der Audacity-Sache gehörte, auf die separate W10-Partition verschoben und dort weiterbearbeitet, da war noch viel Platz, weil ich das kaum benutze. INodes und cache sind für mich „böhmische Dörfer“, ich weiß nicht einmal, wo ich den cache finde und wie groß/voll er ist. Ich kann gerade in den Einstellungen die Größe meiner Festplatten auslesen. Insofern ist die Ausgabe von df und df -i wahrscheinlich Schnee von gestern. Ich möchte die Ausgabe dennoch mitschicken weil ich hoffe, dazu vielleicht noch ein paar Worte zu dem Thema zu erfahren. drgb@HP2:~$ df
Dateisystem 1K-Blöcke Benutzt Verfügbar Verw% Eingehängt auf
udev 8058080 0 8058080 0% /dev
tmpfs 1617528 3796 1613732 1% /run
/dev/nvme0n1p5 789102928 366121680 382827292 49% /
tmpfs 8087624 964 8086660 1% /dev/shm
tmpfs 5120 4 5116 1% /run/lock
tmpfs 8087624 0 8087624 0% /sys/fs/cgroup
/dev/loop1 101632 101632 0 100% /snap/core/10908
/dev/loop2 9344 9344 0 100% /snap/canonical-livepatch/98
/dev/loop0 9344 9344 0 100% /snap/canonical-livepatch/97
/dev/loop3 56832 56832 0 100% /snap/core18/1997
/dev/loop4 66432 66432 0 100% /snap/gtk-common-themes/1514
/dev/loop5 224256 224256 0 100% /snap/gnome-3-34-1804/66
/dev/loop6 66688 66688 0 100% /snap/gtk-common-themes/1515
/dev/nvme0n1p1 262144 69320 192824 27% /boot/efi
/dev/loop7 159616 159616 0 100% /snap/keepassxc/1309
/dev/loop9 101632 101632 0 100% /snap/core/10958
/dev/loop8 86912 86912 0 100% /snap/shotcut/282
/dev/loop11 4352 4352 0 100% /snap/tree/18
/dev/loop10 52352 52352 0 100% /snap/snap-store/518
/dev/loop12 52352 52352 0 100% /snap/snap-store/498
/dev/loop13 33152 33152 0 100% /snap/snapd/11402
/dev/loop14 33152 33152 0 100% /snap/snapd/11588
/dev/loop15 99328 99328 0 100% /snap/keepassxc/1245
/dev/loop16 87040 87040 0 100% /snap/shotcut/241
/dev/loop17 56832 56832 0 100% /snap/core18/1988
/dev/loop18 223232 223232 0 100% /snap/gnome-3-34-1804/60
tmpfs 1617524 1208 1616316 1% /run/user/1000
/dev/sda1 976147680 569220256 406927424 59% /media/drgb/Toshi A
drgb@HP2:~$ df -i
Dateisystem Inodes IBenutzt IFrei IUse% Eingehängt auf
udev 2014520 698 2013822 1% /dev
tmpfs 2021906 1332 2020574 1% /run
/dev/nvme0n1p5 50176000 339051 49836949 1% /
tmpfs 2021906 28 2021878 1% /dev/shm
tmpfs 2021906 5 2021901 1% /run/lock
tmpfs 2021906 18 2021888 1% /sys/fs/cgroup
/dev/loop1 12841 12841 0 100% /snap/core/10908
/dev/loop2 34 34 0 100% /snap/canonical-livepatch/98
/dev/loop0 34 34 0 100% /snap/canonical-livepatch/97
/dev/loop3 10790 10790 0 100% /snap/core18/1997
/dev/loop4 63978 63978 0 100% /snap/gtk-common-themes/1514
/dev/loop5 18508 18508 0 100% /snap/gnome-3-34-1804/66
/dev/loop6 64986 64986 0 100% /snap/gtk-common-themes/1515
/dev/nvme0n1p1 0 0 0 - /boot/efi
/dev/loop7 24133 24133 0 100% /snap/keepassxc/1309
/dev/loop9 12841 12841 0 100% /snap/core/10958
/dev/loop8 2904 2904 0 100% /snap/shotcut/282
/dev/loop11 690 690 0 100% /snap/tree/18
/dev/loop10 15847 15847 0 100% /snap/snap-store/518
/dev/loop12 15847 15847 0 100% /snap/snap-store/498
/dev/loop13 474 474 0 100% /snap/snapd/11402
/dev/loop14 474 474 0 100% /snap/snapd/11588
/dev/loop15 24132 24132 0 100% /snap/keepassxc/1245
/dev/loop16 2905 2905 0 100% /snap/shotcut/241
/dev/loop17 10817 10817 0 100% /snap/core18/1988
/dev/loop18 18513 18513 0 100% /snap/gnome-3-34-1804/60
tmpfs 2021906 251 2021655 1% /run/user/1000
/dev/sda1 0 0 0 - /media/drgb/Toshi A
drgb@HP2:~$ Aber schon mal vielen Dank für Deinen Hinweis. EmilDO
|
Vej
Moderator, Supporter
Anmeldungsdatum: 7. März 2013
Beiträge: 3391
|
Hallo EmilDo, die Ausgaben sehen so aus, als hättest du sowohl genug Platz als auch genug INodes (die kann man sich in etwa wie Plätze im Inhaltsverzeichnis des Dateisystems vorstellen, ohne INodes kann man also noch Dateien vergrößern, aber keine neuen anlegen, weil sich das Dateisystem nicht "merken" kann wo es die Dateien abgelegt hat)). Da du keine eigene Partition für /home zu haben scheinst, sind die Zeilen für / (also /dev/nvme0n1p5) relevant. EmilDO schrieb: Du hast sicher recht mit der Annahme, dass der cache überlastet war. Denn ich hatte an mehreren Tagen mehrere Stunden Projekte mit Audacity aufgenommen und gespeichert. Und als dann die og. Fehlermeldung immer wieder kam und ich Befürchtungen hatte, dass die Datensicherung nicht richtig arbeitet, habe ich kurzerhand alles, was zu der Audacity-Sache gehörte, auf die separate W10-Partition verschoben und dort weiterbearbeitet, da war noch viel Platz, weil ich das kaum benutze.
Geht es danach wieder? Viele Grüße Vej
|
EmilDO
(Themenstarter)
Anmeldungsdatum: 22. Mai 2009
Beiträge: 334
Wohnort: NRW
|
Danke an Vej, dass Du noch einmal darauf zurückgekommen bist.Ja, es funktioniert wieder alles wie vorher. Mit den nodes und caches stehe ich weiterhin auf Kriegsfuß, mach aber nichts, wenns funktioniert 😉 . Danke
|
EmilDO
(Themenstarter)
Anmeldungsdatum: 22. Mai 2009
Beiträge: 334
Wohnort: NRW
|
Hallo Vej, schlechte Nachrichten: nachdem 2 Tage die Datensicherung anstandslos durchgelaufen ist (wie oben beschrieben), poppte heute wieder die Fehlermeldung auf > Giving up after 5 attempts. Jetzt mache ich mir doch ernstlich Sorgen wegen der Datensicherheit. Ich überlege, ob ich auf einer anderen ext.Festplatte eine neue Datensicherung starte. Aber elegant ist das Verfahren nicht, wenn man nicht weiß, woher der Fehler kommt. Hast Du vielleicht einen anderen Vorschlag?
|
Vej
Moderator, Supporter
Anmeldungsdatum: 7. März 2013
Beiträge: 3391
|
Hallo EmilDo. Ich würde mir die beiden df Befehle von oben einmal direkt nachdem so ein Fehler kam anschauen (oder noch besser mit watch während einer Sicherung mitlaufen lassen). So könntest du ausschließen, das nichts anderes kurzzeitig den Cache vollschreibt (oder dieser womöglich irgendwie nicht für Déjà Dup ausreicht. Ansonsten könnte noch die Datei /tmp/deja-dup.log nach der Ausführung von LC_ALL=C DEJA_DUP_DEBUG=1 deja-dup --backup | tail -n 1000 > /tmp/deja-dup.log helfen. Solltest du das hier hochladen bitte vorher auf persönliche Daten (z.B. Dateinamen) prüfen, das loggt schon sehr ausführlich mit. Viele Grüße Vej
|
EmilDO
(Themenstarter)
Anmeldungsdatum: 22. Mai 2009
Beiträge: 334
Wohnort: NRW
|
Hallo Vej, erst einmal vielen Dank, dass Du an so einem hohen Feiertag an meinem Problem bastelst. Ich hatte mich ja schon in den Ausweg (neue Datensicherung aufsetzen) gefügt, in der Annahme, dass der Verlust an Daten zu verschmerzen ist, weil der Rechner ansonsten zZt. ja ordentlich lief. Nach Deinem Vorschlag "LC_ALL=C DEJA_DUP_DEBUG=1 deja-dup --backup | tail -n 1000 > /tmp/deja-dup.log" ist ein Backup problemlos abgelaufen bis zu der Zeile (Bild1: IMGP0102.JPG) und dann abgebrochen mit der Fehlermeldung:
"Giving up after 5 attempts. Error: Error opening file “/media/drgb/Toshi A/DS80Ub/duplicity-full.20210507T132440Z.vol62.difftar.gpg”: No space left on device." Die Ausgabe von deja-dup.log ist sehr lang (1000 Zeilen), die Ausgaben zu den Bildern mit "IMGP0nnnn.jpg" mit
nnnn < 0102 sind relativ gleichmäßig und unauffällig (zumindest nach meinem Verständnis), erst ab IMGP0102 scheint es mir irgendwie zu hakeln. Ich schicke deswegen nicht das ganze log, sondern erst ab IMGP0101.jpg. Solltest Du mehr benötigen, gar kein Problem.(Wie das mit dem Verlinken längerer Beiträge geht, weiß ich leider nicht 😢 , ich bitte um Entschuldigung, dass ich alles hier eintrage) GNU nano 4.8 /tmp/deja-dup.log
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line exclude glob: /home/drgb/.cache
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: 1 from function: Command-line include glob: /home/drgb
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: + including file
DUPLICITY: DEBUG 1
DUPLICITY: . Selecting /home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0083.JPG
DUPLICITY: DEBUG 1
DUPLICITY: . Comparing home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0083.JPG and None
DUPLICITY: DEBUG 1
DUPLICITY: . Getting delta of (home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0083.JPG reg) and None
DUPLICITY: INFO 4 'home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0083.JPG'
DUPLICITY: . A home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0083.JPG
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: examining path /home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0084.JPG
......
......
......
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: examining path /home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0101.JPG
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line exclude glob: /media/drgb/Toshi A/DS80Ub
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line include glob: /home/drgb/.cache/deja-dup/metadata
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line exclude glob: /home/drgb/Dokumente/Pyg Stand 04_2021
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line exclude glob: /home/drgb/Musik
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line exclude glob: /home/drgb/Downloads
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line exclude glob: /home/drgb/.local/share/Trash
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line exclude glob: /home/drgb/.cache/deja-dup
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line exclude glob: /home/drgb/.cache
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: 1 from function: Command-line include glob: /home/drgb
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: + including file
DUPLICITY: DEBUG 1
DUPLICITY: . Selecting /home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0101.JPG
DUPLICITY: DEBUG 1
DUPLICITY: . Comparing home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0101.JPG and None
DUPLICITY: DEBUG 1
DUPLICITY: . Getting delta of (home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0101.JPG reg) and None
DUPLICITY: INFO 4 'home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0101.JPG'
DUPLICITY: . A home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0101.JPG
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: examining path /home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0102.JPG
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line exclude glob: /media/drgb/Toshi A/DS80Ub
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line include glob: /home/drgb/.cache/deja-dup/metadata
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line exclude glob: /home/drgb/Dokumente/Pyg Stand 04_2021
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line exclude glob: /home/drgb/Musik
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line exclude glob: /home/drgb/Downloads
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line exclude glob: /home/drgb/.local/share/Trash
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line exclude glob: /home/drgb/.cache/deja-dup
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: None from function: Command-line exclude glob: /home/drgb/.cache
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: result: 1 from function: Command-line include glob: /home/drgb
DUPLICITY: DEBUG 1
DUPLICITY: . Selection: + including file
DUPLICITY: DEBUG 1
DUPLICITY: . Selecting /home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0102.JPG
DUPLICITY: DEBUG 1
DUPLICITY: . Comparing home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0102.JPG and None
DUPLICITY: DEBUG 1
DUPLICITY: . Getting delta of (home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0102.JPG reg) and None
DUPLICITY: INFO 4 'home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0102.JPG'
DUPLICITY: . A home/drgb/Bilder/Bilder vom TREKSTOR/2004/Zeuthen_Berlin/Berlin/IMGP0102.JPG
DUPLICITY: INFO 11
DUPLICITY: . AsyncScheduler: running task synchronously (asynchronicity disabled)
DUPLICITY: INFO 1
DUPLICITY: . Writing duplicity-full.20210507T132440Z.vol62.difftar.gpg
DUPLICITY: DEBUG 1
DUPLICITY: . Backtrace of previous error: Traceback (innermost last):
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 376, in inner_retry
DUPLICITY: . return fn(self, *args)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 547, in put
DUPLICITY: . self.__do_put(source_path, remote_filename)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 533, in __do_put
DUPLICITY: . self.backend._put(source_path, remote_filename)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backends/giobackend.py", line 144, in _put
DUPLICITY: . self.__copy_file(source_file, target_file)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backends/giobackend.py", line 121, in __copy_file
DUPLICITY: . source.copy(target,
DUPLICITY: . gi.repository.GLib.GError: g-io-error-quark: Error opening file ?/media/drgb/Toshi A/DS80Ub/duplicity-full.20210507T132440Z.vol62.difftar.gpg?>
DUPLICITY: .
DUPLICITY: WARNING 1
DUPLICITY: . Attempt 1 failed. Error: Error opening file ?/media/drgb/Toshi A/DS80Ub/duplicity-full.20210507T132440Z.vol62.difftar.gpg?: No space left on de>
DUPLICITY: INFO 1
DUPLICITY: . Writing duplicity-full.20210507T132440Z.vol62.difftar.gpg
DUPLICITY: DEBUG 1
DUPLICITY: . Backtrace of previous error: Traceback (innermost last):
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 376, in inner_retry
DUPLICITY: . return fn(self, *args)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 547, in put
DUPLICITY: . self.__do_put(source_path, remote_filename)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 533, in __do_put
DUPLICITY: . self.backend._put(source_path, remote_filename)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backends/giobackend.py", line 144, in _put
DUPLICITY: . self.__copy_file(source_file, target_file)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backends/giobackend.py", line 121, in __copy_file
DUPLICITY: . source.copy(target,
DUPLICITY: . gi.repository.GLib.GError: g-io-error-quark: Error opening file ?/media/drgb/Toshi A/DS80Ub/duplicity-full.20210507T132440Z.vol62.difftar.gpg?>
DUPLICITY: .
DUPLICITY: WARNING 1
DUPLICITY: . Attempt 2 failed. Error: Error opening file ?/media/drgb/Toshi A/DS80Ub/duplicity-full.20210507T132440Z.vol62.difftar.gpg?: No space left on de>
DUPLICITY: INFO 1
DUPLICITY: . Writing duplicity-full.20210507T132440Z.vol62.difftar.gpg
DUPLICITY: DEBUG 1
DUPLICITY: . Backtrace of previous error: Traceback (innermost last):
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 376, in inner_retry
DUPLICITY: . return fn(self, *args)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 547, in put
DUPLICITY: . self.__do_put(source_path, remote_filename)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 533, in __do_put
DUPLICITY: . self.backend._put(source_path, remote_filename)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backends/giobackend.py", line 144, in _put
DUPLICITY: . self.__copy_file(source_file, target_file)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backends/giobackend.py", line 121, in __copy_file
DUPLICITY: . source.copy(target,
DUPLICITY: . gi.repository.GLib.GError: g-io-error-quark: Error opening file ?/media/drgb/Toshi A/DS80Ub/duplicity-full.20210507T132440Z.vol62.difftar.gpg?>
DUPLICITY: .
DUPLICITY: WARNING 1
DUPLICITY: . Attempt 3 failed. Error: Error opening file ?/media/drgb/Toshi A/DS80Ub/duplicity-full.20210507T132440Z.vol62.difftar.gpg?: No space left on de>
DUPLICITY: INFO 1
DUPLICITY: . Writing duplicity-full.20210507T132440Z.vol62.difftar.gpg
DUPLICITY: DEBUG 1
DUPLICITY: . Backtrace of previous error: Traceback (innermost last):
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 376, in inner_retry
DUPLICITY: . return fn(self, *args)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 547, in put
DUPLICITY: . self.__do_put(source_path, remote_filename)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 533, in __do_put
DUPLICITY: . self.backend._put(source_path, remote_filename)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backends/giobackend.py", line 144, in _put
DUPLICITY: . self.__copy_file(source_file, target_file)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backends/giobackend.py", line 121, in __copy_file
DUPLICITY: . source.copy(target,
DUPLICITY: . gi.repository.GLib.GError: g-io-error-quark: Error opening file ?/media/drgb/Toshi A/DS80Ub/duplicity-full.20210507T132440Z.vol62.difftar.gpg?>
DUPLICITY: .
DUPLICITY: WARNING 1
DUPLICITY: . Attempt 4 failed. Error: Error opening file ?/media/drgb/Toshi A/DS80Ub/duplicity-full.20210507T132440Z.vol62.difftar.gpg?: No space left on de>
DUPLICITY: INFO 1
DUPLICITY: . Writing duplicity-full.20210507T132440Z.vol62.difftar.gpg
DUPLICITY: DEBUG 1
DUPLICITY: . Backtrace of previous error: Traceback (innermost last):
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 376, in inner_retry
DUPLICITY: . return fn(self, *args)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 547, in put
DUPLICITY: . self.__do_put(source_path, remote_filename)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 533, in __do_put
DUPLICITY: . self.backend._put(source_path, remote_filename)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backends/giobackend.py", line 144, in _put
DUPLICITY: . self.__copy_file(source_file, target_file)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backends/giobackend.py", line 121, in __copy_file
DUPLICITY: . source.copy(target,
DUPLICITY: . gi.repository.GLib.GError: g-io-error-quark: Error opening file ?/media/drgb/Toshi A/DS80Ub/duplicity-full.20210507T132440Z.vol62.difftar.gpg?>
DUPLICITY: .
DUPLICITY: ERROR 53 put
DUPLICITY: . Giving up after 5 attempts. Error: Error opening file ?/media/drgb/Toshi A/DS80Ub/duplicity-full.20210507T132440Z.vol62.difftar.gpg?: No space >
DUPLICITY: DEBUG 1
DUPLICITY: . Releasing lockfile b'/home/drgb/.cache/deja-dup/47c835001ce01f9eb6e372987e9b4111/lockfile'
DUPLICITY: DEBUG 1
DUPLICITY: . Removing still remembered temporary file /tmp/duplicity-3m0rmlo3-tempdir/mkstemp-h468nqa6-1
DUPLICITY: DEBUG 1
DUPLICITY: . Removing still remembered temporary file /tmp/duplicity-3m0rmlo3-tempdir/mktemp-glvr9sfw-4
DUPLICITY: DEBUG 1
DUPLICITY: . Releasing lockfile b'/home/drgb/.cache/deja-dup/47c835001ce01f9eb6e372987e9b4111/lockfile'
DUPLICITY: DEBUG 1
DUPLICITY: . Releasing lockfile b'/home/drgb/.cache/deja-dup/47c835001ce01f9eb6e372987e9b4111/lockfile'
Bearbeitet von Vej: Codeblock um Ausgabe hinzugefügt.
- Bilder
|
Vej
Moderator, Supporter
Anmeldungsdatum: 7. März 2013
Beiträge: 3391
|
Hallo EmilDO. Dein Log legt nahe, dass Déjà Dup tatsächlich zu wenig Speicherplatz auf der externen Festplatte zu haben glaubt. Hast du die Idee mit df und watch mal ausprobiert? Vielleicht läuft die irgendwie kurzzeitig voll? Ansonten fände ich gut zu wissen, ob die Datei /media/drgb/Toshi A/DS80Ub/duplicity-full.20210507T132440Z.vol61.difftar.gpg existiert. Mir ist nämlich gerade garnicht klart, ob Déjà Dup die nicht zuende geführte Sicherung löscht. Da es eine Vollsicherung ist könnte das in diesem Fall theoretisch wirklich nicht hinkommen. EmilDO schrieb: DUPLICITY: INFO 1
DUPLICITY: . Writing duplicity-full.20210507T132440Z.vol62.difftar.gpg
DUPLICITY: DEBUG 1
DUPLICITY: . Backtrace of previous error: Traceback (innermost last):
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 376, in inner_retry
DUPLICITY: . return fn(self, *args)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 547, in put
DUPLICITY: . self.__do_put(source_path, remote_filename)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backend.py", line 533, in __do_put
DUPLICITY: . self.backend._put(source_path, remote_filename)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backends/giobackend.py", line 144, in _put
DUPLICITY: . self.__copy_file(source_file, target_file)
DUPLICITY: . File "/usr/lib/python3/dist-packages/duplicity/backends/giobackend.py", line 121, in __copy_file
DUPLICITY: . source.copy(target,
DUPLICITY: . gi.repository.GLib.GError: g-io-error-quark: Error opening file ?/media/drgb/Toshi A/DS80Ub/duplicity-full.20210507T132440Z.vol62.difftar.gpg?>
DUPLICITY: .
Viele Grüße Vej
|
EmilDO
(Themenstarter)
Anmeldungsdatum: 22. Mai 2009
Beiträge: 334
Wohnort: NRW
|
Hallo vej
fände ich gut zu wissen, ob die Datei /media/drgb/Toshi A/DS80Ub/duplicity-full.20210507T132440Z.vol61.difftar.gpg existiert
Ja, die Datei existiert (Bild: Datei existiert.png) Eine ebenfalls gelb unterlegte Datei duplicity-full.20210507T132440Z.vol62.difftar.gpg existiert nicht. Deinen Vorschlag mit watch df bzw. df -i hatte ich noch nicht umgesetzt, da ich mich mit der Syntax von watch erst mal auseinandersetzen musste, war mir bisher alles unbekannt.Ich habe das jetzt so verstanden:
im Terminal watch -n 600 df auführen,Ausgabe kopieren,
in den 10min Datensicherung durchlaufen lassen
Ausgabe 10min später kopieren.
Und dasselbe nochmals mit watch -n 600 df -i. Ergebnis:
Versuch mit df
Alle 600,0s: df HP2: Mon May 17 14:27:44 2021
Dateisystem 1K-Blöcke Benutzt Verfügbar Verw% Eingehängt auf
udev 8058080 0 8058080 0% /dev
tmpfs 1617528 3848 1613680 1% /run
/dev/nvme0n1p5 789102928 366821764 382127208 49% /
tmpfs 8087624 0 8087624 0% /dev/shm
tmpfs 5120 4 5116 1% /run/lock
tmpfs 8087624 0 8087624 0% /sys/fs/cgroup
/dev/loop2 101376 101376 0 100% /snap/core/11081
/dev/loop3 9344 9344 0 100% /snap/canonical-livepatch/98
/dev/loop4 56832 56832 0 100% /snap/core18/1988
/dev/loop0 101632 101632 0 100% /snap/core/10958
/dev/loop6 223232 223232 0 100% /snap/gnome-3-34-1804/60
/dev/loop7 224256 224256 0 100% /snap/gnome-3-34-1804/66
/dev/loop5 66688 66688 0 100% /snap/gtk-common-themes/1515
/dev/loop9 33152 33152 0 100% /snap/snapd/11588
/dev/loop8 159616 159616 0 100% /snap/keepassxc/1309
/dev/loop10 32896 32896 0 100% /snap/snapd/11841
/dev/loop11 267008 267008 0 100% /snap/kde-frameworks-5-core18
/32
/dev/loop12 4352 4352 0 100% /snap/tree/18
/dev/loop13 86912 86912 0 100% /snap/shotcut/282
/dev/loop14 99328 99328 0 100% /snap/keepassxc/1245
/dev/loop15 166784 166784 0 100% /snap/gnome-3-28-1804/145
/dev/loop16 52352 52352 0 100% /snap/snap-store/518
/dev/loop17 82176 82176 0 100% /snap/shotcut/330
/dev/loop18 66432 66432 0 100% /snap/gtk-common-themes/1514
/dev/loop19 56832 56832 0 100% /snap/core18/1997
/dev/loop20 52352 52352 0 100% /snap/snap-store/498
/dev/nvme0n1p1 262144 69352 192792 27% /boot/efi
tmpfs 1617524 688 1616836 1% /run/user/1000
/dev/sda1 976147680 572694944 403452736 59% /media/drgb/Toshi A
/dev/loop21 9344 9344 0 100% /snap/canonical-livepatch/99
drgb@HP2:~$ watch -n 600 df
Alle 600,0s: df HP2: Mon May 17 14:34:30 2021
Dateisystem 1K-Blöcke Benutzt Verfügbar Verw% Eingehängt auf
udev 8058080 0 8058080 0% /dev
tmpfs 1617528 3848 1613680 1% /run
/dev/nvme0n1p5 789102928 366821708 382127264 49% /
tmpfs 8087624 0 8087624 0% /dev/shm
tmpfs 5120 4 5116 1% /run/lock
tmpfs 8087624 0 8087624 0% /sys/fs/cgroup
/dev/loop2 101376 101376 0 100% /snap/core/11081
/dev/loop3 9344 9344 0 100% /snap/canonical-livepatch/98
/dev/loop4 56832 56832 0 100% /snap/core18/1988
/dev/loop0 101632 101632 0 100% /snap/core/10958
/dev/loop6 223232 223232 0 100% /snap/gnome-3-34-1804/60
/dev/loop7 224256 224256 0 100% /snap/gnome-3-34-1804/66
/dev/loop5 66688 66688 0 100% /snap/gtk-common-themes/1515
/dev/loop9 33152 33152 0 100% /snap/snapd/11588
/dev/loop8 159616 159616 0 100% /snap/keepassxc/1309
/dev/loop10 32896 32896 0 100% /snap/snapd/11841
/dev/loop11 267008 267008 0 100% /snap/kde-frameworks-5-core18/32
/dev/loop12 4352 4352 0 100% /snap/tree/18
/dev/loop13 86912 86912 0 100% /snap/shotcut/282
/dev/loop14 99328 99328 0 100% /snap/keepassxc/1245
/dev/loop15 166784 166784 0 100% /snap/gnome-3-28-1804/145
/dev/loop16 52352 52352 0 100% /snap/snap-store/518
/dev/loop17 82176 82176 0 100% /snap/shotcut/330
/dev/loop18 66432 66432 0 100% /snap/gtk-common-themes/1514
/dev/loop19 56832 56832 0 100% /snap/core18/1997
/dev/loop20 52352 52352 0 100% /snap/snap-store/498
/dev/nvme0n1p1 262144 69352 192792 27% /boot/efi
tmpfs 1617524 684 1616840 1% /run/user/1000
/dev/sda1 976147680 572695008 403452672 59% /media/drgb/Toshi A
/dev/loop21 9344 9344 0 100% /snap/canonical-livepatch/99
drgb@HP2:~$ watch -n 600 df -i
Alle 600,0s: df -i HP2: Mon May 17 14:42:19 2021
Dateisystem Inodes IBenutzt IFrei IUse% Eingehängt auf
udev 2014520 728 2013792 1% /dev
tmpfs 2021906 1386 2020520 1% /run
/dev/nvme0n1p5 50176000 344070 49831930 1% /
tmpfs 2021906 1 2021905 1% /dev/shm
tmpfs 2021906 5 2021901 1% /run/lock
tmpfs 2021906 18 2021888 1% /sys/fs/cgroup
/dev/loop2 12842 12842 0 100% /snap/core/11081
/dev/loop3 34 34 0 100% /snap/canonical-livepatch/98
/dev/loop4 10817 10817 0 100% /snap/core18/1988
/dev/loop0 12841 12841 0 100% /snap/core/10958
/dev/loop6 18513 18513 0 100% /snap/gnome-3-34-1804/60
/dev/loop7 18508 18508 0 100% /snap/gnome-3-34-1804/66
/dev/loop5 64986 64986 0 100% /snap/gtk-common-themes/1515
/dev/loop9 474 474 0 100% /snap/snapd/11588
/dev/loop8 24133 24133 0 100% /snap/keepassxc/1309
/dev/loop10 474 474 0 100% /snap/snapd/11841
/dev/loop11 35005 35005 0 100% /snap/kde-frameworks-5-core18/32
/dev/loop12 690 690 0 100% /snap/tree/18
/dev/loop13 2904 2904 0 100% /snap/shotcut/282
/dev/loop14 24132 24132 0 100% /snap/keepassxc/1245
/dev/loop15 27807 27807 0 100% /snap/gnome-3-28-1804/145
/dev/loop16 15847 15847 0 100% /snap/snap-store/518
/dev/loop17 2886 2886 0 100% /snap/shotcut/330
/dev/loop18 63978 63978 0 100% /snap/gtk-common-themes/1514
/dev/loop19 10790 10790 0 100% /snap/core18/1997
/dev/loop20 15847 15847 0 100% /snap/snap-store/498
/dev/nvme0n1p1 0 0 0 - /boot/efi
tmpfs 2021906 115 2021791 1% /run/user/1000
/dev/sda1 0 0 0 - /media/drgb/Toshi A
/dev/loop21 34 34 0 100% /snap/canonical-livepatch/99
Alle 600,0s: df -i HP2: Mon May 17 14:53:03 2021
Dateisystem Inodes IBenutzt IFrei IUse% Eingehängt auf
udev 2014520 728 2013792 1% /dev
tmpfs 2021906 1386 2020520 1% /run
/dev/nvme0n1p5 50176000 344074 49831926 1% /
tmpfs 2021906 1 2021905 1% /dev/shm
tmpfs 2021906 5 2021901 1% /run/lock
tmpfs 2021906 18 2021888 1% /sys/fs/cgroup
/dev/loop2 12842 12842 0 100% /snap/core/11081
/dev/loop3 34 34 0 100% /snap/canonical-livepatch/98
/dev/loop4 10817 10817 0 100% /snap/core18/1988
/dev/loop0 12841 12841 0 100% /snap/core/10958
/dev/loop6 18513 18513 0 100% /snap/gnome-3-34-1804/60
/dev/loop7 18508 18508 0 100% /snap/gnome-3-34-1804/66
/dev/loop5 64986 64986 0 100% /snap/gtk-common-themes/1515
/dev/loop9 474 474 0 100% /snap/snapd/11588
/dev/loop8 24133 24133 0 100% /snap/keepassxc/1309
/dev/loop10 474 474 0 100% /snap/snapd/11841
/dev/loop11 35005 35005 0 100% /snap/kde-frameworks-5-core18/32
/dev/loop12 690 690 0 100% /snap/tree/18
/dev/loop13 2904 2904 0 100% /snap/shotcut/282
/dev/loop14 24132 24132 0 100% /snap/keepassxc/1245
/dev/loop15 27807 27807 0 100% /snap/gnome-3-28-1804/145
/dev/loop16 15847 15847 0 100% /snap/snap-store/518
/dev/loop17 2886 2886 0 100% /snap/shotcut/330
/dev/loop18 63978 63978 0 100% /snap/gtk-common-themes/1514
/dev/loop19 10790 10790 0 100% /snap/core18/1997
/dev/loop20 15847 15847 0 100% /snap/snap-store/498
/dev/nvme0n1p1 0 0 0 - /boot/efi
tmpfs 2021906 115 2021791 1% /run/user/1000
/dev/sda1 0 0 0 - /media/drgb/Toshi A
/dev/loop21 34 34 0 100% /snap/canonical-livepatch/99
Natürlich hätte ich gerne gewusst, warum, wieso, weshalb die Datensicherung nicht geklappt hat. Aber da ich bisher keine Datenverluste festgestellt habe und ansonsten alles funktioniert, ist es da, wenn ich Deinen Arbeitsaufwand ansehe, überhaupt vertretbar, da weiterzumachen? Einfach die alte Sicherung löschen und eine neue aufsetzen? Ich habe einfach ein schlechtes Gewissen, wenn ich sehe, welche Arbeit ich Dir mache. Gruß EmilDO
- Bilder
|
Vej
Moderator, Supporter
Anmeldungsdatum: 7. März 2013
Beiträge: 3391
|
Hallo EmilDO. EmilDO schrieb: Ja, die Datei existiert (Bild: Datei existiert.png)
Okay. Dann ist die Sache für mich unklar. EmilDO schrieb: Natürlich hätte ich gerne gewusst, warum, wieso, weshalb die Datensicherung nicht geklappt hat. Aber da ich bisher keine Datenverluste festgestellt habe und ansonsten alles funktioniert, ist es da, wenn ich Deinen Arbeitsaufwand ansehe, überhaupt vertretbar, da weiterzumachen? Einfach die alte Sicherung löschen und eine neue aufsetzen?
Da ich langsam auch mit meinem Latein am Ende bin ist das vermutlich eine gute Idee. Berichte mal bitte nach 95 Tagen, ob das Problem erneut auftritt (dann würde die zweite Vollsicherung angelegt). Viele Grüße Vej EmilDO schrieb: Ich habe einfach ein schlechtes Gewissen, wenn ich sehe, welche Arbeit ich Dir mache.
Ich bin hier üblicherweise nur, wenn ich gerade nichts sinnvolleres zu tun habe. Also brauchst du kein schlechtes Gewissen haben.
|
EmilDO
(Themenstarter)
Anmeldungsdatum: 22. Mai 2009
Beiträge: 334
Wohnort: NRW
|
Hallo Vej OK, ich will auch nicht weiternerven.Nur noch eine Frage: was bringt mir das Warten von 95 Tagen, solange habe ich keine brauchbare DS. Ansonsten vielen Dank und alles Gute für nach-Corona Viele Grüße EmilDO
|
Vej
Moderator, Supporter
Anmeldungsdatum: 7. März 2013
Beiträge: 3391
|
Hallo EmilDO. EmilDO schrieb: OK, ich will auch nicht weiternerven.Nur noch eine Frage: was bringt mir das Warten von 95 Tagen, solange habe ich keine brauchbare DS.
Die Datensicherung hat ab der ersten Sicherung mindestens 1 Kopie von allen Daten (was ich als brauchbar beschreiben würde). Déjà Dup hat aber den Anspruch mindestens 2 Kopien von allen Daten aufzubewahren. Deswegen wird die erste Vollsicherung erst weggeworfen, wenn die dritte Vollsicherung erstellt wird und eben nicht schon bei der zweiten Vollsicherung. Daher treten Platzprobleme oft erst nach der zweiten Vollsicherung auf. Da der Abstand zwischen Vollsicherungen entweder 30 oder 90 Tage beträgt ist erst nach etwas über 90 Tagen wirklich klar, ob das Problem nie wieder kommt. Wie der Abstand zwischen den Vollsicherungen ist kannst du übrigens mit gsettings get org.gnome.DejaDup full-backup-period ermitteln (außer du hast Déjà Dup als Snap installiert). Viele Grüße Vej
|
EmilDO
(Themenstarter)
Anmeldungsdatum: 22. Mai 2009
Beiträge: 334
Wohnort: NRW
|
Danke, andeutungsweise verstanden, Abstand tatsächl. 90 Tage. Gruß EmilDO
|
dingsbums
Anmeldungsdatum: 13. November 2010
Beiträge: 3553
|
Vej schrieb: Da der Abstand zwischen Vollsicherungen entweder 30 oder 90 Tage beträgt ist erst nach etwas über 90 Tagen wirklich klar, ob das Problem nie wieder kommt.
Man könnte ja den Abstand testweise auf 2 statt auf 90 Tage setzen (gsettings set ...).
|