dau48 schrieb:
Also Die Daten der ext. FP sind nun ausgelagert.
ich habe nämlich noch einen alten Läppi für Testzwecke mit Win 10 und Xubuntu.
Die FP dort eingesteckt und die Daten nach /home kopiert.
Sehr Gut, dann ist das schon mal abgehakt 👍
Obwohl, wenn ich mir das recht überlege, könnte man ja die beiden Rechner in ein gemeinsames Netzwerk einbinden. Dann könnte ich ein Backup, sowohl auf die ext. FP und den Lappi machen.
Mit der Sicherung über ein Netzwerk konnte ich bisher auch noch keine Erfahrung machen, da ich nur einen PC habe, das wäre nochmal ein separates Thema, wo sich andere damit auskennen.
Aber das steht jetzt nicht zur Debatte. Das habe ich auch noch nie gemacht und es muss ja nicht alles auf einmal sein.
Oder ich könnte Dir auch nochmal einen KISS aufdrücken 😉
Erst mal die Frage: Wäre es denn nicht besser, ich würde die FP mit vfat anstatt ext4 fragmentieren?
Dann läuft sie doch wie bisher unter Linux und ggf. Windows:
Mit Windows hatte ich jetzt seit 10 Jahren nichts mehr am Hut, von daher beschränken sich meine Aussagen darauf das es dann ja die 4GB Dateigrenze bei FAT gibt, und das habe ich Dir nochmal rausgesucht. Ansonsten wäre exFAT eine Alternative.
Ich beschränke mich nur noch auf die Linux-Dateisysteme, und FAT nur noch falls ich mal einen Stick für ein TV-Gerät o.Ä. machen muss.
In der fstab steht sie nicht drinnen. Wenn ich die ext FP einschalte, heisst es: Datenträger wurde automatisch eingehängt.
Ja ist doch alles Gut, dann läuft das doch ☺
Warum sollte es denn nach der Formatierung anders sein?
Man hat auch schon Pferde Kotzen sehen 😉
Noch eine Frage zu deinem Script: SEAGATE ist deine (ext) FP.
Das Ziel ist /media/sven/SEAGATE/Backup/SSD/bilder/ Da hast du wohl einen Ordner Backup angelegt. Warum brauchst du noch SSD (ich müsste dann HDD nehmen)und bilder (kleingeschrieben?
Das schnall ich noch nicht.
Ich Versuche das mal Verständlich rüber zu Bringen. In meinem PC sind folgende Platten verbaut:
1x 500 GB SSD
3x 3TB HDD
1x 6TB HDD
Das Backup erfolgt auf insgesamt 3x 3TB externe Festplatten, wobei die interne 6TB HDD nur zum Datenauslagern bzw. kurz bis mittelfristige Speicherung dient. Die Daten auf dieser bedürfen kein Backup.
Auf die erste 3 TB ext. Festplatte erfolgt die Sicherung der Daten von der SSD und der ersten internen HDD. Und ich habe zur für mich erkennbaren Trennung die Zielordner SSD und HDD genannt. Da ich ja ebenso ein Script zum zurückspielen der kompletten Daten habe.
Den Teil im Script für die HDD Sicherungen habe ich hier raus gelassen, da nicht relevant, und ich wollte es auch Einfach in dem gezeigten Beispiel von mir halten.
Wie bereits gesagt, wenn Du erst mal den Uraprungs,- und Zielpfad mit rsync festgelegt hast, und sich an dieser Konstellation nichts verändert, läuft der Rest wie von selbst. Denn diese Zielordner musst und kannst Du Frei definieren. Denn rsync muss ja Wissen wo die Daten hin sollen.
Ich habe Dir hier nochmal ein sehr altes Video von Bernd rausgesucht was das ganze nochmals veranschaulicht. Beachte Bitte:
Sudo brauchst Du nicht, wenn die Dateien Dir bereits gehören, Du brauchst es nur wenn Du Dateien aus / Sichern willst. Der Parameter -z macht nur bei einer Sicherung über ein Netzwerk Sinn, Lokal ist er nicht von Nöten, frisst nur Performance.
Ich Nutze auch u.a. den Parameter --delete aus dem Grund da ich mir vorher genau überlege welche Daten ich vom Ursprung Lösche, das klappt definitiv und man muss ja nicht immer und alles zu jedem Zeitpunkt aufheben, was weg kann kann weg.
Wenn Du den Parameter --backup-dir nutzt dann solltest Du darauf achten das dein Zielmedium nicht irgendwann aus allen Nähten platzt.
Ich selber habe mit rsync sehr sehr gute Erfahrungen gemacht, bzw. Nutze ich es seitdem ich verlinktes Video gesehen habe. Ich wüsste für meine persönlichen Bedürfnisse und Anforderungen keine bessere Backuplösung.