Nimsiki
Anmeldungsdatum: 13. Juni 2009
Beiträge: 90
|
Hallo! Ich würde gern ein bestimmtes Verzeichnis 1-2 Die Woche über einen Cronjob sichern lassen.
Zunächst bin ich auf das Skripte/Backupscript gestoßen und habe es eingerichtet. Das zu sichernde Verzeichnis ist 8.2GB groß und mit diesem Script (tar) dauerte die Sicherung des Verzeichnisses rekordverdächtige 1,5 Tage.
Meine Sicherung muss nicht gepackt sein, mir reicht eine 1:1 Kopie auf einem anderen Laufwerk.
Daher dachte ich nun an den einfachen "cp" Befehl. Es wäre toll, wenn auch nur erneurte/veränderte Daten neu überschrieben werden.
Wäre dann folgender Befehl richtig und sinnvoll, oder spricht etwas dagegen?
| cp -au /zu/sicherndes/verzeichnis /hier/das/zielverzeichnis
|
Der Befehl müsste doch eigentlich meinen Ansprüchen genügen, oder gibt es dabei etwas Besonderes zu beachten?
rsync wäre doch in meinem Fall auch "über", oder nicht?
|
Thomas_Do
Moderator
Anmeldungsdatum: 24. November 2009
Beiträge: 8542
|
Nimsiki schrieb:
Es wäre toll, wenn auch nur erneurte/veränderte Daten neu überschrieben werden.
rsync wäre doch in meinem Fall auch "über", oder nicht?
rsync übeträgt nur veränderte Daten und kann bei großen Dateien sogar nur veränderte Teile übertragen. rsync ist also nicht "über", sondern genau das Tool, das Du suchst.
|
wxpte
Anmeldungsdatum: 20. Januar 2007
Beiträge: 1180
Wohnort: Schäl Sick
|
Nimsiki schrieb: Das zu sichernde Verzeichnis ist 8.2GB groß und mit diesem Script (tar) dauerte die Sicherung des Verzeichnisses rekordverdächtige 1,5 Tage.
Da vermute ich allerdings auch ein gewaltiges Nadelöhr bei der Hardware. Welches Sicherungsmedium verwendest du denn? Schon eine externe Festplatte mit USB 2.0-Unterstützung kann die Übertragung ziemlich ausbremsen, wenn sie an veraltete USB 1.1-Anschlüsse angeklemmt wird.
|
Nimsiki
(Themenstarter)
Anmeldungsdatum: 13. Juni 2009
Beiträge: 90
|
Hallo und vielen Dank für die raschen Antworten! Thomas Do schrieb: rsync übeträgt nur veränderte Daten und kann bei großen Dateien sogar nur veränderte Teile übertragen. rsync ist also nicht "über", sondern genau das Tool, das Du suchst.
Habe im Wiki bei rsync in der Einleitung gelesen:
Sind Quelle und Ziel lokale Pfade, werden die betroffenen Dateien normal kopiert.
Daher nahm ich an, dass rsync über ist, dann kann ich ja direkt selbst den cp Befehl anwenden!? WinXP to Edgy schrieb: Nimsiki schrieb: Das zu sichernde Verzeichnis ist 8.2GB groß und mit diesem Script (tar) dauerte die Sicherung des Verzeichnisses rekordverdächtige 1,5 Tage.
Da vermute ich allerdings auch ein gewaltiges Nadelöhr bei der Hardware. Welches Sicherungsmedium verwendest du denn? Schon eine externe Festplatte mit USB 2.0-Unterstützung kann die Übertragung ziemlich ausbremsen, wenn sie an veraltete USB 1.1-Anschlüsse angeklemmt wird.
Nööö, eigentlich nicht... die Verzeichnisse liegen auf jeweils 2 unterschiedlichen Raid 1 Arrays in einem Rechner, beide Arrays hängen jeweils an einem 3Ware Controller (9650SE u. 7000-2). Die CPU dümpelte auch während dessen bei max. < 20% rum. Keine Ahnung warum.
|
Thomas_Do
Moderator
Anmeldungsdatum: 24. November 2009
Beiträge: 8542
|
"Normal kopiert" bezieht sich im Wiki darauf, dass bei lokalen Vorgängen keine Dateiteile, sondern ganze Dateien kopiert werden. Es werden aber trotzdem nur geänderte Dateien kopiert. Das wird klar, wenn man den Abschnitt weiterliest. Mir war nicht bewusst, das sich der Kopiervorgäng zwischen lokalen Platten des Rechner abspielt. Dafür sind 1,5 Tage wirklich rekordverdächtig! Da ist etwas sehr faul ☹.
|
wxpte
Anmeldungsdatum: 20. Januar 2007
Beiträge: 1180
Wohnort: Schäl Sick
|
Ich kann mich Thomas Do nur anschließen: da stimmt etwas nicht am System. Selbst ein tar mit allen Schikanen wie Komprimierung etc. dürfte sich eigentlich keine 1,5 Tage Zeit lassen, jedenfalls nicht bei 8,2 GB und einigermaßen moderner Hardware.
|
Nimsiki
(Themenstarter)
Anmeldungsdatum: 13. Juni 2009
Beiträge: 90
|
Re-Hallo, ich wieder! ☺
Also gut, dann verwende ich rsync.
Jetzt will ich mich mit meiner frage "absichern"... Ich möchte im Grunde, dass beide Verzeichnisse 1:1 immer von a) nach b) kopiert werden bzw. immer auf dem gleichen Stand bleiben.
In die crontab trage ich dann ein: 30 2 * * 0,4 root rsync -aEc --delete /var/www /home/andreas/Files/Server-Backup/apache-files /dev/null 2>&1
richtig? Das ~/www soll sich dann im ~/apache-files wiederfinden und auf dem Stand der letzten Synchronisation sein.
Habe ich noch was vergessen oder übersehen? Nur zur Info "~/Files" ist eine weitere HDD, die nicht im Raid Verbund eingebunden ist.
|
Nimsiki
(Themenstarter)
Anmeldungsdatum: 13. Juni 2009
Beiträge: 90
|
WinXP to Edgy schrieb: Ich kann mich Thomas Do nur anschließen: da stimmt etwas nicht am System. Selbst ein tar mit allen Schikanen wie Komprimierung etc. ...
Sorry, ist es auch... der Befehl aus dem Script lautet: tar -cjpf $BACKUP_DIR/backup-apache-files.tar.bz2 $SOURCE
Und wenn ich normal Daten kopiere, aufrufe usw.. merke ich keine "Besonderheit". Und wie bereits gesagt, die CPU war bei weitem nicht am Limit. Die dümpelte so vor sich hin.
|
Thomas_Do
Moderator
Anmeldungsdatum: 24. November 2009
Beiträge: 8542
|
Noch mal so am Rande: Wozu soll das "Backup" dienen. Wenn Du so synchronisierst, kopierst Du auch alle Fehler von der Quellpartition auf die Zielpartition. Das würde ich nicht als Backup bezeichnen.
|
Nimsiki
(Themenstarter)
Anmeldungsdatum: 13. Juni 2009
Beiträge: 90
|
Thomas Do schrieb: Noch mal so am Rande: Wozu soll das "Backup" dienen.
Ich hätte gern die Daten doppelt, damit ich das System bzw. den Webserver ggf. reproduzieren kann, falls der Raid-Controller mal aussetzt, sich das Filesystem zerschießt, usw. Thomas Do schrieb: Wenn Du so synchronisierst, kopierst Du auch alle Fehler von der Quellpartition auf die Zielpartition. Das würde ich nicht als Backup bezeichnen.
Ok, das ist natürlich eher weniger Sinn der Sache. Wie sollten es stattdessen lieber aussehen? Nachdem ich im Wiki die Optionen von rsync durchgegangen bin, schien mir das am sinnvollsten.
|
Thomas_Do
Moderator
Anmeldungsdatum: 24. November 2009
Beiträge: 8542
|
Wenn Du in ein Archiv sicherst (komprimiert oder nicht) kannst Du z.B. mehrere Versionen mit unterschiedlichen Dateinamen behalten. Das kostet natürlich Platz. Programme wie back in time können über Hardlinks mehrere Zeitpunkte sehr platzsparend sichern.
|
Nimsiki
(Themenstarter)
Anmeldungsdatum: 13. Juni 2009
Beiträge: 90
|
Thomas Do schrieb: Wenn Du in ein Archiv sicherst (komprimiert oder nicht) kannst Du z.B. mehrere Versionen mit unterschiedlichen Dateinamen behalten. Das kostet natürlich Platz. Programme wie back in time können über Hardlinks mehrere Zeitpunkte sehr platzsparend sichern.
Das Back in time habe ich auch schon in Verbindung mit rsync entdeckt...
Weißt du zufällig aus dem Stegreif, ob man auch die Anzahl der angelegten Backups begrenzen kann? Also nicht, dass endlos neue Backups dazu kommen, sondern dass man angibt, er soll bspw. immer nur 6 Backuparchive behalten?
|
Thomas_Do
Moderator
Anmeldungsdatum: 24. November 2009
Beiträge: 8542
|
Du kannst die Häufigkeit der "Snapshots" einstellen. Dazu gibt es eine sehr genau konfigurierbare automatische Löschung. Das kann dann z.B. so aussehen: Mache einmal täglich eine Sicherung, behalte alle Sicherungen der letzten Woche (7), behalte im aktuellen Monat davor eine Sicherung pro Woche (+3), für das Jahr eine Sicherung pro Monat (+11) und dann eine pro Jahr. Wenn Du das 10 Jahre lang machst, hast Du in 30 Snapshots die gesamte Zeitspanne gesichert, wobei die aktuellen Sicherungen deutlich stärker vertreten sind. Der Platzbedarf hält sich in Grenzen, weil nur veränderte Dateien neu in die Snapshots aufgenommen werden.
|
Nimsiki
(Themenstarter)
Anmeldungsdatum: 13. Juni 2009
Beiträge: 90
|
Hallo! WinXP to Edgy schrieb: Ich kann mich Thomas Do nur anschließen: da stimmt etwas nicht am System. Selbst ein tar mit allen Schikanen wie Komprimierung etc. dürfte sich eigentlich keine 1,5 Tage Zeit lassen, jedenfalls nicht bei 8,2 GB und einigermaßen moderner Hardware.
*hust* Nach euren Hinweisen habe ich mal etwas genauer drauf geachtet und dabei festgestellt, dass es nur die zusätzliche HDD im System betrifft. Dann habe ich bemerkt, dass sie noch unter ntfs läuft. Habe die Platte vor Monaten meinem Windowsrechner geklaut und dann nicht mehr dran gedacht. Da ich darauf nur Backups sichere, ist es mir nie sonderlich aufgefallen, dass sie dermaßen lahmt. Nach der Umstellung auf ext4 ist aber jetzt alles gut. Jedenfalls vielen Dank für eure Hinweise! Ich nahm an, dass für die Geschwindigkeit das Backupscript verantwortlich ist, bzw. viel mehr das *tar.bz2
|
Nimsiki
(Themenstarter)
Anmeldungsdatum: 13. Juni 2009
Beiträge: 90
|
Hallo! Thomas Do schrieb: Wenn Du in ein Archiv sicherst (komprimiert oder nicht) kannst Du z.B. mehrere Versionen mit unterschiedlichen Dateinamen behalten. Das kostet natürlich Platz. Programme wie back in time können über Hardlinks mehrere Zeitpunkte sehr platzsparend sichern.
So, hatte jetzt Zeit mir das back in time anzusehen... Scheint wirklich sinnvoll und gut zu sein. Habe jetzt alle Backups darüber konfiguriert. Danke!
|