Hallo zusammen,
ich suche zu Zeit eine Möglichkeit, die Daten einer eigenen Internetseite automatisiert zu sichern. Es handelt sich um ein Forum auf einem Server eines Webhosters, sodass ich nur Zugriff via FTP habe. Die SQL-Datenbank kann ich automatisiert als Datei auf dem Webspace sichern lassen, sodass mir eine Sicherheitskopie des gesamten Webspaces via FTP zum kompletten Wiederherstellen im Fall der Fälle reichen würde.
Mein Problem ist nun, dass ich zwar ohne Probleme ein bestimmtes Verzeichnis auf dem Webspace regelmäßig per kleinem Skript und wget sichere, ich aber gern auch den Rest der Daten in regelmäßigen Abständen sichern will. Der Punkt dabei ist, dass ich ungern jedesmal die gesamten Daten laden möchte, die sich nicht geändert haben. Das übersteigt auch von der Bandbreite her die Möglichkeiten, die ich "so nebenbei" habe.
Im Prinzip bräuchte ich also ein möglichst per Kommandozeile steuerbares Programm, welches sich auf einem FTP Server einloggen kann und vor allem vor dem Herunterladen zum Beispiel anhand von Timestamps überprüft, was neu ist und was nicht. Ich weiß allerdings nicht, ob es ein solches Programm überhaupt gibt, oder ob das via FTP überhaupt möglich ist.
Leider habe ich in Sachen SSH keine Zugangsmöglichkeit auf den Server, soweit ich das weiß und damit fällt meines Wissens rsync flach, oder?
Vielleicht weiß ja zufällig jemand was und kann mir hier den entscheidenden Hinweis geben...
Beste Grüße,
Lucas