Dinogebiss
Anmeldungsdatum: 5. April 2008
Beiträge: 1540
|
Hallo, ich möchte die Daten in meinem kleines Büro mit 8 Leuten gerne per Remote-Backup sichern. Für alle die nicht wissen was mit Remote-Backup gemeint ist eine kurze Erklärung. Man hat 2 PC´s an 2 verschiedenen Standorten. Per verschlüsseltem VPN-Tunnel werden nachts die Daten auf den zweiten Rechner gesichert. Das hat den Vorteil, daß Daten auch nach Diebstahl oder Zerstörung des ersten Rechners an einem anderen Ort gesichert sind. Folgende Idee: Anstelle einer (teuren) Buffalo-TeraStation möchte ich bei mir zuhause einen Linux Rechner als Remote-Backup-Station installieren. Auf diesem Rechner werden Nachts die Daten per verschlüsseltem VPN-Tunnel (OpenVPN) inkrementell gesichert. Remote-Rechner und Büro-Rechner sind identisch in der Hardware, sprich identisches Mainboard, sowie Platten und Prozessoren, damit man zur Not die Rechner einfach austauschen kann. Die wichtigste Bootplatte hat einen Wechselrahmen, so daß man zur Not die Platte von zuhause mit ins Büro nehmen kann und in den dortigen Rechner einsteckt, falls erforderlich. Zuerst erfolgt eine 1:1 Kopie der Bootfestplatte des Büro-Rechners, auf der auch die Bürodaten liegen Danach wird der Remote-Rechner an einen sicheren entfernten Standort gebracht (mein Homeoffice) und die VPN Verbindung hergestellt. Nun möchte ich eine 1:1 Kopie der Festplatte des Bürorechners, jede Nacht zu einer bestimmten Uhrzeit. Desweiteren hätte ich gerne eine Generationen-Datensicherung, sprich Großvater, Vater, Sohn (Datensicherung). Von jedem Arbeitstag der Woche soll eine Sicherung vorhanden sein. Dann eine 4-Wochen Sicherung, jede Woche einzeln. Dann eine 6 Monate Sicherung, jeder Monat einzeln. Für das Generationenprinzip benötige ich eure Hilfe - wie sichert man? Differenziell? Inkrementell? Progressiv Inkrementell? Welche Möglichkeiten gibt es, um ältere Daten automatisch löschen zu lassen? Chronjobs? Rsync? Wer von euch praktiziert eine ähnliche Vorgehensweise? Viele Grüße Wilfried
|
andreasK
Anmeldungsdatum: 13. Dezember 2006
Beiträge: 384
Wohnort: Köln
|
Hallo, in meinem kleinen Heimnetzwerk betreibe ich einen Server, der u.a. auch Ablagedienste bereitstellt (Samba wg. eines Windows-Clients). In dem Server sind zwei Festplatten verbaut und ich sichere nächtens per cronjob und rsync von der einen auf die andere Platte (das Kommunikationsproblem habe ich also nicht 😉. Montags werden die Daten in den Montags-Ordner gesichert, dienstags in den Dienstags-Ordner usw. Die Sicherungen sind inkrementell und gelöschte Daten werden in der Sicherung nicht gelöscht. Das kann man anders machen, aber ich find's so OK. In Deinem Fall würde ich per cronjob ein script aufrufen, das zunächst den Tunnel aufbaut und dann per rsync die Daten abgleicht. Das geht aber nur mit Dateien, die nicht gesperrt sind. Systemdateien oder andere Dateien, die geöffnet und deshalb für den Zugriff gesperrt sind, kann man meines Wissens nicht ohne weiteres remote kopieren. Hier würde auf dem zu sichernden Rechner ggf. noch ein Programm (ein Sicherungsagent oder so etwas in der Art) laufen müssen. Grüßlinge Andreas
|
Blattlaus
Anmeldungsdatum: 29. März 2006
Beiträge: 1399
|
Dinogebiss hat geschrieben: Dann eine 4-Wochen Sicherung, jede Woche einzeln. Dann eine 6 Monate Sicherung, jeder Monat einzeln.
Durch den Absatz steige ich nicht so ganz durch...was meinst du damit genau? Ich würde den Sicherungsplan an folgenden Faktoren festmachen: - Wieviel Speicherplatz hast du auf dem Backupserver? - Wieviel Daten musst du sichern? Sprich: Wie groß ist die Festplatte insgesamt (fürs Vollbackup) und wieviel Daten ändern sich pro Tag (für differentiell/inkrementell)? - Wie schnell kannst du sichern (wie schnell ist die Leitung zum Server)? Ich vermute bei dir wird es auf Hauptsächlich inkrementelle/differentielle Sicherungen rauslaufen, da die Leitung mutmaßlich nicht schnell genug sein wird um über Nacht die komplette Platte zu sichern. Generell klingt das nach einem Einstz für rdiff-backup. Das habe ich zwar selbst noch nie benutzt, aber ich benutze die Schwestersoftware duplicity auf meinem Rootserver, um den auf einem vom Hoster gestellt FTP-Server zu sichern (duplicity deswegen weil es die Daten GnuPG verschluesselt sichert) und das funktioniert hervorragend.
|
Dinogebiss
(Themenstarter)
Anmeldungsdatum: 5. April 2008
Beiträge: 1540
|
Hallo, auf unserem jetzigen Server beträgt die Datenmenge ca. 200GB, die aber auf 300 GB ansteigen kann - geschätzt. Täglich werden ca. 300 bis 700 MB verändert - geschätzt. Wir haben an beiden Standorten eine DSL 20.000, 300 bis 700 MB dürften kein Problem darstellen für die Datenleitung. Folgende Wunschvorstellung zu den Sicherungszeitpunkten. Als allererstes wird eine 1:1 Kopie der Hauptfestplatte angelegt, dazu steht der neue Rechner direkt neben dem Büro Rechner. Nachdem der neue Rechner an seinem Standort installiert wurde wird jede Nacht inkrementell verändert. Auf einer weiteren Platte sichert man die beweglichen Daten aus Samba (Office, Email, Auftragsbearbeitung) zunächst für den Montag, - Di, Mi, Do, Fr beinhalten die inkrementellen Veränderungen zum Montag. In der Folgewoche werden am Fr. die Tagessicherungen der Vorwoche gelöscht, aber vorher eine Wochensicherung der Montagsdaten in eine weitere Festplatte oder Partition angelegt. Nachdem 4 Wochen (immer Mo) gesichert wurden, gibt es eine Monatssicherung der Samba Daten z.B. Januar. Feb, März, April, Mai, Juni und Juli beinhalten die inkrementellen Veränderungen zum Januar. Nachdem der August angelegt ist, wird der Januar gelöscht. Was haltet ihr von einer solchen Sicherungsmethode? Wie sichern die Profis? Viele Grüße Wilfried
|
Blattlaus
Anmeldungsdatum: 29. März 2006
Beiträge: 1399
|
Das Problem an deiner Lösung: Es geht so nicht. Eine inkrementelle Sicherung bezieht sich per Definition immer auf die vorherige Sicherung (ob die dabei inkrementell oder vollständig ist, ist dabei nicht wichtig). D.h. sobald du eine einzige (inkrementelle) Sicherung aus der Kette entfernst, sind alle Sicherungen danach wertlos geworden. Dem gegenüber steht eine differentielle Sicherung, die jedes mal den Unterschied zur letzten Vollsicherung sichert. Die braucht allerdings auch deutlich mehr Platz (wenn auch weniger als eine Vollsicherung). Das Problem lässt sich nur durch eingeschobene Vollsicherungen umgehen. Die wiederum kannst du nicht direkt einbauen, weil du, selbst übers Wochende, relatistisch gesehen, keine 200GB sichern kannst. Aber ich hätte da einen Trick anzubieten (ich beziehe mich dabei jetzt mal expliziert auf rdiff-backup, aber im Prinzip ist das Verfahren analog auf andere Programme übertragbar, sofern sie ähnlich Funktionen haben): Anfangs kopierst du die 200GB vom Rechner A (im Büro) auf den anderen Rechner (B, bei dir zu Hause). Den nimmst du dann mit stellst ihn bei dir zu Hause auf. Jede Nach sichert A inkrementelle seine Daten auf B. rdiff hat dabei die Eigenschaft das das Backup auch eine Spiegelung des letzten Sicherungsstandes ist, und die unterschiede zu den vorhergehenden Sicherungen komprimiert abgelegt werden. Das führt dazu dass nach jeder Sicherung der Stand von B dem Stand von A entspricht. Nach dem Freitagsbackup startet A auf Rechner B nach dem Backup ein Skript. Dieses Skript zieht aus dem Backup einfach wieder ein Vollbackup und speichert diese dann an einem weiteren Ort (rdiff, hätte da den Vorteil, dass man einfach mit cp/tar arbeiten könnte). Dann löscht das Skript alle inkrementellen Sicherungen. Der Sicherungsserver hat jetzt also ein Vollbackup (stand Freitag abend) und ein weiteres Vollbackup (ebenfalls stand Freitag abend). Auf letzteres läuft dann unter der Woche wieder die inkrementelle Sicherung bis sich am nächsten Freitag das Spiel wiederholt. Jeden ersten Freitag im Monat fügst du jetzt noch einen weiteren Schritt hinzu: Du benennst die aktuelle Wochensicherung einfach in Monatsicherung um und löscht alle vorhergehenden Wochensicherungen. Somit hättest du eine Großvater-Vater-Sohn Sicherung aus der du sehr einfach (da es Vollsicherungen sind) wiederherstellen kannst. Zwar wäre eine rein inkrementelle Sicherung, was den Platzverbrauch angeht, deutlich sparsamer aber imho unglaublich riskant: Sobald du eine inkrementelle Sicherung verlierst sind alle weiteren Sicherungen danach im Arsch. Du könntest den Platzverbrauch dadurch senden, dass du einen ganzen Monat lang mit inkrementellen Sicherungen fährst (hätte außerdem den Vorteil das du zu jedem Wochentag im Monat wiederherstellen kannst und nicht nur zum Freitag). Aber zumindest einmal monatlich solltest du eine Vollsicherung fahren. Du musst einschätzen: Was sind die Daten wert (was würde es dich kosten, wenn du einen Monat/eine Woche an Daten verlierst) und wie lange kann eine wiederherstellung dauern (wobei das bei einer inkrementellen Festplattensicherrung zu vernachlässigen ist, da sind wiederherstellen aus Vollsicherung und inkrementeller Sicherung nahezu gleich schnell). Falls die Daten steuerlich relevant sind, musst du die Stände auch sicher Archivieren. Ich würde dir daher (und auch sonst) ein Bandlaufwerk empfehlen. Die sind relativ günstig (du kannst ruhig ein gebrauchtes bei eBay kaufen, sofern die Medien neu sind) und haben genug Speicherplatz für deine Zwecke. Auf dieses solltest du dann nach erfolgter Online-Duplizierung die Daten wöchentlich, zumindest aber monatlich sichern. – Wie die Profis sichern: Im Unternehmen machen wir jede Nacht eine Vollsicherung unserer Arbeitsdaten auf Band. Wir haben 6 Wochbänder: Mo-Do und zwei Freitagsbänder (die jede zweite Woche wechseln). Weiterhin werden jeden ersten Freitag im Monat Monatssicherungen gezogen, die in einem Bankschließfach aufbewahr werden. Jahressicherungen dito. Außerdem haben wir von den krischen Servern eine 1:1 Kopie der System-Festplatten in einem weiteren Schließfach (zur schnelleren Wiederherstellung z.b. nach einem Brand). Weiterhin haben wird unsere Produktionsdatenbank mit 15 Minuten verzögerung auf ein Hot-Standby System repliziert, dass räumlich getrennt steht, aber das nur am Rande.
|
tux486
Anmeldungsdatum: 28. November 2005
Beiträge: 234
|
Hallo, Dinogebiss hat geschrieben: Wie sichern die Profis?
je nach geforderter Zugriffszeit bei einer potentiellen Wiederherstellung schon mal nicht inkrementell. Wenn nach einer inkrementellen Sicherung eine bestimmte Datei gebraucht wird, ist das Chaos perfekt, erst recht, wenn sich seit dem Vortag fast ein GB verändert hat.😉 Bei dieser Datenmenge (ca. 300 GB unkomprimiert) empfehle ich eine tägliche Komplettsicherung auf eine schnelle externe Festplatte vor Ort. Am nächsten Arbeitstag oder auch nur in der Folgewoche kann diese externe Festplatte ggf. gegen eine andere ausgetauscht werden. Mit dieser "Rotation" stehen verschiedene Datenstände zur Verfügung und die derzeitigen Preise für externe Festplatten (je nach Anzahl der gewünschten Rotationen) sollten ein Unternehmen mit acht Mitarbeitern auch nicht vor die Existenzfrage stellen, der Verlust der Daten hingegen schon eher. Eine inkrementelle Sicherung (auch schon fast ein GB) könnte ich mir zusätzlich auf DVD(+/-RW) gebrannt vorstellen und diesen Datenträger ebenfalls austauschen. Auf jeden Fall sollten die Daten auf dem Sicherungsdatenträger mit Hilfe eines verschlüsselten Dateisystems oder kennwortgeschützer Datei abgelegt werden, damit ein Datenträgerdieb keine brauchbaren Informationen erhält. Über Datenfernübertragung zu sichern halte ich bei dieser Datenmenge für sportlich, egal welche DSL-Bandbreite auf dem Papier zur Verfügung steht. Gruß Sven
|
uname
Anmeldungsdatum: 28. März 2007
Beiträge: 6030
Wohnort: 127.0.0.1
|
Sofern Du an beiden Standorten auf SSH zurückgreifen kannst, wovon ich ausgehe, da das hier ja ein Linuxforum ist, könntest du dir mal folgendes Script Skripte/Backup_mit_RSYNC anschauen. Im Fall von Remote-Backup würdest du das Backup zuhause starten und die Daten per "rsync über ssh" (durch VPN) von der Firma nach hause ziehen. Die Daten werden entsprechend in einem Tagesordner inkrementell gesichert. Eine automatische Löschung ist nicht vorgesehen. Nun kannst du mit einem weiteren Script einen beliebigen Tag (Vollsicherung) per TAR packen und sonstwo hin kopieren. Auch kannst du alte Backups nach gewisser Zeit per Script löschen. Natürlich kannst du das Script auch beliebig umschreiben. Bei mehreren Rechnern nutzt du mehrere Scripte mit unterschiedlichen Konfigurationen (Zielordner und SSH-Server) oder schreibst das Script entsprechend um. Für meinen Fall ist es ausreichend ... ok habe es ja auch selbst geschrieben.
|
tux486
Anmeldungsdatum: 28. November 2005
Beiträge: 234
|
Hallo, um möglichst viele Alternativen auf den Tisch zu werfen: rdiff (Sidux Seite) rdiff-backup (engl.) Gruß Sven
|
Dinogebiss
(Themenstarter)
Anmeldungsdatum: 5. April 2008
Beiträge: 1540
|
Hallo Leute, nach etlichen Wochen Testphase sind nun die ersten beiden Rechner (von 10) auf Kubuntu umgestiegen. ☺ Leider geht es nicht ohne VirtualBox OSE, denn für 2 Programme gibt es keine Linux Alternative ☹ Und mit Wine 1,10 geht es (noch) nicht. Nun ist das Thema Datensicherung (Remote Backup) des Servers aktuell und soll realisiert werden. Mit unserem Provider (ein lokaler Anbieter - Heagmedianet) habe ich gesprochen, vor allem der Upload kann gut hoch geschraubt werden. Hardware ist auch kein Problem - weil Linux auf fast jeder Hardware bootet (kennt man von den Live CDs a' la Knoppix). Jetzt fehlt nur noch eine clevere Sicherungsstrategie um die Plattengröße berechnen zu können. Als Speichermedium möchte ich Festplatten verwenden. Bei der ersten Sicherung ziehe ich eine 1:1 Kopie der Serverplatte. Danach soll per Datenleitung nachts gesichert werden. Taglich, wöchentlich, monatlich, jährlich - grübel grübel - wie sichert man dann? - bin absolut ratlos. Wenn die Platte des Servers 300GB Daten hätte - wie groß müssten die Sicherungsplatten sein, um eine Generationensicherung durchzuführen. Wer kann mir helfen? Wie sichern die Profis? Viele Grüße Wilfried
|
Dinogebiss
(Themenstarter)
Anmeldungsdatum: 5. April 2008
Beiträge: 1540
|
Anfangs kopierst du die 200GB vom Rechner A (im Büro) auf den anderen Rechner (B, bei dir zu Hause). Den nimmst du dann mit stellst ihn bei dir zu Hause auf. Jede Nach sichert A inkrementelle seine Daten auf B. rdiff hat dabei die Eigenschaft das das Backup auch eine Spiegelung des letzten Sicherungsstandes ist, und die unterschiede zu den vorhergehenden Sicherungen komprimiert abgelegt werden. Das führt dazu dass nach jeder Sicherung der Stand von B dem Stand von A entspricht. Nach dem Freitagsbackup startet A auf Rechner B nach dem Backup ein Skript. Dieses Skript zieht aus dem Backup einfach wieder ein Vollbackup und speichert diese dann an einem weiteren Ort (rdiff, hätte da den Vorteil, dass man einfach mit cp/tar arbeiten könnte). Dann löscht das Skript alle inkrementellen Sicherungen. Der Sicherungsserver hat jetzt also ein Vollbackup (stand Freitag abend) und ein weiteres Vollbackup (ebenfalls stand Freitag abend). Auf letzteres läuft dann unter der Woche wieder die inkrementelle Sicherung bis sich am nächsten Freitag das Spiel wiederholt. Jeden ersten Freitag im Monat fügst du jetzt noch einen weiteren Schritt hinzu: Du benennst die aktuelle Wochensicherung einfach in Monatsicherung um und löscht alle vorhergehenden Wochensicherungen. Somit hättest du eine Großvater-Vater-Sohn Sicherung aus der du sehr einfach (da es Vollsicherungen sind) wiederherstellen kannst. Zwar wäre eine rein inkrementelle Sicherung, was den Platzverbrauch angeht, deutlich sparsamer aber imho unglaublich riskant: Sobald du eine inkrementelle Sicherung verlierst sind alle weiteren Sicherungen danach im Arsch. Du könntest den Platzverbrauch dadurch senden, dass du einen ganzen Monat lang mit inkrementellen Sicherungen fährst (hätte außerdem den Vorteil das du zu jedem Wochentag im Monat wiederherstellen kannst und nicht nur zum Freitag). Aber zumindest einmal monatlich solltest du eine Vollsicherung fahren. Du musst einschätzen: Was sind die Daten wert (was würde es dich kosten, wenn du einen Monat/eine Woche an Daten verlierst) und wie lange kann eine wiederherstellung dauern (wobei das bei einer inkrementellen Festplattensicherrung zu vernachlässigen ist, da sind wiederherstellen aus Vollsicherung und inkrementeller Sicherung nahezu gleich schnell).
Nachtrag - diese Lösung von Blattlaus gefällt mir gut. Nun gilt es zu kalkulieren welche Festplattenkapazität am Sicherungsstandort benötigt werden. Dazu müsste ich nur wissen wie stark rdiff die inkrementellen Unterschiede zum Montag komprimieren kann und ob man die gespiegelten Daten auch komprimieren kann. Ich rechne mal, bitte korrigiert mich, falls ich falsch liege: Mo 200 GB Di 210 GB (Montagsspiegelung + Komprimierte Änderungen (nehmen wir mal 300 MB (geänderte Daten) die auf ca. 1/3 komprimiert werden, bleiben ca. 100 MB) Mi 210 GB Do 210 GB Fr 210 GB \––\––– Summe 1.040 GB - also 2 Platten a' 750 GB wären für die Tagessicherungen ausreichend. Nun wird Wochenweise gesichert 1. Woche 210 GB 2. Woche 210 GB 3. Woche 210 GB 4. Woche 210 GB \––\––\––\––- Summe 840 GB - 2 Platten a' 750 GB reichen Und nun die Monate: 6 Monate a' 250 GB sind 1,5TB - auch hier würden 2 Platten a' 750 GB reichen. Und dann das Jahr: 2 x 250 GB ergeben 500 GB, also mit einer weiter 750 GB könnte ich 1 1/2 Jahre zurück sichern. Brauche ich 8 Platten a750 GB - oder geht es auch mit weniger Speicherplatz?
Für 8 Platten benötigt man wahrscheinlich ein externes Gehäuse.
Eine Platte kostet rund 80 Euro - das wäre zu verkraften.
Viele Grüße
Wilfried
|
Lutki
Anmeldungsdatum: 17. Juni 2006
Beiträge: 372
|
Dinogebiss hat geschrieben: Mit unserem Provider (ein lokaler Anbieter - Heagmedianet) habe ich gesprochen, vor allem der Upload kann gut hoch geschraubt werden.
Wie hoch ist den der Upstream? Interessiert mich mal, weil ich auch remote über vpn/rsync sichere. Ich habe aber nur auf jeder Seite normales 16MB_DSL - das bringt etwas 110 KB/sek upstream; ich kann dir sagen, dass das nicht sehr viel ist. Ansonsten wird täglich in der Nacht komplett (mit excludes) gesichert und am Tag werden die Backups rotiert (mit Hardlinks; spart Plattenplatz). Der älteste Backup wird jeweils nach 7 Tagen gelöscht, ist aber kein Problem, weil alles auf einem extra Server langfristig verschlüsselt gespeichert wird. MFG
|