res55
Anmeldungsdatum: 22. April 2009
Beiträge: 574
Wohnort: Schweiz
|
Ich habe folgende Ziele mit meinem künftigen Backup von 2-3 PCs im Heimnetz. 1. laufend Datensicherungen machen, im Hintergrund. 2. Diese Sicherungen sollten auch externe Lagerplätze wie z.B. die Cloud nutzen, damit ich auch noch ein Backup habe, wenn z.B. das Haus abbrennt oder Einbrecher alles geklaut haben oder ähnliche Katastrophen. 3. Es sollte auch wie bei Back In Time einige ältere Stände von Dateien bewahrt werden, für den Fall, dass ich unbemerkt etwas verpfusche. Somit kann ich auf ältere Versionen zurück greifen. Bzgl. der Cloud ist jedoch meine Betrachtung, dass die paar TB Daten, um die es bei mir geht, kaum kostengünstig in der Cloud gehalten bzw. auch restauriert werden können. Daher denke ich an folgende Lösung: Ich mache ein Vollbackup auf eine ext. HDD, die ich in anderen Gebäuden lagere. Dieses kann ich z.B. einmal monatlich abwickeln. Besser wohl zwei HDDs, die ich abwechselnd bespiele, dann ist eine extern, während die andere bespielt wird. Dann inkrementelle Backups in die Cloud bzw. auch parallel auf eine weitere HDD, die am PC hängen kann. Ich habe zwar einige TB Daten insgesamt (halt auch über Jahrzehnte zusammengetragen), aber die täglichen Veränderungen sind vergleichsweise wenige GB. Wenn dann die Totalkatastrophe mal eintreten sollte, hole ich das letzte Vollbackup von extern herein und spiele das samt der inkrementellen aus der Cloud wieder zurück. Das Backup in der Cloud sollte natürlich vorher lokal verschlüsselt worden sein, damit niemand externes auf meine Daten zugreifen kann. Vermutlich wäre es angemessen, einen älteren PC als Backup-Server einzusetzen, damit die Abwicklung im Hintergrund die Performance der Arbeitsplätze nicht in die Knie zwingt. Soweit meine Theorie. Unklar ist mir, welche Software dafür geeignet ist. Die Übersicht unter https://wiki.ubuntuusers.de/Datensicherung/ mag ja sehr vollständig sein, hilft mir jedoch kaum eine Entscheidung zu treffen. Kann mir jemand einen Tipp geben, welches unter Ubuntu die besten und sichersten Tools sind, die leicht zu bedienen sind und die solche zweispurigen Backups ermöglichen? Habe ich noch Aspekte übersehen? Dankbar für Eure professionellen Tipps. Res
|
rleofield
Anmeldungsdatum: 14. September 2008
Beiträge: 779
Wohnort: Görlitz
|
res55 schrieb: Ich mache ein Vollbackup auf eine ext. HDD, die ich in anderen Gebäuden lagere. Dieses kann ich z.B. einmal monatlich abwickeln. Besser wohl zwei HDDs, die ich abwechselnd bespiele, dann ist eine extern, während die andere bespielt wird.
rsnapshot ist Dein Freund. via cronjob Doppelte Konfigurationen für 2 identische HDs anlegen, die sich im Label unterscheiden. Eine davon außer Haus ablegen und alle Monate tauschen. Im cronjob die nicht eingebundene HD auskommentieren. rsnapshot legt eine Historie an, kopiert nur Differenzen (d.h. beim 1. mal natürlich alles) und hat in der letzten Version/Differenz immer den gesamten Datenbestand. D.h eine sogenannte 'Vollsicherung' und dann dann nur die 'Differenzen' sichern entfallen. Klingt komisch, ist aber so. Dank an die Erfinder der Hardlinks. Und das Backup ist ohne Hilfsmittel lesbar. I hope this helps rleofield
|
ChickenLipsRfun2eat
Anmeldungsdatum: 6. Dezember 2009
Beiträge: 12067
|
Hallo! Vorab: Ich muss — da ich lokal hoste — keine Rücksicht auf Speicherplatz nehmen. Zeitweise habe ich BackupPC verwendet, da das alle Geräte automatisch sichern kann, wenn sie im Netzwerk verfügbar sind, es ein Webfrontend mit der Möglichkeit bietet, einzelne Dateien/Ordner wiederherzustellen — entweder ins Originalverzeichnis oder als gepackter Download und das Aufräumen und deduplizieren ging immer Nachts vonstatten, die Lastverteilung war also super. Aktuell sichere ich gar keine Klienten mehr. Ich habe mein „Datengrab“ über NFS (lokale Geräte) / sshfs (mobile Geräte) eingehängt, verwende parallel dazu Nextcloud für Mobilgeräte, Bilder, eBooks, etc. und git für alle Projekte, was gerade bei Briefen und sowas super ist, wenn man mal nachgucken will, was man letztes und vorletztes Jahr so argumentiert hatte 😉 Dann und wann sortiere ich dann Kram den ich behalten will von der Nextcloud ins Datengrab, damit die Cloud schlank bleibt. Der Server selbst macht Morgens ein inkrementelles Backup mit rsync auf Hardlink-Basis. Das ist zwar langsam, spart aber auch Platz. Von diesen Backups wird das aktuellste als Vollbackup wöchentlich auf eine zusätzliche HDD gesichert, die in einem Wechselrahmen steckt. Die Platte im Rahmen wechsle ich alle paar Wochen, im „Wechselpool“ sind 3-4 Platten, wobei eine nur alle 6 Monate mal nach Hause kommt und gegen die dann aktuellste getauscht wird. Das ist der Punkt mit „außer Haus lagern“, falls hier mal wieder irgendwas ist.
|
san04
Anmeldungsdatum: 19. Januar 2010
Beiträge: 1017
|
Da muss schon die Welt untergehen, bevor du Daten verlierst 😉 ChickenLipsRfun2eat schrieb: Der Server selbst macht Morgens ein inkrementelles Backup mit rsync auf Hardlink-Basis.
Wohin geht das Backup? Einfach auf eine zweite Platte im Server dann? Ist das ein RAID-System? Mit RAID-5 bräuchte man dann bei 4 TB Daten:
oder? Und wenn der Server übernommen wird ist das letzte stromlose Backup auch ein paar Wochen alt?
|
ChickenLipsRfun2eat
Anmeldungsdatum: 6. Dezember 2009
Beiträge: 12067
|
san04 schrieb: Wohin geht das Backup? Einfach auf eine zweite Platte im Server dann? Ist das ein RAID-System?
Raid hatte ich absichtlich nicht erwähnt, weil das mit Backup nix zu tun hat. Aber das inkrementelle Backup geht auf eine interne Platte, ja. Und alle Platten außer der Systemplatte sind im Raid1, der Ausfallsicherheit wegen. Brauchen tust du da mehr Platz, als du Daten hast. Mit deinen Zahlen etwa 2x4TB für die Originaldaten (Raid1), 2x6TB fürs Backup(Raid1), wobei das von den geänderten Daten abhängt. Mein Tagesdelta sind zwischen 300MB und 1G, das meiste sind ja statische Daten. Der Wechselpool kommt mit 4TB klar, da er ja nur die letzte Sicherung übernimmt. Wenn du VMs komplett mitsichern wollen würdest wäre der Platzbedarf enorm höher, da diese ja immer komplett neu kopiert werden, wenn sie geändert sind. VMs sind bei mir aber Spielzeug (bis auf eine), daher sind die außen vor.
Wenn der Server übernommen wird…
… liege ich wohl tot daneben. Der ist von außen nicht erreichbar, es sei denn ich fahre weg und aktiviere die entsprechenden Weiterleitung. Dann gibt es ssh mit pubkey und eine dyndns-Adresse als Schwachstelle. Und ja, das letzte stromlose Backup ist meist ein paar Wochen alt. Allerdings habe ich ja alle nicht-statischen Daten wie aktuelle Projektchen, etc. auch auf den Klienten liegen. Falls mir also einer alle Rechner klaut, dann ist mein letztes Backup ein paar Wochen alt. Falls die Bude komplett abbrennt sogar nen halbes Jahr oder älter. Das wäre natürlich ärgerlich, aber ich denke in dem Moment habe ich dann andere Sorgen als den Verlust meiner kreativen fünf Minuten 😉
Da muss ich wohl etwas ausholen: Das das Backup im Raid liegt ist historisch gewachsen. Normalerweise würde ich das gar nicht ins Raid packen. Wenn ich den Server das nächste Mal am Wickel habe, werde ich da auch einiges ändern. Es macht bspw. keinen Sinn täglich die statischen Daten durchzugehen, nur weil sich da eine Datei geändert haben könnte oder 2 dazu kamen. Da werde ich mir wohl was basteln, um die Änderungen anders zu erfassen und direkt ins Backup zu schieben. Ein- zwei Mal im Monat kommt ein neues Hörbuch dazu, dann und wann ein eBook, die aufgeräumte Cloud, etc. Was sich täglich ändert ist mein git, weil dort alles liegt, egal ob Scriptchen, Notizen, offizielle Briefe, Konfigurationen, mein lokales Wiki, … Und die Nextcloud, da diese die Daten von Tablet und Handy synchronisiert. Das historisch gewachsen kostet mich viel Platz, aber da ich den aktuell habe, hat es keine Priorität. Es verschwendet aber Energie, weswegen ich mein Backup minimaler gestalten will. Mein momentaner Plan sieht vor, alles individuell zu sichern. Die statischen Daten werden nur noch read only eingebunden, wenn es Änderungen gibt, werden die direkt auf die Backup-Partition synchronisiert, es wird einen Bereich für „ungesichertes“ geben, wie die VMs, Downloads, die man sich „irgendwann vielleicht noch mal anguckt“, etc. Ich verliere damit einen Teil der Automatisierung, gewinne aber immens Platz und spare viel Arbeitsleistung.
|
res55
(Themenstarter)
Anmeldungsdatum: 22. April 2009
Beiträge: 574
Wohnort: Schweiz
|
ChickenLipsRfun2eat schrieb: Falls mir also einer alle Rechner klaut, dann ist mein letztes Backup ein paar Wochen alt. Falls die Bude komplett abbrennt sogar nen halbes Jahr oder älter. Das wäre natürlich ärgerlich,
Ja, mehr als ärgerlich, wenn man die Arbeits-Ergebnisse eines Lebens verliert. Deswegen denke ich daran, das Angebot von https://www.crashplan.com/en-us/pricing/ wahrzunehmen, um für $10 mtl. eine Vollsicherung auf Tagesbasis haben. Das wären $600 in 5 Jahren, also das was ich für ein RAID-System etc für das Volumen auch alle 5 Jahre hinblättern müsste. Nur dass ich dann weniger Arbeit hätte mit aussortieren und anderen Fehlerquellen. Oder kommen da noch versteckte Kosten hinzu, die ich nicht überschaue? Wichtig wäre mir natürlich, die Daten vor dem upload lokal zu verschlüsseln. Das hatte mal DejaDup geleistet, aber inzwischen unterstützen die CrashPlan nicht mehr als Cloud-Speicher. Da braucht es eine andere Lösung? Vielleicht einen alten PC als Backup-Server, der über Scripts oder Backup in Time alle PCs im lokalen Netz verschlüsselt backuped und dann diese Backup-HDD mit CrashPlan sichern. Die Backup-HDD kann ich auch monatlich im Wechsel mit einer zweiten austauschen und extern lagern. Anfang Dezember hatte ich eine Polizeirazzia erdulden müssen, die mir alle PCs und HDDs (18 Geräte!) weggeschleppt hatten und erst nach 3 Monaten wieder hergegeben. Da stand ich ganz schön auf dem Schlauch. Inzwischen haben die sich für das "Versehen" entschuldigen müssen, denn sie konnten nicht mal einen nötigen Anfangsverdacht für diese Aktion vorbringen. Einfach eine Einschüchterung eines politisch Aktiven. Das hat geklappt. Nun suche ich eine Möglichkeit, mich auch dagegen absichern zu können. Res
|
res55
(Themenstarter)
Anmeldungsdatum: 22. April 2009
Beiträge: 574
Wohnort: Schweiz
|
rleofield schrieb: Doppelte Konfigurationen für 2 identische HDs anlegen, die sich im Label unterscheiden. Eine davon außer Haus ablegen und alle Monate tauschen. Im cronjob die nicht eingebundene HD auskommentieren. rleofield
alle Monate ist mir zu selten, falls PC und Backup weg sind. Und öfter macht man so eine Aktion kaum, dass man die ext. HDD tauscht und auslagert (Es sei denn, man hat seinen PC am Arbeitsplatz und nimmt das Backup täglich mit nach Hause). Daher denke ich an Möglichkeiten der Cloud, das war mir bislang halt zu teuer für netto 2 TB Datenvolumen.
|
ChickenLipsRfun2eat
Anmeldungsdatum: 6. Dezember 2009
Beiträge: 12067
|
res55 schrieb: Wichtig wäre mir natürlich, die Daten vor dem upload lokal zu verschlüsseln.
Da wäre ich vorsichtig mit. Wenn du den Schlüssel verlierst, hast du nen Haufen Binärsalat gesichert. Und wieso alle 5 Jahre Geld hinblättern? Mein System ist 10 Jahre alt und tut noch mit den Originalplatten. Hat damals aber auch etwas mehr als 600$ gekostet, ich meine rund 800€. Langsam sind nur die VMs geworden, was aber wohl an meiner damaligen Prozessorwahl liegt. Xeon ohne Grafikchip + jede Menge Kernelbugs, die das Virtualisieren ausbremsen. Festplatten habe ich zwar ein paar neue dazu gekauft, aber das sind nur die Wechselplatten und eine Reserverplatte, weil ich dachte es müsse bald mal eine ausfallen.
|
Bournless
Anmeldungsdatum: 4. Mai 2019
Beiträge: 915
|
Hallo res55. Mein Tipp: wichtige oder sehr wichtige Daten/Dateien niemals einem Fremden anvertrauen! Kauf dir eine entsprechend große externe HDD oder SDD und verbringe sie wöchentlich oder monatlich an einen sicherern Ort. Es ist zwar aufwendiger, nerviger und kostspieliger, als die ach so tollen "Cloud-Lösungen"- Es hat mir aber schon dreimal (gewerblich) den Ar.. gerettet! (Diebstahl, Feuer und Vandalismus) Falls Du zusätzlich Daten mittels TSE erfasst, erstelle automatische Tagessicherungen auf einem simplen USB-Stick, der jeden Tag getauscht wird.
|
res55
(Themenstarter)
Anmeldungsdatum: 22. April 2009
Beiträge: 574
Wohnort: Schweiz
|
Bournless schrieb: Hallo res55. Mein Tipp: wichtige oder sehr wichtige Daten/Dateien niemals einem Fremden anvertrauen!
entscheidend ist ja nicht, ob die wichtig sind. Sondern ob sie vertraulich behandelt werden sollten. z.B. die Buchmanuskripte eines Autors sind zwar höchst wichtig, aber nach Veröffentlichung nicht mehr vertraulich. Bezgl. vertraulicher Daten sollte es doch reichen, sie über pgf o.ä zu verschlüsseln, bevor man sie in die Cloud hochlädt, oder?
Kauf dir eine entsprechend große externe HDD oder SDD und verbringe sie wöchentlich oder monatlich an einen sicherern Ort. Es ist zwar aufwendiger, nerviger und kostspieliger, als die ach so tollen "Cloud-Lösungen"- Es hat mir aber schon dreimal (gewerblich) den Ar.. gerettet! (Diebstahl, Feuer und Vandalismus)
bei den drei Fällen hätte die Cloudlösung doch auch geholfen. Oder? Ich will das ja auch nicht gegeneinander ausspielen, sondern kombinieren: eine mtl. HDD-Kopie extern gelagert für den extremsten Fall der Fälle und die Cloud für eine tägliche oder öftere Datensicherung. Ich habe sogar eine Idee für eine sehr kostengünstige Cloud-Lösung:
Man macht mtl ein Vollbackup auf ext-HDD.
Und dann tgl ein incrementelles BU in die Cloud. Bei 1GByte Delta am Tag wären das max. 30 GB, die bei Amazon z.B. nur ca $1 mtl kosten würde. Ich frage mich nur, ob das nicht zu kompliziert und damit fehleranfällig wird...
Falls Du zusätzlich Daten mittels TSE erfasst, erstelle automatische Tagessicherungen auf einem simplen USB-Stick, der jeden Tag getauscht wird.
Nein, so ein Kassensystem (Barverkauf) habe ich nicht. Res
|
res55
(Themenstarter)
Anmeldungsdatum: 22. April 2009
Beiträge: 574
Wohnort: Schweiz
|
ChickenLipsRfun2eat schrieb: res55 schrieb: Wichtig wäre mir natürlich, die Daten vor dem upload lokal zu verschlüsseln.
Da wäre ich vorsichtig mit. Wenn du den Schlüssel verlierst, hast du nen Haufen Binärsalat gesichert.
klar, aber das wird man doch wohl hinbekommen, sich seinen geheimsten Schlüssel irgendwo zu verstecken.
Und wieso alle 5 Jahre Geld hinblättern? Mein System ist 10 Jahre alt und tut noch mit den Originalplatten. Hat damals aber auch etwas mehr als 600$ gekostet, ich meine rund 800€. Langsam sind nur die VMs geworden, was aber wohl an meiner damaligen Prozessorwahl liegt. Xeon ohne Grafikchip + jede Menge Kernelbugs, die das Virtualisieren ausbremsen. Festplatten habe ich zwar ein paar neue dazu gekauft, aber das sind nur die Wechselplatten und eine Reserverplatte, weil ich dachte es müsse bald mal eine ausfallen.
Genau: die neuen Platten, um keinen Crash zu riskieren, stellen auch einen regelmässige Kostenfaktor dar. Dazu kommen noch 40 EUR Stromkosten für das System. Insofern denke ich, dass es kostenmässig ähnlich ist. Wichtiger sind die Faktoren: Ausfallsicherheit und Zugriff und wieviel Aufmerksamkeit das Backup noch braucht.
|
ChickenLipsRfun2eat
Anmeldungsdatum: 6. Dezember 2009
Beiträge: 12067
|
res55 schrieb: Genau: die neuen Platten, um keinen Crash zu riskieren, stellen auch einen regelmässige Kostenfaktor dar. Dazu kommen noch 40 EUR Stromkosten für das System. Insofern denke ich, dass es kostenmässig ähnlich ist.
Gut, da hab ich bisher Glück gehabt. Die sind alle noch im Einsatz und die Smartwerte sehen unauffällig aus. Ich hab also noch massig Platz übrig, wenn ich will. Stromkosten sind bei mir höher, allerdings nutze ich den Homeserver ja auch nicht nur als Backuplösung, sondern als „Mädchen für alles“. Wichtiger sind die Faktoren: Ausfallsicherheit und Zugriff und wieviel Aufmerksamkeit das Backup noch braucht.
Da ich mein Backup manuell aufräume (beim Löschen bin ich immer etwas empfindlich 😉 ), würde sich das bei einer anderen Lösung nicht ändern. Ausgefallen ist die Kiste nur, wenn hier mal Stromausfall war. Allerdings brauche ich zu dem Zeitpunkt dann auch kein Backup. Läuft ja nix. Der Vorteil zuhause ist halt, dass es auch funktioniert, wenn wieder der Blitz in die Telefonleitung einschlägt, Hochwasser ist oder sonstwas uns daran hindert Internetzugang zu haben. Das kam tatsächlich schon öfter vor. Sowas ist aber unabhängig vom Anbieter und dagegen kann man nichts machen. Je nach Anbieter bekommste dann gratis LTE fürs Handy und kannst das als Router nutzen. Was die Kosten angeht: Ich habe da grob überschlagen etwas mehr als 100€/Jahr.
|
Razorsedge
Anmeldungsdatum: 24. März 2020
Beiträge: 137
|
Ich will meine Daten weder verschlüsseln noch an einen Dritten weitergeben wie z.B. Cloud, no way !!!!. Denn bedenke: Du hast Zugriff zu Deinen Daten NUR wenn der Betreiber es dann auch zulässt! Ich selber habe seit Jahren das 3-Generationen Backup: -SOHN, interne HDD nur für Backup, Wochentage 1-6, dann überschreiben. -VATER, externe HDD, gelagert in ausserhalb Raum wo PC steht, Sonntage 1-4, dann überschreiben. -OPA, externe HDD, gelagert im Büro oder bei mir, in Bank Tresor, Monate 1-12, dann überschreiben. So hast Du eine schnelles Backup zur Verfügung, bist beim PC Crash/ Brand gesichert und ein Hausbrand, Einbruch, Erdbeben lassen Deine Daten immer noch von Dir selber holen und zurückspuhlen. Das Backup wird mit rsync gemacht. Dieses kontrolliert zuerst, ob Daten schon vorhanden (Size, Date) und kopiert nur dann. Das macht es auch bei TB schnell. Die Kosten sind nur die externen HDD und ein kleiner Aufwand.
|
undine
Anmeldungsdatum: 25. Januar 2007
Beiträge: 3284
|
Bournless schrieb:
als die ach so tollen "Cloud-Lösungen"- Es hat mir aber schon dreimal (gewerblich) den Ar.. gerettet! (Diebstahl, Feuer und Vandalismus) Weil es gerade so paßt: https://forum.ubuntuusers.de/topic/webdav-onlinespeicher-synchronisieren-webdav-s/ undine schrieb: Hallo shiro, Cloudanbietern scheint man nicht trauen zu können. https://i.imgur.com/9G7cNzc.jpg Die scheinen nicht mal ein Backup zu machen.
befürchten aber, dass die hochgeladenen Dateien verloren sind.
Security by Design https://i.imgur.com/VeiOgXE.jpg Und das bei Professionals. Das kann ich auch. xxxxxxxxxxxxxxxxxxxxxx Also doch besser eine Lösung mit zwei WebDav Anbietern und diese synchron halten. Nur wie das realisieren? Ein kleiner VPN Server der das tun würde, ist das sie Lösung? Greezt undine
Verlasse dich auf fremde Computer und Du bist verlassen. und RAID hat nichts mit Backup zu tun, es erhöht nur die schnellere Verfügbarkeit!
|
Razorsedge
Anmeldungsdatum: 24. März 2020
Beiträge: 137
|
undine schrieb:
Verlasse dich auf fremde Computer und Du bist verlassen.
Der Spruch ist gut!
|