piffpaff34
Anmeldungsdatum: 23. Dezember 2016
Beiträge: Zähle...
|
Servus und Hallo, ich habe einen gemieteten vServer am Laufen und möchte gerne ein Backup einiger meiner Daten dort lagern. Nun läuft auf dem Server auch ein Web- und eMail-Server und er steht logischerweise nicht bei mir zuhause, somit möchte ich keine privaten Dateien permanent unverschlüsselt auf ihm speichern und suche daher nach einer Möglichkeit, Dateien bei mir auf dem Rechner lokal zu verschlüsseln, aber gleichzeitig auf dem Server generell verschlüsselt zu lagern. Meine erste Idee war ein Veracrypt-Container, welcher auf dem Server gespeichert ist und über die SAMBA-Freigabe bei mir lokal "eingebunden" wird. Funktioniert auch so gut und schön, nur leider quälend langsam (zweistelliger KB-Bereich trotz 50.000er DSL-Anbindung), also nicht wirklich brauchbar. Zudem bleiben Kopiervorgänge auf das verschlüsselte "Laufwerk" irgendwann hängen, weil Ubuntu eben ein Laufwerk "annimmt". Meine zweite Idee war das gleiche Szenario mit einem LUKS-Container, hier stellen sich aber Probleme mit Berechtigungen und der umständlichen Einbindung, die ausschließlich mit Root-Rechten möglich wäre (letzteres wäre aber noch verschmerzbar). Die dritte Lösung wäre externe Software ala "Boxcryptor" bzw. "Cryptomator", damit allerdings hatte ich schon einmal einen sehr bösen Datenverlust, die Lösung ist ziemlich verbuggt... Hat jemand von euch so eine Konstellation schonmal lösen können? Wie immer danke für Antworten.
|
Thomas_Do
Moderator
Anmeldungsdatum: 24. November 2009
Beiträge: 8525
|
Schau Dir mal BorgBackup an. Das ist (nach dem ersten "Vollbackup") sehr schnell. Geht über Samba oder besser noch ssh.
|
cosinus
Anmeldungsdatum: 11. Mai 2010
Beiträge: 1374
Wohnort: HB
|
Verschlüsselt auf einem Server speichern? Was soll der Sinn dahinter sein, hast du Angst davor, dass jmd den vServer klaut? 😀
|
Thomas_Do
Moderator
Anmeldungsdatum: 24. November 2009
Beiträge: 8525
|
cosinus schrieb: Verschlüsselt auf einem Server speichern? Was soll der Sinn dahinter sein, hast du Angst davor, dass jmd den vServer klaut? 😀
Das ist ein externer Server. Da würde ich meine Daten nur verschlüsselt ablegen!
|
cosinus
Anmeldungsdatum: 11. Mai 2010
Beiträge: 1374
Wohnort: HB
|
Ja gut, mit Gewalt würde man dann an die Daten rankommen. Was ist denn beim LUKS das Problem? Dass man bei jedem reboot manuell mounten muss?
|
Thomas_Do
Moderator
Anmeldungsdatum: 24. November 2009
Beiträge: 8525
|
cosinus schrieb: Ja gut, mit Gewalt würde man dann an die Daten rankommen.
Ein Rechner, der "offen" im Internet steht Auf dem andere Dienste laufen. Da braucht es keine "Gewalt", da reicht eine Fehlkonfiguration oder ein einfacher "Bug".
|
cosinus
Anmeldungsdatum: 11. Mai 2010
Beiträge: 1374
Wohnort: HB
|
Moment. Wenn der verschlüsselte Container gemountet ist, ist da wo genau dann ein Unterschied zu "Daten unverschlüsselt im Dateisystem"?
|
Thomas_Do
Moderator
Anmeldungsdatum: 24. November 2009
Beiträge: 8525
|
cosinus schrieb: Moment. Wenn der verschlüsselte Container gemountet ist, ist da wo genau dann ein Unterschied zu "Daten unverschlüsselt im Dateisystem"?
Deshalb meine Empfehlung von Borg. Da werden die Daten nur auf dem Client verschlüsselt und entschlüsselt.
|
cosinus
Anmeldungsdatum: 11. Mai 2010
Beiträge: 1374
Wohnort: HB
|
Thomas_Do schrieb: cosinus schrieb: Moment. Wenn der verschlüsselte Container gemountet ist, ist da wo genau dann ein Unterschied zu "Daten unverschlüsselt im Dateisystem"?
Deshalb meine Empfehlung von Borg. Da werden die Daten nur auf dem Client verschlüsselt und entschlüsselt.
Ok, man kann aber auch hinterfragen warum das Backup in eine Art Cloud muss. Was spricht denn dagegen min. 1x wöchentlich das Backup auf eine externe Platte zu wuppen. Oder meinetwegen auch gerne jeden Abend auf einen internen NAS. Vollbackups mit 10 MBit upload sind auch etwas besch... 😲
|
phanthomasX
Anmeldungsdatum: 26. Dezember 2008
Beiträge: 99
|
Ok, man kann aber auch hinterfragen warum das Backup in eine Art Cloud muss. Was spricht denn dagegen min. 1x wöchentlich das Backup auf eine externe Platte zu wuppen. Oder meinetwegen auch gerne jeden Abend auf einen internen NAS. Vollbackups mit 10 MBit upload sind auch etwas besch... 😲
vielleicht hat er ja einen Nachbarn, der gern mit Zigarette im Bett einschläft oder er wohnt in der Rigaer Straße in Berlin. 😉 Es gibt durchaus Szenarien, wo die (private) Cloud einem NAS oder der externen Festplatte überlegen sind.
|
Thomas_Do
Moderator
Anmeldungsdatum: 24. November 2009
Beiträge: 8525
|
cosinus schrieb: Ok, man kann aber auch hinterfragen warum das Backup in eine Art Cloud muss. Was spricht denn dagegen min. 1x wöchentlich das Backup auf eine externe Platte zu wuppen. Oder meinetwegen auch gerne jeden Abend auf einen internen NAS. Vollbackups mit 10 MBit upload sind auch etwas besch... 😲
Ich halte mich an die Regel Backups an zwei verschiedenen entfernten Orten abzulegen. Früher habe ich das immer mit externen Festplatten gemacht. Den Server betreibe ich aus anderen Gründen sowieso und tägliche automatische Backups sind viel praktischer. Borg macht nur einmal ein Vollbackup danach geht es sehr schnell. Ich habe knapp ein TB in meiner "Cloud", die täglichen Backups dauern meist nur wenige Minuten. Ich habe hier allerdings auch eine symetrische 200 MBit-Leitung (in der Praxis sind das aber pro Verbindung selten mehr als 50 Mbit). Sollte also bei 10 Mbit auch nur maximal 30 min dauern.
|
cosinus
Anmeldungsdatum: 11. Mai 2010
Beiträge: 1374
Wohnort: HB
|
Mir wäre die externe Festplatte lieber, die kann ich auch woanders lagern zB in einem Bankschließfach 😇
|
Thomas_Do
Moderator
Anmeldungsdatum: 24. November 2009
Beiträge: 8525
|
cosinus schrieb: Mir wäre die externe Festplatte lieber, die kann ich auch woanders lagern zB in einem Bankschließfach 😇
Jeder, wie er's lieber hat. Ich mag halt moderne Technik 😉.
|
cosinus
Anmeldungsdatum: 11. Mai 2010
Beiträge: 1374
Wohnort: HB
|
Gut, hätte ich mehr als 10 MBit Upload würde ich vllt auch auf externe Platten verzichten. Ich denke wenn in den nächsten Jahren sich Gigabit-Anschlüsse verbreiten, dann wird man wohl die Nase rümpfen wenn dann noch jmd von lokalen Backups spricht 😀 Aber IMHO sollte man schon mindestens 100 MBit auch im Upload haben. Privat sind Backups ja schon nervig genug, aber wenn es dann auch noch zu lange dauert will sich keiner mehr drum kümmern. Ja, man kann auch inkrementell sichern, ich mach aber zur Zeit liever Vollsicherungen auf externen Platten. Unter Linux hab ich mir da alias-shortcuts eingerichtet, die ein mksquashfs machen und und die externe Platte schreiben. Für das Notebook von meinem Vaddi mach ich 1x im Monat ein Abbild aller Partitionen mit der genialen Software drivesnapshot von Tom Ehlert.
|
TomLu
Anmeldungsdatum: 23. August 2014
Beiträge: 603
|
piffpaff34 schrieb: ich habe einen gemieteten vServer am Laufen und möchte gerne ein Backup einiger meiner Daten dort lagern.
Einfach lokal ein tar-File mit allen zu sichernden Daten erzeugen, das tar-File mit GPG verschlüsseln und dann das verschlüsselte Paket via SSH oder FTP einfach hochladen ist keine Alternative? Das kann man rollierend machen, überschreibend, mit Versionierung... ist absolut zugriffssicher und einfach -sogar automatisiert- umzusetzen.
|