ubuntuusers.de

Problem Backup mit grosse Datenmenge

Status: Gelöst | Ubuntu-Version: Server 16.04 (Xenial Xerus)
Antworten |

sonja

Avatar von sonja

Anmeldungsdatum:
17. Dezember 2004

Beiträge: 224

Hallo zusammen,

ich möchte meinen Server bald durch eine neue Hardware und Betriebssystem ersetzen. Im Moment habe ich einen Server (ASRrock Deskmini 310) mit 8GB-Ram und ein RAID1 (2x1TB)

Als Backup (Datensicherung) verwende ich Clonezilla auf einer externen USB3.0 Platte mit 2 Partitionen,boot mit Clonezilla 500MB, Data der Rest.

So nun zum Problem:

  • auf dem Server läuft Nextcloud für 7 User)

  • je, PC, Tablet & Smartphone, (alles ohne Google, Whatsapp, Dropbox, O365 & MS)

  • inkl. caldav, carddav, tesseract orc, face_recognition, notes, Talk - Screensharing, online meetings & web conferencing, chat

  • Elasticsearch zur Volltextsuche (die Indextabellen belegen ca. 30% des Datenbestandes)

  • das System ist Vollverschlüsselt

  • differentielle und inkrementelle Backups sind durch die Vollverschlüsselung nicht möglich

  • über Netzwerk sichern, hausintern 1GBit, extern upload 50MBit ist viel zu langsam

Das Vollbackup mache ich einmal die Woche, dann ist der Server in Downtime. Für das Vollbackup, von dem 1 TB-Plattenplatz sind ca. 750GB belegt, benötigt der Server 3,5 Stunden, als er sichert mit 3,5GB/Min.

Ein neuer Server wird nach meiner Planung wieder für 4-5 Jahre seinen Dienst tun sollen, die Achillesferse ist das Backup Wenn ich den neuen Server mit 2x8TB Platten ausstatte heisst das:

8TB sichern mit 3,5GB/Min = 35 Stunden !

Ich habe mit anderen Platten und Rechnern getestet: (Vollbackup einer verschlüsslleten Platte)

Intel i7-3520M 4x 2.9GHz (SATA3 intern > USB3.0 extern) 5,5GB/Min = 24 Stunden ! Intel i7-4810MQ 8x 2.8GHz (SATA3 intern > USB3.0 extern) 8,5GB/Min = 15,7 Stunden !

Ich wollte aber nicht in extreme Preise nach oben klettern (der ASRrock liegt bei ca. 500€)

Achso, ja mein Vollackup ist ein Disaster Recovery, da ich es auch ausser Haus lagere und auch teste (Diebstahl, Wasser, Brand, Überspannung)

Wie kann man ich verträglicher Zeit ein Backup großer Datenmengen machen

ChickenLipsRfun2eat Team-Icon

Anmeldungsdatum:
6. Dezember 2009

Beiträge: 12067

Hallo!

Ein Vorschlag: Du holst dir für den Server einen Wechselrahmen und mehrere Festplatten. Die im Rahmen bindest du dann als RAID 1 ein und wechselst die Platte regelmässig (als defekt markieren, austauschen, neuer rebuild). Dann hast du bei kurzer Downtime (die du nicht mal brauchen würdest) eine 1:1-Kopie der aktuellen Platte, die eingewechselte wird wieder auf den neuesten Stand gebracht.

Zusätzlich kannst du klassich die essentiellen Daten per rsync auf externe Festplatte sichern. Diese kann natürlich verschlüsselt sein, enthält aber nur die wirklich notwendigen (Nutzer- und Konfigurations-)Daten.

sonja

(Themenstarter)
Avatar von sonja

Anmeldungsdatum:
17. Dezember 2004

Beiträge: 224

Hallo danke schon mal für die schnelle erste Antwort.

D.h. RAID und Backup

Das Entfernen einer der beiden Festplatte führt immer dazu, dass sich das RAID im Fehlerzustand (degraded) geht. Bei Wiedereinsetzen der 2-ten Platte muss die verbleibende Festplatte jedesmal komplett neu mit der neu eingesetzten Platte synchronisiert werden. In dieser Zeit wird das System nicht sinnvoll verwendbar.

Soweit das SATA-3 System perfekt arbeitet heißt das 540MByte/s (max.600MByte/s) Also Sync dauert : 8.000 GB / 0,6GB/s /3600s/h = 4,1 Stunden

STRAGIC-IT

Avatar von STRAGIC-IT

Anmeldungsdatum:
3. Januar 2006

Beiträge: 3476

Wohnort: Fürth

Hallo sonja, die bisher vorgestellte Lösung hat nun einmal diese Beschränkungen und kostet entsprechend Rechenzeit.

Solltest Du aber Dich davon lösen wollen ist es am sichersten mit fertigen NAS-Systemen zu arbeiten. Davon werden natürlich 2 gleiche Systeme benötigt, die über eine LAN-Kopplung direkt verbunden sind. So ein "Gespann" hält sich fast in Echtzeit synchron.

Kostet allerdings eine Anschaffungsgebühr.

Dies kann man dämpfen indem man sich diese Technik z.B. mit XIGMA-NAS oder FREENAS selbst erstellt.

Wenn solche hohen Anforderungen gestellt sind, dann nutzen wir dazu Geräte von THECUS.

Bye HS

homer65

Avatar von homer65

Anmeldungsdatum:
8. November 2005

Beiträge: 574

Wohnort: bochum, germany

Hallo gelesen, das manche NAS auch SNAPSHOTS unterstützen. Wenn man also einen SNAPSHOT macht und diesen dann sichert, hat man nur eine kurze Ausfallzeit. Habe aber selbst keine Erfahrungen damit.

unbuntuS12

Anmeldungsdatum:
2. Juni 2010

Beiträge: 1816

homer65 schrieb:

Hallo gelesen, das manche NAS auch SNAPSHOTS unterstützen. Wenn man also einen SNAPSHOT macht und diesen dann sichert, hat man nur eine kurze Ausfallzeit. Habe aber selbst keine Erfahrungen damit.

Das ist an dieser Stelle der richtige Hinweis. Habe gerade nicht viel Zeit, aber die generelle Herangehensweise wäre:

  1. Auf dem Server ein Dateisystem (oder Abstraktionsschicht) verwenden, das Snapshots beherrscht. Da du Vollverschlüsselungs erwähnst, kann es ja durchaus sein, dass du ein LVM betreibst. Das kann auch Snapshots

  2. Snapshots im Betrieb machen und Daten auf das (wiederum unabhängig verschlüsselte) Ziel übertragen.

  3. Snapshot dort auf den exisiterenden Datenbestand anwenden. Die Implikation hier ist, dass das Ziel auch alle Daten lesen kann und dementsprechend unter deiner Kontrolle sein muss.

Ich habe das mal versucht, mit BTRFS aufzubauen und das hat auch geklappt, allerdings ist das btrfs-send fehlgeschlagen, wenn sich Quelle und Ziel nicht im selben lokalen Netzwerk befunden haben. Ein SSH-Tunnel, der Ziel und Quelle logsich verbunden hat, hat nicht funktioniert. Bei mir stand noch aus, das über ein VPN zu machen und damit über UDP statt TCP wie beim SSH-Tunnel, aber da bin ich dann nie zu gekommen.

Du könntest es auch mit ZFS probieren, das ja allgemein als ausgereifter gilt.

Viel Erfolg!

Cranvil

Anmeldungsdatum:
9. März 2019

Beiträge: 990

sonja schrieb:

  • differentielle und inkrementelle Backups sind durch die Vollverschlüsselung nicht möglich

Inwiefern macht die Vollverschlüsselung solche Backups unmöglich?

Mein Lösungsansatz sieht gedacht so aus: Außer der Vollverschlüsselung auf dem Server ist auch das Backup-Medium entsprechend verschlüsselt. Für die Sicherung werden beide/alle beteiligten Medien aufgeschlossen, die volle/differentielle/inkrementelle Sicherung ausgeführt, und die Medien wieder zugeschlossen.

Du hast damit gewährleistet, dass sowohl im Live-System als auch im Bereich der Sicherungen ein Grundschutz durch die Verschlüsselung besteht. Gleichzeitig kannst du so die Dauer der Sicherungsvorgänge reduzieren. Mit ein paar Tricks vor allem der rsync-basierten Tools könntest du damit täglich ein Vollsicherungsäquivalent anlegen - sogar ganz ohne Downtime.

dingsbums

Anmeldungsdatum:
13. November 2010

Beiträge: 3782

seahawk1986

Anmeldungsdatum:
27. Oktober 2006

Beiträge: 11250

Wohnort: München

sonja schrieb:

  • differentielle und inkrementelle Backups sind durch die Vollverschlüsselung nicht möglich

rsync sollte eigentlich auch Binärdaten (wie man sie von einem verschlüsselten Blockdevice bekommt) per delta Transfer abgleichen können: https://blog.christophersmart.com/2014/01/15/force-rsync-to-use-delta-transfer-to-fix-corrupt-remote-file/.

rleofield

Avatar von rleofield

Anmeldungsdatum:
14. September 2008

Beiträge: 797

Wohnort: Görlitz

sonja schrieb:

Hallo zusammen,

  • auf dem Server läuft Nextcloud für 7 User)

  • je, PC, Tablet & Smartphone, (alles ohne Google, Whatsapp, Dropbox, O365 & MS)

  • inkl. caldav, carddav, tesseract orc, face_recognition, notes, Talk - Screensharing, online meetings & web conferencing, chat

  • Elasticsearch zur Volltextsuche (die Indextabellen belegen ca. 30% des Datenbestandes)

Läuft das alles in einer Linux-Umgebung oder sind da Windows Rechner dabei? ( O365 & MS )

  • das System ist Vollverschlüsselt

  • differentielle und inkrementelle Backups sind durch die Vollverschlüsselung nicht möglich

Warum? Wird während des Backup die HD nicht geöffnet, oder verschlüsselt Du die Daten erst und machst dann das Backup?

Nimm rsync, das macht alles, was Du brauchst und die Backupzeiten liegen im Minutenbereich.

Wenn man noch über rsnapshot geht, ist auch rsync, aber mit interner Organisation und Historie, bleiben keine Wünsche offen.

Als Filesystem nimm BTRFS. Dann kann man online die HD auf Bitfehler testen.

Ist man paranoid, kann man alle Woche im rsync den Flag -c setzen. dann erfolgt ein Bitvergleich, der aber lange dauern kann.

Testen, ob die Daten am Ziel ankommen, die du haben willst.

Warum eigentlich Downtime?
Ist eine Datei grad in Bearbeitung, wird die unvollständig kopiert und kommt beim nächsten mal wieder dran. rsync erledigt das.

  • über Netzwerk sichern, hausintern 1GBit, extern upload 50MBit ist viel zu langsam

Warum?

Ich mache Sicherungen über alte DSL-Modems. Gut nicht Terabytes, aber komplette Home-PCs schon. Alle 6 Stunden, wenige Minuten.

Oder nimm auch auf dem Server BTRFS, das kann Snapshots. Dann hat man Zeit, ein Backup ohne Downtime zu machen.

I hope this helps.

rleofield

unbuntuS12

Anmeldungsdatum:
2. Juni 2010

Beiträge: 1816

rleofield schrieb:

sonja schrieb:

  • differentielle und inkrementelle Backups sind durch die Vollverschlüsselung nicht möglich

Warum? Wird während des Backup die HD nicht geöffnet, oder verschlüsselt Du die Daten erst und machst dann das Backup?

Es wird mit Clonezilla gearbeitet, also auf Blocklevel, also ja, wird nicht geöffnet.

Nimm rsync, das macht alles, was Du brauchst und die Backupzeiten liegen im Minutenbereich.

Letzteres ist nicht korrekt. Das Problem an rsync ist, dass die Differenz zum letzten Backup erst zur Laufzeit bestimmt werden kann. Es müssen also mindestens die Zeitstempel verglichen werden. Je nach Anzahl der Dateien dauert das ewig. Bei mir hat alleine dies Tage gedauert. Werden SSDs verwendet werden, wird es bedeutend schneller gehen, aber bei hinreichender Größe wird es immer noch so lange dauern, dass man kein konsistentes Backup mehr hinbekommt. Und da wir von einer Nextcloud mit Datenbank sprechen, sind Snapshots ohnehin das Mittel der Wahl.

Insofern schließe ich mich dem Hinweis an, BTRFS zu verwenden.

encbladexp Team-Icon

Ehemaliger
Avatar von encbladexp

Anmeldungsdatum:
16. Februar 2007

Beiträge: 17521

Wir haben 2020, da nimmt man Borg oder restic für Backups. Aus einem laufenden System stört die Vollverschlüsselung auch nicht.

mfg Stefan

unbuntuS12

Anmeldungsdatum:
2. Juni 2010

Beiträge: 1816

encbladexp schrieb:

Wir haben 2020, da nimmt man Borg oder restic für Backups. Aus einem laufenden System stört die Vollverschlüsselung auch nicht.

Prinzipiell richtig, ich nutze selbst Borg auf dem Laptop mit geringen Datenmengen und SSD. Aber man kann bei vielen kleinen Dateien auf großen, langsamen Datenträgern halt prinzipiell alles knicken, was erstmal ermitteln muss, was sich verändert hat - und wenn es nur Zeitstempel liest. Da sind Snapshots die einzige Möglichkeit, das integer und in vertretbarer Zeit hinzubekommen.

Thomas_Do Team-Icon

Moderator
Avatar von Thomas_Do

Anmeldungsdatum:
24. November 2009

Beiträge: 8808

unbuntuS12 schrieb:

encbladexp schrieb:

Wir haben 2020, da nimmt man Borg oder restic für Backups. Aus einem laufenden System stört die Vollverschlüsselung auch nicht.

Prinzipiell richtig, ich nutze selbst Borg auf dem Laptop mit geringen Datenmengen und SSD. Aber man kann bei vielen kleinen Dateien auf großen, langsamen Datenträgern halt prinzipiell alles knicken, was erstmal ermitteln muss, was sich verändert hat - und wenn es nur Zeitstempel liest. Da sind Snapshots die einzige Möglichkeit, das integer und in vertretbarer Zeit hinzubekommen.

Über was reden wir denn hier? Nutzerdaten sollte man m.E. getrennt von den Systemdaten sichern. Für die übliche Nutzerdaten ist Borg ein hervorragendes Tool. Ich habe mehrere Systeme, die ich so sichere und die inkrementellen Backups laufen sehr zügig. Das Betriebssystem kann man von Zeit zu Zeit klonieren oder z.B. über TAR sichern.

sonja

(Themenstarter)
Avatar von sonja

Anmeldungsdatum:
17. Dezember 2004

Beiträge: 224

Vielen Dank für die zahlreichen Antworten, Anregungen und eigene Erfahrungen.

Ich werde nun für meinen Anwendungsfall einiges ausprobieren, vergleichen ...

Wenn ich für mich weiter gekommen bin werde ich hier berichten wie ich den Status Quo verbessern konnte.

Antworten |