.-fc-.
Anmeldungsdatum: 26. November 2014
Beiträge: Zähle...
|
Hi! Ich muss meinen Rechner leider zur Reparatur einschicken und wollte vorher ein komplettes Image von meiner Festplatte ziehen. Leider ist meine einzige andere Festplatte, die noch genug freien SPeicher hat eine FAT32 - also maximal 4GB-Dateien. Ich habe mir jetzt folgenden Code von den dd-Seite zusammengeräubert. Habe ihn kurz getestet, aber wollte wirklich sicher gehen, dass der dann auch funktioniert:
dd if=/dev/sdc | gzip | split -d -b 3500M - image-compress.img.gz.
Also wird diese Zeile in der Lage sein meine komplette 500GB-Platte in gezippte, gesplittete Dateien auf meine FAT32-Platte zu schreiben? Ist dieser Code zum zurückspielen (dann wieder auf die gleiche Festplatte) korrekt und funktional?
cat image-compress.img.gz.* | gunzip | dd of=/dev/sdc Vielen Dank schon einmal im Vorraus! P.S.: Eine der Partionen auf der sdc ist eine ntfs; Ich habe jedoch keine NTFS-Treiber installiert. Ist das ein Problem?
|
Thomas_Do
Moderator
Anmeldungsdatum: 24. November 2009
Beiträge: 8493
|
Benutze fsarchiver. Mit der Option "-s" kannst Du die Größe der Einzeldateien des Archivs begrenzen.
|
.-fc-.
(Themenstarter)
Anmeldungsdatum: 26. November 2014
Beiträge: 7
|
Das werde ich mal ausprobieren, danke ☺. Habe gerade leider etwas probleme mit meinem package-manager, daher würde ich gerne mit dd arbeiten. Würde der Code denn generell funktionieren? Auch um ggF zu verstehen, was ich falsch gemacht habe.
|
.-fc-.
(Themenstarter)
Anmeldungsdatum: 26. November 2014
Beiträge: 7
|
Hab mein package-manager wieder unter Kontrolle bekommen. Bekomme jetzt jedoch diesen Fehler: | ./fsarchiver-static-0.6.19.i386 -s 3800 -j 2 -z 5 savefs ~/fsarchiver-uv32vd /dev/sdc
Archive will be split into volumes of 3984588800 bytes (3.71 GB)
oper_save.c#1032,filesystem_mount_partition(): cannot mount partition [/dev/sdc]: filesystem may not be supported by either fsarchiver or the kernel.
removed ~/fsarchiver-uv32vd.fsa
|
Kann niemand meinen kleinen Code verifizieren?
|
tomtomtom
Supporter
Anmeldungsdatum: 22. August 2008
Beiträge: 53482
Wohnort: Berlin
|
/dev/sdc ist auch höchstwahrscheinlich keine Partition. 😇
Ein sudo lsblk -o NAME,UUID,LABEL,FSTYPE,MOUNTPOINT wäre hier sehr informativ.
|
.-fc-.
(Themenstarter)
Anmeldungsdatum: 26. November 2014
Beiträge: 7
|
Genau. Und das ist ja auch richtig so. Ich will meinen Rechner zu Asus schicken (Garantiefall). Die Heinos sagen jetzt aber, dass sie ggF ein neues Betriebssystem auf die Platte spielen. Daher will ich die GANZE Festplatte mit allen Partionen etc kopieren und mich dabei möglichst um nichts kümmern müssen. Falls Asus dann wirklich irgendwelchen Unfug mit meiner Platte macht, will ich das Backup einfach wieder einspielen und genau den Stand haben wie vorher. Deswegen dd. Die Platte ist nicht gemounted und muss es doch auch garnicht sein, oder? Zitiere aus der dd-man-page: "Bevor man eine Partition oder komplette Platte sichert sollte diese ausgehängt werden, um sicherzustellen, dass während des Sicherungsvorgangs keine Daten auf die zu sicherende Platte geschrieben werden.". Entsprechend langweilig sieht auch dein Output aus:
| > lsblk -o NAME,UUID,LABEL,FSTYPE,MOUNTPOINT
NAME UUID LABEL FSTYPE MOUNTPOINT
[xxx]
sda
├─sda1
└─sda2 4A8A-437D Renex vfat /media/Renex
sdc
|
Wobei die Renex die Platte ist, auf die ich sichere. Die ganzen internen Platten habe ich durch [xxx] ersetzt. Was ist denn mit meinen Befehlen? Spricht etwas gegen dd, bis auf dass es etwas länger braucht?
|
.-fc-.
(Themenstarter)
Anmeldungsdatum: 26. November 2014
Beiträge: 7
|
Okay, ich habe es gerade angestupst und bekomme ~5MB/s (mit gzip -2 sind es dann ~6MB/s). Das wären etwa 10 (gzip -2: 7) Tage, bis die 500Gb rüber gezogen sind... Jetzt seh ich, was ihr meintet. Gibt es denn noch eine sinnvollere Option, die nicht all zu viel rumgefrickel erfordert?
|
rklm
Projektleitung
Anmeldungsdatum: 16. Oktober 2011
Beiträge: 12801
|
Thomas Do schrieb: Benutze fsarchiver. Mit der Option "-s" kannst Du die Größe der Einzeldateien des Archivs begrenzen.
Ich habe mir die Doku soweit durchgelesen. Ich verstehe noch nicht, warum das Programm nun gerade fsarchiver heißt. Soweit ich das sehe, ist das ein reines Backup auf Dateiebene und das Dateisystem spielt eigentlich keinen Walzer. Man kann dafür auch dar oder tar mit Option "--xattrs" und denen für Komprimierung nehmen. Bei einem Dateisystem-Backup denke ich eher an partclone oder ntfsclone. Kann das jemand aufklären? Eine Sache fällt mir auf: anscheinend können Windows ACLs von einem NTFS gesichert werden. Das ist aber bisher das einzige Filesystem-Feature, das ich entdeckt habe. Ciao robert
|
Thomas_Do
Moderator
Anmeldungsdatum: 24. November 2009
Beiträge: 8493
|
Ja, fsarchiver arbeitet auf Dateiebene, archiviert die Dateien und teilt die Archive schön in kleinere Dateien auf. Genau was man in diesem Fall brauchen würde. Ich habe damit schon öfter zuverlässig Installationen kloniert (selbst aus dem laufenden System 😲 . Hat immer funktioniert). Man kann sowas natürlich auch anders lösen.
|
.-fc-.
(Themenstarter)
Anmeldungsdatum: 26. November 2014
Beiträge: 7
|
Wie machst du das denn mit den Partitionen? Schreibst du dir auf und erstellst du die hinterher alle wieder per Hand?
|
Thomas_Do
Moderator
Anmeldungsdatum: 24. November 2009
Beiträge: 8493
|
Wenn ich ein System klone erzeuge ich die Partitionen tatsächlich erst einmal händisch. Das mache allerdings auch bei Neuisnstallationen so.
|
rklm
Projektleitung
Anmeldungsdatum: 16. Oktober 2011
Beiträge: 12801
|
Thomas Do schrieb: Ja, fsarchiver arbeitet auf Dateiebene,
Dann ist der Name aber irreführend, finde ich.
archiviert die Dateien und teilt die Archive schön in kleinere Dateien auf. Genau was man in diesem Fall brauchen würde.
Das macht dar auch und eine Menge mehr - vielleicht zu viel.
Ich habe damit schon öfter zuverlässig Installationen kloniert (selbst aus dem laufenden System 😲 . Hat immer funktioniert). Man kann sowas natürlich auch anders lösen.
Ja, Kopien und Backups sind vermutlich unter den meistgelösten Problemen...
|
TNTMaster
Anmeldungsdatum: 30. Juli 2009
Beiträge: 851
|
.-fc-. schrieb: Okay, ich habe es gerade angestupst und bekomme ~5MB/s (mit gzip -2 sind es dann ~6MB/s). Das wären etwa 10 (gzip -2: 7) Tage, bis die 500Gb rüber gezogen sind...
Also ich komme hier auf ~24 Stunden. Du kannst statt gzip auch pigz nutzen, wenn du eine Mehr-Kern-CPU hast. Pigz ist kompatibel zu gzip, gibts in den Paketquellen und das Komprimieren geht dann wesentlich schneller, je nach Anzahl der CPU Kerne. Gzip dagegen ist auf einen Kern limitiert. Ich denke hier liegt der Flaschenhals. Du kannst die CPU Last auch mal mit top nachschauen. Man könnte auch vorher noch alle unbenutzten Bereiche der Platte mit Nullen füllen, um die Komprimierung zu beschleunigen und den Speicherbedarf für das Image zu verringern. TNT
|
rklm
Projektleitung
Anmeldungsdatum: 16. Oktober 2011
Beiträge: 12801
|
TNTMaster schrieb:
Du kannst statt gzip auch pigz nutzen, wenn du eine Mehr-Kern-CPU hast. Pigz ist kompatibel zu gzip, gibts in den Paketquellen und das Komprimieren geht dann wesentlich schneller, je nach Anzahl der CPU Kerne. Gzip dagegen ist auf einen Kern limitiert. Ich denke hier liegt der Flaschenhals.
Auf einem einigermaßen modernen Rechner sollte eigentlich CPU für Komprimierung kein Problem sein. Ich würde eher erwarten, dass das IO bound ist.
Du kannst die CPU Last auch mal mit top nachschauen.
Immer eine gute Idee, erst mal die Fakten zu sichern. vmstat , iostat oder dstat sind ebenfalls geeignete Werkzeuge, um herauszufinden, wo der Bottleneck liegt.
Man könnte auch vorher noch alle unbenutzten Bereiche der Platte mit Nullen füllen, um die Komprimierung zu beschleunigen und den Speicherbedarf für das Image zu verringern.
Das sollte überflüssig sein - oder sind wir immer noch beim Sichern mit dd ? Der Ansatz empfiehlt sich eigentlich nur, wenn man das Image später mounten will - aber dann kann man auch keine Komprimierung nutzen (jedenfalls nicht gzip & Co.).
|
Thomas_Do
Moderator
Anmeldungsdatum: 24. November 2009
Beiträge: 8493
|
rklm schrieb: Thomas Do schrieb: Ja, fsarchiver arbeitet auf Dateiebene,
Dann ist der Name aber irreführend, finde ich.
Der Hauptunterschied zu z.B. dar ist wohl die Tatsache, dass auch das Dateisystem beim Extrahieren mit erzeugt wird (einschließlich UUID). Daher wohl auch der Name 😉. Im Gegensatz zu "echten" Partitionsbackups ist durch die dateiweise Archivierung mit Prüfsumme bei einer etwaigen Datenkorruption i.A nur eine einzelne Datei betroffen.
|