ubuntuusers.de

Für diese Funktion musst du eingeloggt sein.

BTRFS in Maverick

Status: Ungelöst | Ubuntu-Version: Ubuntu 10.10 (Maverick Meerkat)
Antworten |

Musicman

Anmeldungsdatum:
16. Januar 2007

Beiträge: 216

Wohnort: /home

Ich bin gerade dabei, den Release Candidate von Maverick zu installieren und wollte für mein root Dateisystem btrfs auswählen. Das wird aber abgelehnt, da btrfs nicht vom boot loader unterstützt wird. Anscheinend kann man aber andere Partitionen mit btrfs erstellen...

Gruss

floogy

Anmeldungsdatum:
21. Juli 2006

Beiträge: 3294

Wohnort: Koblenz

Ja, man muss grub patchen, um btrfs auf der root-Partition zu verwenden.

adun Team-Icon

Avatar von adun

Anmeldungsdatum:
29. März 2005

Beiträge: 8606

Naja, nicht ganz. Um /boot geht es, was ohne separate Partition / mit einschließt. Die Patches sind fertig, es gibt wohl aber GPLv2 vs GPLv3 "issues". Also als /boot einfach was anderes benutzen, kann man ja später einfach wieder dazu "poolen".

Protector

Anmeldungsdatum:
2. März 2009

Beiträge: 285

Du musst zwingende eine boot-partition mit ext2 erstellen, alles andere kannst du mit btrfs machen 😉

IT-Prakti

Anmeldungsdatum:
7. Oktober 2010

Beiträge: 6

Hallo,

ich habe vor kurzem Maverick auf einem Server installiert. Da ich nun bereits Erfahrungen mit ZFS gesammelt habe würde ich gerne einen "ZFS-Filer" nachbauen. Nun bleib ich schon am Anfang hängen.

Gibt es einen Befehl mit dem ich einen Pool (mkfs.btrfs /dev/sdb ...) löschen kann. Mit ZFS gibt es zpool destroy ....

Sind das alle Befehle für btrfs die in den btrfs-tools mitgefliefert werden? Wenn nein gibt es irgendwo eine Auflistung wo ich weitere Befehle finde?

Wo finde ich aktuelle Befehlslisten, alles was ich bisher gefunden habe ist bereits veraltet?

Ich muss noch dazu sagen, dass dies meine ersten Schritte mit Ubuntu/Linux sind also seht es mir bitte nach falls die Frage doof klingt.

Grüße

floogy

Anmeldungsdatum:
21. Juli 2006

Beiträge: 3294

Wohnort: Koblenz

Schau mal, hier gibt es eine tabellarische Gegenüberstellung: http://www.seedsofgenius.net/uncategorized/zfs-vs-btrfs-a-reference

IT-Prakti

Anmeldungsdatum:
7. Oktober 2010

Beiträge: 6

Danke! Diese Seite kenne ich schon. Ich nehme nun einfach mal an das dies alle Befehle sind.

Hat jemand schon Erfahrung mit Snapshots? wenn ich einen Snapshot mache wird dieser nicht rekursiv gemacht: Habe ein Filesystem angelegt mit /tank/share. In diesem liegt nun die Datei xyz. Wenn nun ein Snapshot über /tank gemacht wurde kann man anschließend in den Snapshot wechseln. Dieser enthält nun den Ornder share jedoch NICHT dessen Inhalt. Wird jedoch ein Snapshot nur über share gemacht dann ist der Inhalt vorhanden.

Angewendet habe ich:

btrfs subvolume snapshot /tank snap

Habe ich den Befehl falsch angewandt? Funktioniert das bei euch einwandfei?

Danke für eure Hilfe

antiram

Anmeldungsdatum:
21. Oktober 2008

Beiträge: 12

war bei mir grad genauso bzw ähnlich und auch so gewünscht fürs backup.

Subvolume ist bei mir /ubuntu-next. In einem snapshot /root-snapshot von / war ubuntu-next leer.

Um 14:45 habe ich dann das upgrade von lucid@btrfs (mit 2.6.36-rc7) auf maverick angestoßen. So wie es aussieht wirds um 22:30 fertig sein. Download der Pakete hat 15min gedauert.

IT-Prakti

Anmeldungsdatum:
7. Oktober 2010

Beiträge: 6

Hallo,

ich brauch mal wieder euern Rat/ eure Hilfe.

Weiß jemand von euch ob ich einen Pool (mkfs.btrfs /dev/sdb /dev/sdc ...) dauerhaft nach z.B. /tank mounten kann?

Und zwar hätte ich gern, dass mein Pool nach dem hochfahren nicht erst durch btrfs device scan und dann mit mount -f btrfs /dev/sdb /tank manuell gemountet werden muss. Auf ein Skript möchte ich eigentlich verzichten. In die /etc/fstab hab ich auch schon versucht es einzutragen, dies funktioniert jedoch nicht.

Hat jemand von euch dies schon mal gemacht?

Für Subvolumes gibt es ja den Befehl "btrfs subvolume set-default <id> <path>" und wenn das BTRFS schon bei der Installation z.B. unter /dev/sda6 gemacht wurde und einen festen Mountpoint zugewiesen bekommen hat funktioniert es ohne Probleme. Aber es ist halt nur eine Platte.

Danke

Thorsten_Reinbold Team-Icon

(Themenstarter)

Anmeldungsdatum:
10. Juli 2006

Beiträge: 4784

So, nach laaaaangem herumgeteste bin ich nur erstmal zu der Erkenntnis gelangt daß sie BTRFS aus Sicht der Geschwindigkeit für Desktopanwender nicht lohnt. Ganz im Gegenteil: nachdem ich das System gestern neu aufgesetzt habe (mit ext4) habe ich plötzlich das Gefühl mein Rechner hätte Red Bull gesoffen.

floogy

Anmeldungsdatum:
21. Juli 2006

Beiträge: 3294

Wohnort: Koblenz

Hallo, seit dem 14. Januar gibt es von http://kqinfotech.com, einem Indischen Technologieunternehmen, nun den nötigen POSIX-Layer und zfs on linux in der zpool version v28. Das Ganze scheint mit zfs v4 zu laufen. Es gibt Links auf ein Howto und ein Installscript, das die git sourcen zieht alles kompiliert und installiert. Das Skript sorgt dafür, dass nötige Abhängiggkeiten für 10.04 oder 10.11 nachinstalliert werden.

Bezeichnungen der Pakete:

$ cat lzfs/META
Meta:         1
Name:         lzfs
Branch:       1
Version:      1.0
Release:      1
Release-Tags: relext

$ cat zfs/META 
Meta:         1
Name:         zfs
Branch:       1.0
Version:      0.5.1
Release:      1
Release-Tags: relext
License:      CDDL
Author:       Sun Microsystems/Oracle, Lawrence Livermore National Laboratory

$ cat spl/META 
Meta:         1
Name:         spl
Branch:       1.0
Version:      0.5.2
Release:      1
Release-Tags: relext

Kernel und Module:

$ uname -a
Linux ubuntu 2.6.32-28-preempt #55-Ubuntu SMP PREEMPT Tue Jan 11 00:11:58 UTC 2011 x86_64 GNU/Linux

$ lsmod |grep zfs
lzfs                   37235  4 
zfs                   970777  1 lzfs
zcommon                42140  1 zfs
znvpair                47453  2 zfs,zcommon
zavl                    6891  1 zfs
zunicode              323310  1 zfs
spl                   118520  7 lzfs,zfs,zcommon,znvpair,zavl,zunicode,splat
zlib_deflate           21834  3 zfs,deflate,btrfs
$ modinfo lzfs
filename:       /lib/modules/2.6.32-28-preempt/addon/lzfs/lzfs.ko
license:        GPL
srcversion:     CE01A092104BE873B866A3D
depends:        zfs,spl
vermagic:       2.6.32-28-preempt SMP preempt mod_unload modversions 
gerhard@ubuntu:/mnt/custom/zfspool$ modinfo spl
filename:       /lib/modules/2.6.32-28-preempt/addon/spl/spl/spl.ko
license:        GPL
description:    Solaris Porting Layer
author:         Lawrence Livermore National Labs
srcversion:     08963022EE0E20D76AD6A0F
depends:        
vermagic:       2.6.32-28-preempt SMP preempt mod_unload modversions 
parm:           spl_debug_subsys:Subsystem debugging level mask. (ulong)
parm:           spl_debug_mask:Debugging level mask. (ulong)
parm:           spl_debug_printk:Console printk level mask. (ulong)
parm:           spl_debug_mb:Total debug buffer size. (int)
parm:           spl_debug_panic_on_bug:Panic on BUG (uint)
gerhard@ubuntu:/mnt/custom/zfspool$ modinfo zfs
filename:       /lib/modules/2.6.32-28-preempt/addon/zfs/zfs/zfs.ko
license:        CDDL
author:         Sun Microsystems/Oracle, Lawrence Livermore National Laboratory
description:    ZFS
srcversion:     F97608907C167060A7CF464
depends:        spl,znvpair,zcommon,zunicode,zavl,zlib_deflate
vermagic:       2.6.32-28-preempt SMP preempt mod_unload modversions 
parm:           zvol_major:Major number for zvol device (uint)
parm:           zvol_threads:Number of threads for zvol device (uint)
parm:           zio_bulk_flags:Additional flags to pass to bulk buffers (int)
parm:           zfs_vdev_max_pending:Maximum pending VDEV IO (int)
parm:           zfs_vdev_min_pending:Minimum pending VDEV IO (int)
parm:           zfs_vdev_aggregation_limit:Maximum VDEV IO aggregation (int)
parm:           spa_config_path:SPA config file (/etc/zfs/zpool.cache) (charp)
parm:           zevent_len_max:Maximum event queue length (int)
parm:           zevent_cols:Maximum event column width (int)
parm:           zevent_console:Log events to the console (int)
parm:           zfs_prefetch_disable:Disable all ZFS prefetching (int)
parm:           zfs_arc_min:Minimum arc size (ulong)
parm:           zfs_arc_max:Maximum arc size (ulong)
parm:           zfs_arc_meta_limit:Meta limit for arc size (ulong)

$ modinfo zcommon
filename:       /lib/modules/2.6.32-28-preempt/addon/zfs/zcommon/zcommon.ko
license:        CDDL
author:         Sun Microsystems/Oracle, Lawrence Livermore National Laboratory
description:    Generic ZFS support
srcversion:     E408A83FE6351C8FFCAFD0F
depends:        spl,znvpair
vermagic:       2.6.32-28-preempt SMP preempt mod_unload modversions 
$ modinfo znvpair
filename:       /lib/modules/2.6.32-28-preempt/addon/zfs/nvpair/znvpair.ko
license:        CDDL
author:         Sun Microsystems/Oracle, Lawrence Livermore National Laboratory
description:    Generic name/value pair implementation
srcversion:     975E8F8B8CCDFBF44CA74F5
depends:        spl
vermagic:       2.6.32-28-preempt SMP preempt mod_unload modversions 
$ modinfo zavl
filename:       /lib/modules/2.6.32-28-preempt/addon/zfs/avl/zavl.ko
license:        CDDL
author:         Sun Microsystems/Oracle, Lawrence Livermore National Laboratory
description:    Generic AVL tree implementation
srcversion:     5835515F233A845D5B11799
depends:        spl
vermagic:       2.6.32-28-preempt SMP preempt mod_unload modversions 
$ modinfo zunicode
filename:       /lib/modules/2.6.32-28-preempt/addon/zfs/unicode/zunicode.ko
license:        CDDL
author:         Sun Microsystems/Oracle, Lawrence Livermore National Laboratory
description:    Unicode implementation
srcversion:     943EB776D6CC4E1BCED8C36
depends:        spl
vermagic:       2.6.32-28-preempt SMP preempt mod_unload modversions 
$ modinfo splat
filename:       /lib/modules/2.6.32-28-preempt/addon/spl/splat/splat.ko
license:        GPL
description:    Solaris Porting LAyer Tests
author:         Lawrence Livermore National Labs
srcversion:     3BD340BC00BCDA7E1C4E048
depends:        spl
vermagic:       2.6.32-28-preempt SMP preempt mod_unload modversion

Beispiel:

$ sudo zpool get version zfspool
[sudo] password for floogy: 
NAME     PROPERTY  VALUE    SOURCE
zfspool  version   28       default

$ sudo zfs get version zfspool
NAME     PROPERTY  VALUE    SOURCE
zfspool  version   4        -

$ sudo zfs list zfspool
NAME      USED  AVAIL  REFER  MOUNTPOINT
zfspool   293G  78,9G    21K  /zfspool

$ sudo zpool list zfspool
NAME      SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
zfspool   372G   287G  84,8G    77%  1.05x  ONLINE  -

$ sudo zpool status zfspool
  pool: zfspool
 state: ONLINE
 scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM
	zfspool     ONLINE       0     0     0
	  sdd2      ONLINE       0     0     0
	  sdb3      ONLINE       0     0     0

errors: No known data errors

bonnie++

Writing a byte at a time...done
Writing intelligently...done
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
ubuntu           6G    37  49 64139  21 34414  13   110  67 126738  21 122.8   6
Latency               471ms    1378ms    8569ms     127ms     868ms     946ms
Version  1.96       ------Sequential Create------ --------Random Create--------
ubuntu              -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16   419   3 +++++ +++  3804  34  4268  37 +++++ +++  2829  43
Latency               599ms    7589us     972ms     103ms    9980us   16794us
1.96,1.96,ubuntu,1,1295664977,6G,,37,49,64139,21,34414,13,110,67,126738,21,122.8,6,16,,,,,419,3,+++++,+++,3804,34,4268,37,+++++,+++,2829,43,471ms,1378ms,8569ms,127ms,868ms,946ms,599ms,7589us,972ms,103ms,9980us,16794us
$ time dd if=/dev/zero of=/mnt/custom/zfspool/outfile bs=16k count=1638400
1638400+0 Datensätze ein
1638400+0 Datensätze aus
26843545600 Bytes (27 GB) kopiert, 203,495 s, 132 MB/s

real	3m23.503s
user	0m0.490s
sys	0m54.962s

Hier ein zpool aus zwei gespiegelten imagedateien, die unter / liegen:

$ time sudo dd if=/dev/zero of=/myzfs/floogy/outfile bs=16k count=16384
16384+0 Datensätze ein
16384+0 Datensätze aus
268435456 Bytes (268 MB) kopiert, 1,0935 s, 245 MB/s

real	0m1.127s
user	0m0.011s
sys	0m0.545s

Zum Vergleich auf das ext3 gemountete / Verzeichnis:

$ time sudo dd if=/dev/zero of=/outfile bs=16k count=16384
16384+0 Datensätze ein
16384+0 Datensätze aus
268435456 Bytes (268 MB) kopiert, 1,36552 s, 197 MB/s

real	0m3.026s
user	0m0.012s
sys	0m0.936s

Ich bin mal gespannt wie sich das auf die Distributionen auswirkt, ob es dort Modelle geben wird in denen zfs ähnlich den proprietären Treibern wie nvidia etc. angeboten wird, eventuell noch mit Kompilierung und sourcedownload, ähnlich den msttcorefonts...

Hier gibt es einen Artikel mit vergleichenden Benchmarks: http://www.phoronix.com/scan.php?page=article&item=linux_kqzfs_benchmarks&num=1

Ich habe hier einmal zum Vergleich die BRTFS Performance:

$ mount|grep media
/media/cdrom0 on /var/chroot/media/cdrom type none (rw,bind)
/dev/sdd1 on /media/898c8973-ae88-454d-b76b-c540660909d1 type btrfs (rw,nosuid,nodev,uhelper=udisks)
$ blkid|grep btrfs
/dev/sdb1: UUID="898c8973-ae88-454d-b76b-c540660909d1" UUID_SUB="4a38e4b4-f100-4e8f-b3f8-5f59b51deff3" TYPE="btrfs" 
/dev/sdd1: UUID="898c8973-ae88-454d-b76b-c540660909d1" UUID_SUB="8cea971c-949c-434d-8c90-73c7da3f6c3d" TYPE="btrfs"
$ df -h /media/898c8973-ae88-454d-b76b-c540660909d1
Dateisystem            Größe Benut  Verf Ben% Eingehängt auf
/dev/sdd1             373G  310G   64G  83% /media/898c8973-ae88-454d-b76b-c540660909d1
$ time sudo dd if=/dev/zero of=/media/898c8973-ae88-454d-b76b-c540660909d1/outfile bs=16k count=16384
16384+0 Datensätze ein
16384+0 Datensätze aus
268435456 Bytes (268 MB) kopiert, 1,7911 s, 150 MB/s

real	0m4.637s
user	0m0.008s
sys	0m0.773s

$ time sudo dd if=/dev/zero of=/media/898c8973-ae88-454d-b76b-c540660909d1/outfile bs=16k count=1638400
1638400+0 Datensätze ein
1638400+0 Datensätze aus
26843545600 Bytes (27 GB) kopiert, 508,981 s, 52,7 MB/s

real	8m29.375s
user	0m0.432s
sys	0m53.355s
$ bonnie++ -d /media/898c8973-ae88-454d-b76b-c540660909d1/bonnie++
Writing a byte at a time...done
Writing intelligently...done
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
ubuntu           6G    57  45 40289  16 21937   7    74  31 42479   7 109.4  76
Latency               305ms     242ms     645ms   52716us     190ms     253ms
Version  1.96       ------Sequential Create------ --------Random Create--------
ubuntu              -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16  4026  19 +++++ +++  3738  27  5141  25 +++++ +++  2807  21
Latency             26209us   20734us   28343us   32137us   22047us   32759us
1.96,1.96,ubuntu,1,1295664961,6G,,57,45,40289,16,21937,7,74,31,42479,7,109.4,76,16,,,,,4026,19,+++++,+++,3738,27,5141,25,+++++,+++,2807,21,305ms,242ms,645ms,52716us,190ms,253ms,26209us,20734us,28343us,32137us,22047us,32759us

Thorsten_Reinbold Team-Icon

(Themenstarter)

Anmeldungsdatum:
10. Juli 2006

Beiträge: 4784

Wow, sehr ausführlich. Danke für die Info. Allerdings sieht man im Phoronix-Benchmark ja auch, daß das ZFS-Modul wohl noch nicht so wirklich rund läuft. Die Ergebnisse sind ja eher durchwachsen. Überrascht war ich allerdings von der hohen Geschwindigkeit von XFS. Scheint ja auch verdammt flott zu sein. Obwohl man natürlich bei solchen Benchmarks auch die verschiedenen Funktionalitäten der Dateisysteme bedenken und entsprechend mitinterpretieren sollte.

floogy

Anmeldungsdatum:
21. Juli 2006

Beiträge: 3294

Wohnort: Koblenz

Thorsten Reinbold schrieb:

Obwohl man natürlich bei solchen Benchmarks auch die verschiedenen Funktionalitäten der Dateisysteme bedenken und entsprechend mitinterpretieren sollte.

Ja, und das ist ja der entscheidende Punkt. Ein ZFS hat auf jeden Fall seine Vorteile in bestimmten Storage- und Backuplösungen. Da spielt Performance nicht die herausragende Rolle, obwohl sie schon wichtig ist. Die Features des ZFS sind jedenfalls überwältigend, wie ich finde.

Vielleicht ist in der Performance durch Optimierung des SPL oder POSIX-Layers etc. auch noch etwas Potential.

Die Vorteile gegenüber der Fuse-Lösung sind jedenfalls erheblich. Interessant ist auch wie sich BTRFS weiterentwickelt, und ob es an den speziellen Fähigkeiten des ZFS anknüpfen kann und irgendwann gleichauf sein wird und eventuell dann mit eigenen Konzepten überzeugen kann.

wodim

Anmeldungsdatum:
29. Januar 2009

Beiträge: 235

Wohnort: Gilching

Thorsten Reinbold schrieb:

So, nach laaaaangem herumgeteste bin ich nur erstmal zu der Erkenntnis gelangt daß sie BTRFS aus Sicht der Geschwindigkeit für Desktopanwender nicht lohnt. Ganz im Gegenteil: nachdem ich das System gestern neu aufgesetzt habe (mit ext4) habe ich plötzlich das Gefühl mein Rechner hätte Red Bull gesoffen.

Dann hast du mit btrfs was falsch gemacht. Dafür gibt's aber auch viele Möglichkeiten (die hab ich wohl auch so ziemlich alle durch 😉 ), aber jetzt läuft's einfach. 😉 Und stabil, fix und "komfortabel", kann man nicht anders sagen.

floogy schrieb:

Ja, man muss grub patchen, um btrfs auf der root-Partition zu verwenden.

Japp, ab 1.99 kann der auch von btrfs booten. Ich hab dazu aber drei Debian-Pakete gebraucht:

Erst mal "grub-common_1.99~rc1-13ubuntu3_i386.deb" - das hab ich sogar installieren können. 😉 Aber da ging noch nix von wegen "update-grub" und so, das braucht noch "grub-pc_1.99~rc1-13ubuntu3_i386.deb", und das wiederum "grub-gfxpayload-lists_0.2_i386.deb". Und beide letzteren meckerten hier gegenseitig aneinander 'rum: "Fehler: Abhängigkeit nicht erfüllbar: grub-gfxpayload-lists" und "Fehler: Abhängigkeit nicht erfüllbar: grub-pc (>= 1.99~20101210-1ubuntu2)". 🙄 Aber so geht's: Alle drei in ein Verzeichnis kopieren und in diesem Verzeichnis ausführen:

dpkg -i *.deb

Vorher natürlich alles 'runterschmeißen, was irgendwie nach GRUB oder GRUB2 riecht. 😉 Wie gesagt, auf's Einfachste kommt man immer zuletzt. 😉 Aber zwei Probleme noch:

  • "update-grub2" funzte bei mir auch erst mal nicht - die "core.img", die in den MBR eingebettet werden soll, wird oft zu groß. Workaround: Man lässt die erste Partition etwas später beginnen als üblich: https://bugs.launchpad.net/ubuntu/+source/grub2/+bug/774217 Naja, ob nun 8M nötig sind (meine core.img ist statt vorher 24k jetzt >~ 30k groß) - aber ich habe mal sicherheitshalber so viel Luft gelassen. 😉

  • "sparse file not allowed" - dieser Bug geistert auch schon ewig durch's Netz: https://bugs.launchpad.net/ubuntu/+source/grub2/+bug/464743 Ich habe ihn erst weggekriegt, indem ich aus der grub.cfg alles rausgeschmissen habe, was eh nicht funktioniert hat (leider war's "savedefault") oder überflüssig war (einiges mehr 😉 ). Das ist alles, was noch übrig ist (kann aber auch noch gekürzt werden, wenn ich bei meinen Experimenten mit verschiedenen Kernelversionen mal zu einem Ergebnis gekommen bin 😉 ):

set menu_color_normal=green/black
set menu_color_highlight=white/green
set timeout=3
set default=1
play 480 440 1

menuentry "MS Windows 2000 SP4 (/dev/sdb1)" --class windows --class os {
	search --no-floppy --fs-uuid --set=root 0494FF0F94FF01CA
	drivemap -s (hd0) ${root}
	chainloader +1
}

menuentry "Linux Mint Julia (10, /dev/sdb2)" --class linuxmint --class gnu-linux --class gnu --class os {
	echo	'Loading Linux /boot/vmlinuz-2.6.35-22-generic ...'
	linux	/boot/vmlinuz-2.6.35-22-generic root=UUID=6a7abf19-b9cb-471e-a82e-bde25736eba0 ro nosplash
	echo	'Loading initial ramdisk /boot/initrd.img-2.6.35-22-generic ...'
	initrd	/boot/initrd.img-2.6.35-22-generic
}

menuentry "Linux Mint Julia (10, /dev/sdb2, recovery mode)" --class linuxmint --class gnu-linux --class gnu --class os {
	echo	'Loading Linux /boot/vmlinuz-2.6.35-22-generic ...'
	linux	/boot/vmlinuz-2.6.35-22-generic root=UUID=6a7abf19-b9cb-471e-a82e-bde25736eba0 ro single 
	echo	'Loading initial ramdisk /boot/initrd.img-2.6.35-22-generic ...'
	initrd	/boot/initrd.img-2.6.35-22-generic
}

submenu "Linux Mint Julia (10, /dev/sda1) -->"{
menuentry "Linux Mint 10, 2.6.37-020637rc2-generic" --class gnu-linux --class gnu --class os {
	search --no-floppy --fs-uuid --set=root f2f2cf59-ed8c-4461-8c81-81a01dbb661a
	linux /boot/vmlinuz-2.6.37-020637rc2-generic root=UUID=f2f2cf59-ed8c-4461-8c81-81a01dbb661a ro nosplash
	initrd /boot/initrd.img-2.6.37-020637rc2-generic
}
menuentry "Linux Mint 10, 2.6.37-020637rc2-generic (recovery mode)" --class gnu-linux --class gnu --class os {
	search --no-floppy --fs-uuid --set=root f2f2cf59-ed8c-4461-8c81-81a01dbb661a
	linux /boot/vmlinuz-2.6.37-020637rc2-generic root=UUID=f2f2cf59-ed8c-4461-8c81-81a01dbb661a ro single
	initrd /boot/initrd.img-2.6.37-020637rc2-generic
}
menuentry "Linux Mint 10, 2.6.35-28-generic-pae" --class gnu-linux --class gnu --class os {
	search --no-floppy --fs-uuid --set=root f2f2cf59-ed8c-4461-8c81-81a01dbb661a
	linux /boot/vmlinuz-2.6.35-28-generic-pae root=UUID=f2f2cf59-ed8c-4461-8c81-81a01dbb661a ro nosplash
	initrd /boot/initrd.img-2.6.35-28-generic-pae
}
menuentry "Linux Mint 10, 2.6.35-28-generic-pae (recovery mode)" --class gnu-linux --class gnu --class os {
	search --no-floppy --fs-uuid --set=root f2f2cf59-ed8c-4461-8c81-81a01dbb661a
	linux /boot/vmlinuz-2.6.35-28-generic-pae root=UUID=f2f2cf59-ed8c-4461-8c81-81a01dbb661a ro single
	initrd /boot/initrd.img-2.6.35-28-generic-pae
}
}

submenu "Memtest -->"{
menuentry "Memory test (memtest86+)" {search --no-floppy --fs-uuid --set=root 6a7abf19-b9cb-471e-a82e-bde25736eba0;	linux16	/boot/memtest86+.bin}
menuentry "Memory test (memtest86+, serial console 115200)" {search --no-floppy --fs-uuid --set=root 6a7abf19-b9cb-471e-a82e-bde25736eba0; linux16	/boot/memtest86+.bin console=ttyS0,115200n8}

}

wodim

Anmeldungsdatum:
29. Januar 2009

Beiträge: 235

Wohnort: Gilching

wodim

Dann hast du mit btrfs was falsch gemacht. Dafür gibt's aber auch viele Möglichkeiten (die hab ich wohl auch so ziemlich alle durch 😉 ), ...

Zum Beispiel die (gerade wieder mit dem aktiven System getestet 😉 ). Für den Snapshot allerdings erst mal mein "Experimentier- / Test- / Backup- / ..." - Linux gebootet:

sudo btrfs subvolume snapshot /mnt/Linux /mnt/Linux/snap

So, jetzte wieder unter meinem "Produktivsystem" (das "Kernstück" meines Backup-Scripts, als root ausgeführt):

rsync -ortuv --delete -b --backup-dir=/mnt/Backup/Linux/sdb2/increments_04_07_2011__14_56 /snap/ /mnt/Backup/Linux/sdb2/ > /mnt/Backup/Linux/sdb2/increments_04_07_2011__14_56.log

So weit, so gut, auch das geht noch glatt:

sudo btrfs subvolume delete /snap
sudo btrfs filesystem defragment /

Aber das geht dann in die Hose:

sudo btrfsck /dev/sdb2

Ein paar Seiten Fehlermeldungen, dann "Abortet" - früher bin ich da in Panik geraten und habe schleunigst mein System zurückgespeichert - bloß gut, dass ich ein aktuelles Backup hatte. 😉 Heute? Nur mal neu booten. 😉

Antworten |