暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

rbd的ceph-backup增量备份本地恢复方法

磨磨谈 2017-11-02
892

前言

之前有写过一篇关于rbd增量备份的,以及介绍过ceph-backup这款软件

  • ceph的rbd备份软件ceph-backup

  • rbd的增量备份和恢复

这两篇文章里的方法都是基于rbd的快照去进行增量备份,之前文章里的恢复方法都是基于集群进行恢复,也就是需要一个集群进行导入,本篇将介绍另外一个方法,不基于集群进行恢复,直接在本地文件系统上进行恢复,我们来看下这个是怎么恢复的

本篇也可以用于rbd和rbd快照在本地进行合并

实践过程

全量备份的访问方法

rbd在没有做快照的情况下的备份,导出后是一个文件形式的

  1. rbd export testrbd testrbd

使用下面方法进行直接访问

  1. losetup /dev/loop0 testrbd

  2. kpartx -a /dev/loop0

  3. mount /dev/mapper/loop0p1 /mnt1/

  4. mount /dev/mapper/loop0p2 /mnt2/

内核块设备使用的时候可以直接进行文件的本地访问,如果是librbd的虚拟机磁盘的形式的直接当raw格式进行直接访问或者传输到OpenStack里面直接访问即可,或者用上面的步骤本地直接访问

增量备份的访问方法

如果使用的是ceph-backup的增量备份,需要离线恢复的话需要一个第三方插件

  1. wget https://github.com/zphj1987/eve4ceph-mdti/archive/master.zip

下载好了后进入代码目录,执行

  1. yum install glib2-devel

  2. yum install glib-devel

  3. make install

执行完了后会生成一个二进制文件,这个 eve4ceph-mdti ,不需要其他配置,直接使用即可

  1. [root@lab244 mnt]# ll /root/test/

  2. total 280

  3. -rw-r--r--. 1 root root 159958 Oct 25 03:10 testrbd@BACKUPUTC20171024T190955.full.tar.gz

  4. -rw-r--r--. 1 root root  60202 Oct 25 03:12 testrbd@BACKUPUTC20171024T191243.diff_from_BACKUPUTC20171024T190955.tar.gz

  5. -rw-r--r--. 1 root root  57568 Oct 25 03:13 testrbd@BACKUPUTC20171024T191358.diff_from_BACKUPUTC20171024T191243.tar.gz

使用ceph-backup生成的是上面的这些压缩包的形式,直接全部解压

  1. [root@lab244 mnt]# ll /root/test/tmp/rbd/testrbd/

  2. total 127788

  3. -rw-r--r--. 1 root root 10737418240 Oct 25 03:30 testrbd@BACKUPUTC20171024T190955.full

  4. -rw-r--r--. 1 root root    19650298 Oct 25 03:12 testrbd@BACKUPUTC20171024T191243.diff_from_BACKUPUTC20171024T190955

  5. -rw-r--r--. 1 root root    18896617 Oct 25 03:13 testrbd@BACKUPUTC20171024T191358.diff_from_BACKUPUTC20171024T191243

解压完成后生成了原始全量镜像和快照增量部分,根据快照时间顺序进行合并

  1. eve4ceph-mdti testrbd\@BACKUPUTC20171024T190955.full testrbd\@BACKUPUTC20171024T191243.diff_from_BACKUPUTC20171024T190955

  2. eve4ceph-mdti testrbd\@BACKUPUTC20171024T190955.full testrbd\@BACKUPUTC20171024T191358.diff_from_BACKUPUTC20171024T191243

执行上面的以后会把快照的差量回滚到全量的那个备份当中

  1. losetup /dev/loop0 testrbd\@BACKUPUTC20171024T190955.full

  2. kpartx -a /dev/loop0

  3. mount /dev/mapper/loop0p1 /mnt

  4. ll /mnt

经过上面的步骤以后,在本地文件系统上面就把增量的部分进行合并了,这里面用到比较关键的一个技术点就是ceph_apply_diff,上面的操作进行了多次增量的备份,数据是按照快照点进行恢复,需要按时间先后顺序把差异合并到第一个full镜像,需要注意的是,做快照如果是librbd,要注意rbd的cache的影响,先flushcache,然后快照,如果是kernel rbd的快照,要注意本地文件系统的缓存的影响

总结

本篇是提供了一种本地恢复增量备份的rbd的方法,在集群之外进行快照的合并,减少了恢复过程对集群的依赖


文章转载自磨磨谈,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论