GlusterFS数据恢复

本文详细介绍了在GlusterFS集群中,当一台服务器因系统崩溃需要重做时,如何通过重新安装GlusterFS、修改UUID、重建集群及brick,实现数据恢复的过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

GlusterFS数据恢复

场景:

两台GlusterFS 其中一台因为系统奔溃,导致需要重做系统,然后加回到原来的集群中。

GlusterFS-master1

GlusterFS-slove (重做系统的)

在Slove上重新安装GlusterFS

1、安装GlusterFS的安装源(所有节点)

 

yum install centos-release-gluster

2、安装GlusterFS依赖包和服务端

yum install -y glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma glusterfs-geo-replication glusterfs-devel

3、启动GlusterFS(所有节点)

systemctl start glusterd

systemctl enable glusterd

4、修改slove上GlusterFS的UUID

在正常的master上查看slove的UUID

[root@glusterd-master test]# gluster peer status

Number of Peers: 1

Hostname: glusterd-slave

Uuid: 419cc6---------------

State: Peer in Cluster (Connected)

[root@glusterd-master test]#

修改slove上的/var/lib/glusterd/glusterd.info

将master上查到的UUID替换掉原先的。

[root@glusterd-slave ~]#  cat /var/lib/glusterd/glusterd.info

UUID=419cc6---------------------------------

operating-version=31200

[root@glusterd-slave ~]#

 

5、加入集群

首先删除master上的集群:

gluster peer detach  NODE-NAME //移除节点,需要提前将该节点上的brick移除

在添加集群

gluster peer probe   NODE-NAME //添加节点

 这样就将slove重新添加到集群中了。

 

6、删除重建brick

查看volume的状态时,发现slove的brick是N

[root@glusterd-slave nginx]# gluster volume status

Status of volume: default_kafka

Gluster process                             TCP Port  RDMA Port  Online  Pid

------------------------------------------------------------------------------

Brick glusterd-master:/home/glusterfs/volum

es/default/kafka                            49152     0          Y       1581

Brick glusterd-slave:/home/glusterfs/volume

s/default/kafka                             N/A       N/A        N       N/A 

Self-heal Daemon on localhost               N/A       N/A        Y       4998

Self-heal Daemon on glusterd-master         N/A       N/A        Y       4511

 

Task Status of Volume default_kafka

 

我们需要手动的删掉slove的brick,在重新建立。

 

先移除slove的brick

格式:

gluster volume remove-brick volume-name  replica 1 <slove-brick-PATH >force

gluster volume remove-brick   test-zookeeper replica 1 glusterd-slave:/home/glusterfs/volumes/test/test-zookeeper/ force

 

 

 

重新添加slove的brick

格式:

gluster volume add-brick volume-name replica 2 <slove-brick-PATH> force

 

gluster volume add-brick  test-zookeeper replica 2 glusterd-slave:/home/glusterfs/volumes/test/test-zookeeper/ force

 

 

这样slove上就会有master上的数据了。

手动添加的。

是时间看看自动添加的。

转载于:https://my.oschina.net/u/3741546/blog/1603442

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值