前言:笔者的环境是三个节点的gluster集群,用的是分布式复制卷,由于数据量日益增大,需要增加brick以扩容,本篇文章将介绍brick扩缩容的常见故障及解决方法。
基础操作命令:
(1)添加brick
gluster volume stop mybackup
gluster volume add-brick mybackup replica 3 glusterfs-a:/storage/phd4 glusterfs-b:/storage/phd4 glusterfs-c:/storage/phd4 force
gluster volume start mybackup
(2)移除brick
gluster volume remove-brick mybackup glusterfs-a:/storage/phd3 glusterfs-b:/storage/phd3 glusterfs-c:/storage/phd3 start
注意点:若是副本卷或者条带卷,则一次添加的bricks数是replica的整数倍;且添加brick后,原分布规则就会被打乱,所以一般还需要重新调整分布规则。gluster-3.4.1版本在执行移除brick的时候会将数据迁移到其他可用的brick上,并自动调整数据分布规则,当数据迁移结束之后才将brick移除。执行start命令,开始迁移数据。迁移完需将start改为commit删除brick。若不迁移数据,则直接执行commit删除brick,生产环境谨慎使用。
那么假如迁移过程中发现查看状态是failed,执行gluster大部分命令都是类似如下情况,重启gluster服务也一样。那这时候既想数据不丢失,又想执行gluster命令恢复正常,该如何解决呢?
具体解决方法请关注以下公众号,回复gluster即可获得
标签:start,storage,gluster,故障,glusterfs,brick,迁移 From: https://blog.51cto.com/u_13502820/6176567