RH436 Managing LVM Shared Volume Groups
1. 启动lab环境
[student@workstation ~]$ lab start lvm-shared
2. 准备lvm卷组
- 所有节点安装依赖包
yum install -y dlm lvm2-lockd
- 在nodea上创建受控资源组dlm和lvmlockd
pcs resource create dlm ocf:pacemaker:controld op \
monitor interval=30s on-fail=fence --group=locking
pcs resource create lvmlockd ocf:heartbeat:lvmlockd op \
monitor interval=30s on-fail=fence --group=locking
将所有配置同步
pcs resource clone locking interleave=true
3. 确认集群状态
pcs status --full
3. 创建逻辑卷
- 在nodea上创建vg
fdisk -l
pvcreate /dev/mapper/mpatha
vgcreate --shared sharedvg /dev/mapper/mpatha
2. 在nodeb,nodec上将lvm设置为–lock-start
vgchange --lock-start sharedvg
- 在nodea上创建lv
lvcreate --activate sy -L 5G -n sharedlv1 sharedvg
- 创建共享vg资源
pcs resource create sharedlvm1 LVM-activate vgname=sharedvg lvname=sharedlv1 activation_mode=shared \
vg_access_mode=lvmlockd --group=LVMshared
pcs resource clone LVMshared interleave=true
LVMshared在所有节点上都已经启动,状态也lv状态也是available
4. 配置集群资源启动顺序
pcs constraint order start locking-clone then LVMshared-clone
pcs constraint colocation add LVMshared-clone with locking-clone
pcs constraint
5. 确认各节点lvs正常
foundation0上执行
for HOST in {a,b,c};do ssh root@node${HOST} lvs;done
workstation上关闭lab
lab finish lvm-shared
6. LVM-HA和LVM-Share使用场景
LVM-HA:主要关注于提供存储的高可用性,通过在集群中的多个节点之间共享存储资源,确保在某个节点发生故障时,存储资源仍然可用。LVM-HA通常与集群管理软件(如Pacemaker)结合使用,以实现故障转移和自动恢复功能。ext4或者xfs使用LVM-HA
LVM-Share:则侧重于存储资源的共享,允许不同的服务器或虚拟机共享同一个逻辑卷组(VG)中的逻辑卷(LV)。这有助于更有效地利用存储资源,减少存储成本,并简化存储管理。gfs2使用LVM-Share
标签:resource,Managing,pcs,clone,Volume,--,LVM,HA From: https://blog.csdn.net/qq_29974229/article/details/140628412