首页 > 其他分享 >ceph-mirror

ceph-mirror

时间:2023-08-21 21:23:02浏览次数:48  
标签:-- disk1 image ceph 集群 mirror rbd

1.环境要求

集群名称 集群版本
storage01 v17
storage02 v17

2.创建存储池

  • 全部集群操作

ceph osd pool create rbd 64 64

ceph osd pool application enable rbd rbd

3.开启mirror功能

  • 全部集群操作

ceph orch apply rbd-mirror --placement=storage01/2
  • 验证
ceph orch ps | grep mirror
  • 采用镜像模式(针对块设备触发)
rbd mirror pool enable rbd image

4.建立配对

  • storage01集群操作
# 创建token
rbd mirror pool peer bootstrap create --site-name site-a rbd > /root/bootstrap_token_site-a

# 拷贝token到storage02集群节点
scp bootstrap_token_site-a storage02:/root/
  • storage02集群操作导入token并定义同步类型
    • 注意参数rx-only,rx-tx
      • rx-only:从节点只负责收,不负责发,单向复制
      • rx-tx:从节点负责收也负责发,双向复制
# rbd mirror pool peer bootstrap import --site-name site-b --direction rx-only rbd /root/bootstrap_token_site-a

# 使用双向复制
rbd mirror pool peer bootstrap import --site-name site-b --direction rx-tx rbd /root/bootstrap_token_site-a
  • 到所有集群进行验证
rbd mirror pool info rbd

5.配置块设备出发复制功能

  • 创建块设备(storage02集群操作)
rbd create --size 10G rbd/disk1
  • 配置触发,配置基于快照复制,如果不写,那么就是集群日志(storage02集群操作)
rbd mirror image enable rbd/disk1 snapshot
  • 验证查看(所有集群)
rbd mirror image status rbd/disk1

6.实战使用

  • storage01集群操作
rbd map rbd/disk1

mkfs.xfs /dev/rbd0

mount /dev/rbd0 /mnt/

cd /mnt

echo 12345 > test.txt

dd if=/dev/zero of=x1 bs=1M count=200
  • 触发同步

# 手动生成快照触发同步
rbd mirror image snapshot rbd/disk1

7.故障切换(failover failback)

  • storage01节点操作降级

umount /mnt

rbd unmap rbd/disk1

# 对块设备进行降级
rbd mirror image demote rbd/disk1

rbd mirror image status rbd/disk1
  • storage02节点操作升级

# 对块设备进行升级
rbd mirror image promote rbd/disk1

rbd mirror image status rbd/disk1

# 到现在即可使用
rbd map rbd/disk1

mount /dev/rbd0 /mnt/

cd /mnt/

dd if=/dev/zero of=x2 bs=1M count=300

# 触发快照
rbd mirror image snapshot rbd/disk1
  • storage01还原

    • storage02集群操作
    umount /mnt
    
    rbd unmap rbd/disk1
    
    # 降级
    rbd mirror image demote rbd/disk1
    
    • storage01集群操作
    rbd mirror image promote rbd/disk1
    
    rbd map rbd/disk1
    
    mount /dev/rbd0 /mnt/
    
    ll /mnt
    

8.定义快照自动触发

  • storage01集群操作(d天 h小时 m分钟)
    • 这里配置每两分钟一次
rbd mirror snapshot schedule add --pool rbd --image disk1 2m

rbd mirror snapshot schedule ls --pool rbd --image disk1

标签:--,disk1,image,ceph,集群,mirror,rbd
From: https://www.cnblogs.com/wsxier/p/17647120.html

相关文章

  • ceph分布式存储软件pgs inconsistent
    Ceph是一个开源的分布式存储系统,它提供了高性能、高可靠性以及高扩展性。Ceph的设计理念是基于对象存储模型,通过将数据分割成多个对象并存储在不同的节点上,实现数据的分布式存储和访问。Ceph的核心组件包括:RADOS(ReliableAutonomicDistributedObjectStore):RADOS是Ceph的底层......
  • Ceph RBD的使用笔记
    ceph的内容太多了,单独写一篇文章记录自己的一些RBD的学习笔记,其实简书和其他博客上已经记录的非常全面了,但是因为出处都比较分散,所以还是自己把自己的实验记录一下便于以后学习的查阅。也感谢各位大佬的无私分享。 1.RBD池的创建和enable[cephadmin@ceph-node~]$cephosdp......
  • OpenStack对接Ceph平台
    OpenStack对接Ceph平台目录OpenStack对接Ceph平台1、创建后端需要的存储池(ceph-01节点操作)2、创建后端用户2.1创建密钥(ceph-01节点操作)2.1.1创建用户client.cinder2.1.2创建用户client.glance2.1.3创建用户client.cinder-backup2.2导出密钥(ceph-01节点操作)2.3拷贝密钥2.3.1......
  • 初识Ceph之0——Ceph概述
    一、Ceph的起源Ceph是一个统一的分布式存储系统,设计初衷是提供较好的性能、可靠性和可扩展性。Ceph项目最早起源于Sage就读博士期间的工作(最早的成果于2004年发表),并随后贡献给开源社区。在经过了数年的发展之后,目前已得到众多云计算厂商的支持并被广泛应用。RedHat及OpenStack都可......
  • Mirror_World_Address
    NPM_mirror_start:"cmd","/c","npmconfigsetregistryhttps://registry.npmjs.org"NPM_mirror_end;Conda_mirror_start: https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/f......
  • 手动安装ceph和使用
    我们已经对ceph有了一个大概的了解,现在就进行手动的安装ceph集群。在我们安装集群之前,首先应该对自己的服务器环境以及集群节点作用做一个规划。架构设计Ceph分布式存储集群有三大组件组成,分为:CephMonitor、CephOSD、CephMDS,后边使用对象存储和块存储时,MDS非必须安装,只有当使......
  • 云存储---ceph简介架构原理和一些基本概念
    Ceph简介Ceph是一个分布式存储系统,提供对象,块和文件存储,是一个免费开源软件的存储解决方案,可以部署于普通的x86兼容服务器上,可用于解决统一存储的io问题。Ceph诞生于2004年,最早是SageWeil一项关于存储系统的PhD研究项目,致力于开发下一代高性能分布式文件系统的项目。随着云计算的发......
  • 使用ceph的对象存储
    Ceph对象存储Ceph对象存储使用Ceph对象网关守护进程(radosgw),它是个与Ceph存储集群交互的FastCGI模块。因为它提供了与OpenStackSwift和AmazonS3兼容的接口,RADOS要有它自己的用户管理。Ceph对象网关可与CephFS客户端或Ceph块设备客户端共用一个存储集群。S......
  • 使用ceph的块存储rbd
    CEPH块设备块是一个字节序列(例如,一个512字节的数据块)。基于块的存储接口是最常见的存储数据方法,它们基于旋转介质,像硬盘、CD、软盘、甚至传统的9磁道磁带。无处不在的块设备接口使虚拟块设备成为与Ceph这样的海量存储系统交互的理想之选。Ceph块设备是精简配置的、大小可......
  • 使用ceph的文件存储CephFS
    CephFS是一个支持POSIX接口的文件系统,它使用Ceph存储集群来存储数据。文件系统对于客户端来说可以方便的挂载到本地使用。CephFS构建在RADOS之上,继承RADOS的容错性和扩展性,支持冗余副本和数据高可靠性。注意:当前,CephFS还缺乏健壮得像‘fsck’这样的检查和修复功能。存储重......