首页 > 其他分享 >ceph纠删码池

ceph纠删码池

时间:2023-01-04 10:35:00浏览次数:33  
标签:ceph125 码池 纠删 删码 erasure OSD ceph osd

1.查看默认配置

  • k:这是分散到各个OSD的数据块的数据。默认值为2
  • m:这是在数据变得不可用之前可能出现故障的OSD数据,默认值为2
  • directory:此可选参数是插件库的位置。默认值为 /usr/lib64/eph/erasure-code
  • plugin:此可选参数定义要使用纠删代码算法。默认值为 jerasure,但有其它插件可用,如Locally Repairable Erasure Code(LRC)和 ISA (仅Inter)
  • crush-failure-domain:此可选参数定义CRUSH故障域,它控制区块放置。默认情况下,它设置为host,这可以确保对象的区块放置到不同主机的OSD上。如果设置为OSD,则对象的区块可以放置到同一主机的OSD上。将故障域设置为osd时弹性欠佳,因为如果主机出现故障,则该主机上的所有osd都会失败。可以定义其它故障域,以用于确保区块放置到数据中心中不同机架内主机上的osd上,或者进行其它类型的自定义。
    • 再提一下,这是非常重要的!!!!
    • 默认使用的是HOST,也就是将k与m都分散到不同的主机上,以确保安全性,但是!!!默认2+2是需要4台机器的,我们如果只有三台,那么纠删码创建必定报错。因为主机不够,怎么解决呢?如下解释
    • 解决问题的方法就是不再使用HOST,而使用OSD,将k与m允许存放到同一台机器上的不同OSD上即可,但是这样也会出现不安全现象,当这台服务器宕机,所出现的情况将会是这台上所有k与m全部丢失,大大减低了安全性。
  • crush-device-class:此可选参数选择仅将这一类别设备支持的OSD用于池。典型的类别可能包括hdd、ssd或nvme。
root@ceph01:~# ceph osd erasure-code-profile get default
k=2     # 数据块是2
m=2     # 编码块是2
# 所以需要总4块硬盘
plugin=jerasure        # 纠删码插件
technique=reed_sol_van

2.创建纠删码池

  • 这里采用的是OSD模式,不是HOST
    • 默认使用的是HOST,如果不改默认故障转移域,那么会创建失败,因为需要5台机器,这里环境只有三台
ceph osd erasure-code-profile set ceph125 k=3 m=2 crush-failure-domain=osd
  • 查看创建状态
ceph osd erasure-code-profile ls

ceph osd erasure-code-profile get ceph125
  • 创建纠删码池
    • 注意这里要使用上面设置纠删码配置的名称(ceph125)
ceph osd pool create ceph125-erasure 128 128 erasure ceph125
  • 设置纠删池应用类型,这里配置为RBD
ceph osd pool application enable ceph125-erasure rbd

3.纠删码与副本池区别

  • 纠删码写数据是比较慢的,因为需要算纠删码,消耗大量的CPU资源。但是不消耗空间,而副本池太消耗空间。
  • 最大区别是纠删池节省空间,但速度慢于副本池。

4.删除纠删码

ceph osd erasure-code-profile rm ceph125

标签:ceph125,码池,纠删,删码,erasure,OSD,ceph,osd
From: https://www.cnblogs.com/wsxier/p/17024158.html

相关文章

  • ceph 集群维护 存储池管理 用户认证
    添加主机 添加磁盘  删除磁盘ceph集群维护:http://docs.ceph.org.cn/rados/#ceph集群配置、部署与运维通过套接字进行单机管理每个节点上,每个osd都会生成 soc......
  • 分布式存储(ceph)技能图谱(持续更新)
    一下为个人结合其他人对分布式存储所需的技能进行总结,绘制成如下图谱,方便针对性学习。这里对分布式存储系统接触较多的是ceph,所以在分布式存储系统分支上偏向ceph的学习......
  • 分布式存储系统 Ceph 实战操作
    目录一、概述二、cephadm工具的使用1)cephadm工具的介绍2)cephadm安装3)cephadm常用命令使用4)启用cephshell三、ceph命令使用1)添加新节点2)使用ceph安装软件3)主机操作......
  • 分布式存储系统 Ceph 介绍与环境部署
    目录一、概述二、Ceph架构三、Ceph核心组件介绍四、Ceph三种存储类型1)块存储服务(RBD)2)文件系统存储服务(CephFS)3)对象存储服务(RGW)五、Ceph版本发行生命周期六、Ceph......
  • 记一次kubernetes测试环境搭建(heapster,helm,nginx-ingress-controller,glusterfs heketi
    课程内容:各种k8s部署方式。包括minikube部署,kubeadm部署,kubeasz部署,rancher部署,k3s部署。包括开发测试环境部署k8s,和生产环境部署k8s。详细介绍helm命令,学习helmchart语法,......
  • ceph
    */5****/usr/sbin/netdatetime.aliyun.com&>/dev/null&&hwclock-w&>/dev/nullaptinstall-yapt-transport-httpsca-certificatescurlsoftware-properti......
  • ceph分布式存储安装(ceph-deploy)
    ceph学习ceph简介和特性ceph时一个多版本存储系统,它把每一个待管理的数据量切分为一到多个固定带下的对象数据,并以其为原子单元完成数据存取。对象数据的地处存储服务......
  • ceph集群部署
    ceph01 20.168.59.11ceph02 20.168.59.12ceph03 20.168.59.13在ceph01 节点上执行设置主机名# hostnamectl set-hostname ceph01 修改网卡 ens33 的......
  • ceph PG 故障状态
    PG故障状态Creating(创建中)在创建POOL时,需要指定PG的数量,此时PG的状态便处于creating,意思是Ceph正在创建PGPeering(互联中)peering的作用主要是在PG及其副本所在的O......
  • ceph - Nautilus 踩坑记
    RGW编译rgw_file_marker时报错错误信息同BUILD_ERROR.txt.解决方法:合入nautilus:test/ceph_test_librgw_file*:Removeduplicatenames#43491这个PR。......