- 2024-11-21ceph_mount
ceph_mount流程mount-tceph$(hostname):6789://mnt/ceph/-oname=admin,secret=$(cephauthget-keyclient.admin)执行这条ceph挂载命令时会发生什么?/var/log/messages中只看到这两条相关日志,但远远不够,准备看看内核代码打开内核日志调试继续Novxx11:03:56node1kern
- 2024-11-13ceph的部署方式
方式一:ceph-deploy(ceph的原生部署工具):●(1)ceph-deploy是一种部署ceph的方法,它仅依赖于SSH访问服务器、而后借助sudo和一些Python模块就可以实现部署。●(2)它完全在工作站(管理主机)上运行,不需要任何服务、数据库或类似的东西。●(3)它不是一个通用的部署系统,它只是为
- 2024-11-12ceph的部署与简单使用
OSD(ObjectStorageDaemon,守护进程ceph-osd)是负责物理存储的进程,一般配置成和磁盘一一对应,一块磁盘启动一个OSD进程。主要功能是存储数据、复制数据、平衡数据、恢复数据,以及与其它OSD间进行心跳检查,负责响应客户端请求返回具体数据的进程等。通常至少需要3个OSD来实现冗余和
- 2024-11-11一体机场景ceph高可用介绍
本文分享自天翼云开发者社区《一体机场景ceph高可用介绍》,作者:b****n一体机场景使用ceph开源架构作为存储系统的主体架构,原生方案支持存储数据高可用性,包括副本数可以灵活控制/支持故障域分隔,数据强一致性/多种故障场景自动进行修复自愈/没有单点故障,自动管理。部署形态存储
- 2024-10-31ceph 数据均衡调整
情况一:cephosdfull-osd磁盘满的处理根据Ceph官方文档中的描述,当一个OSDfull比例达到95%时,集群将不接受任何CephClient端的读写数据的请求。所以导致虚拟机在重启时,无法启动的情况。 解决方法方法一: 根据官方的建议,首选的方案是添加osd磁盘,添加后将触发数据的重新均
- 2024-10-28<十七>Ceph 块存储理论与实践
Ceph集群的检查可以简化为MON状态检查、OSD状态检查和PG状态检查。上一章节我们重点介绍了MON的状态和维护方法。本章节将重点介绍OSD状态和块存储常用命令。Tips:如果是故障排查,请在确保MON状态正常的情况下进行OSD和PG状态检查。Tips:下面的简单理解只是
- 2024-10-24ceph存储上盘下盘操作
1、定位硬盘和报错日志#1.例如更换osd.1硬盘,找出osd.1对应的磁盘[root@ceph1mapper]#kubectlgetporook-ceph-osd-1-79fcff4bbd-4gq2b-nrook-ceph-oyaml|grepUUID k:{"name":"ROOK_OSD_UUID"}: -name:ROOK_OSD_UUID -"\nset-ex\n\n
- 2024-10-09glance对接cephA5
目录*glance对接ceph1.上传镜像2.对接ceph2.1创建池2.2创建用户:西部世界官网2.3下发ceph文件2.4修改globals文件2.5更新glance配置3.上传镜像到cephglance对接ceph基于前面的openstack环境glance的镜像默认情况下是存储在本地的,如果glance节点挂掉了,那
- 2024-10-08glance对接ceph
目录glance对接ceph1.上传镜像2.对接ceph2.1创建池2.2创建用户2.3下发ceph文件2.4修改globals文件2.5更新glance配置3.上传镜像到cephglance对接ceph基于前面的openstack环境glance的镜像默认情况下是存储在本地的,如果glance节点挂掉了,那么镜像也就不存在了,所以现在我
- 2024-10-08CEPH 运维记录
基于l版本。1、osd状态ceph-sactive:PG处于活动状态,正在处理读写请求。clean:PG中的所有对象都是最新的,所有副本都已同步,没有缺失或未完成的操作。scrubbing:PG正在进行数据校验过程,确保所有数据都是一致的。Scrubbing是定期的检查,以防止数据损坏。deep:表示正在进行深
- 2024-09-25调查一个osd的rocksdb问题
开始喜欢ceph的话欢迎关注奋斗的cepher微信公众号阅读更多好文!关于osd的问题总是各种各样,奇奇怪怪,有bug相关的,也有环境相关的,或者是配置相关的,对于osd各种问题的处理,重点在思路,思路对了,问题就好解决了。本篇是一个集群有ssd的osd发生down,这本不是什么值得关注的事,osd的do
- 2024-09-25ddsadasdasd
目录 理论部分 Ceph的诞生主要是为了解决以下问题:操作部分第一部分(虚拟机配置)一、修改主机名二、修改防火墙、SELinux状态三、修改hosts文件四、验证网络环境(请参阅第一步、第四步)五、配置ceph源六、开始执行yum安装七、创建目录第二部分(部署ceph)1.1初始化c
- 2024-09-22CL260 学习笔记(五)
Ceph用户认证与授权ceph-scephauthlist注意:不可以通过直接修改keyring文件来获得权限,否则ceph集群就变得很不安全了,真正记录权限的位置在mon组件中,而非客户端。当user8读rhca_01.txt单个对象是可以的,但要列出test1存储池中的所有对象就会被拒绝了。没有任何权限,所以不能
- 2024-09-21CL260 学习笔记(三)
Ceph存储池如果PG太多,对象太少,会造成大量的空间浪费;如果PG太少,对象太多,寻找对象的时间过长,影响性能。cephosdpoolcreate--helpusage那一行显示的是存储池内所有pg的容量之和。这里提出一个问题:pg_num是32个,那么osd上有多少个pg?这是一个replicated(副本)池,size是3,表示是3
- 2024-09-17CL260 学习笔记(一)
RHCA课程须知Ceph原理及架构
- 2024-09-14Linux云计算 |【第三阶段】PROJECT1-DAY3
主要内容:Keepalived高可用、部署Ceph分布式存储一、网站架构进阶项目案例案例1:Keepalived高可用延续PROJECT1-DAY2案例,部署两台代理服务器,实现如下效果:1)利用keepalived实现两台代理服务器的高可用(192.168.2.5/192.168.2.6)2)配置VIP为192.168.2.803)修改对应的域名解析
- 2024-09-13ceph之pg inactive
查看故障查看ceph状态通过ceph的输出,发现osd.7提示slowops,同时有1个pg处于inactive状态。故障处理确定osd状态通过以上命令确定osd.7属于ceph03节点。确定pg状态通过以上命令,发现pg7.1dstuck状态。查看ceph日志查看ceph03节点的ceph日志,/var/log/ceph/cep
- 2024-09-10Ceph Reef(18.2.X)之纠删码池
作者:尹正杰版权声明:原创作品,谢绝转载!否则将追究法律责任。目录一.纠删码理论概述1.纠删码理论概述2.ceph纠删码以插件的形式提供3.纠删码池的优缺点二.纠删码基础命令实践1.列出
- 2024-09-10分布式存储节点替换故障硬盘(filestore+LVMcache)
1.说明此文档操作方法适用于>=V13.2.5ceph版本,部署模式为filestore,将每一块机械盘(LVM卷)对应一个OSD进程,并且journal日志放在ssd加速盘上。2.故障硬盘为SSD缓存盘(加速盘)【思路】缓存盘故障,需先删除机械盘对应的osd,再取消对应机械盘的cache关系,关机换盘后,重新创建cac
- 2024-09-08ceph:麒麟kylin v10 sp3:安装ceph-nautilus for el8:这个版本依赖于python3.6,看看怎么欺骗kylin进行安装
[root@kylintemplate~]#catceph-nautilus-el8_depends-for-kylin.specSummary:ceph-nautilus-el8_depends-for-kylinvirtualName:ceph-nautilus-el8_depends-for-kylinVersion:1.0Release:0License:GPLGroup:Development/ToolsAutoReqProv:yesAutoReq:ye
- 2024-09-06ceph:源代码编译 nfs-ganesha 2.8.4 (V2-stable)
step1:从github下载nfs-ganesha(标签2.8.4或分支V2-stable)同时下载相应代码库中指定的版本的libntirpc库代码!注意版本一致。注意ntirpc放到src目录中,要改名为libntirpc或直接做个符号链接libntirpc。 step2:根据你自己的要求或希望的功能,安装依赖 step3:cmake生
- 2024-09-04每天5分钟复习OpenStack(十五)Ceph与Bcache结合
上一章我们成功部署了bcache,这一章我们将Ceph与Bcache结合来使用,使用Bcache来为ceph的数据盘提速。1ceph架构一个标准的ceph集群可能是如下的架构,SSD/NVME存储元数据,而SATA盘存储数据。这样的架构下,物理介质的SATA盘读写速率上限决定了存储集群Ceph的上限(木桶效应)。如果在
- 2024-09-04ceph:通过传统用户空间 tgtd 工具 以 iscsi 方式使用ceph rdb设备
如题:安装用户空间的iscsitarget工具。以麒麟v10为例:首先,安装以下iscsitarget工具 然后,配置/etc/tgt/targets.conf,配置cephrbd后端请注意:最核心的配置其实是“bsopts”!根据“scsi-target-utils-rbd”的相关说明文档,可通过配置“bsopts”来制定ceph.conf配置文件的位置。
- 2024-09-02云原生存储Rook部署Ceph
Rook是一款云原生存储编排服务工具,Ceph是一种广泛使用的开源分布式存储方案,通过Rook可以大大简化ceph在Kubernetes集群中的部署和维护工作。 Rook由云原生计算基金会(CNCF)孵化,且于2020年10月正式进入毕业阶段。Rook并不直接提
- 2024-09-01Ceph Reef(18.2.X)之对象访问策略配置
作者:尹正杰版权声明:原创作品,谢绝转载!否则将追究法律责任。目录一.对象存储概述1.对象存储的访问方式2.基于http方式访问对象存储注意事项3.查看存储桶默认策略二.定制策略1.定制