- 2024-11-12ceph的部署与简单使用
OSD(ObjectStorageDaemon,守护进程ceph-osd)是负责物理存储的进程,一般配置成和磁盘一一对应,一块磁盘启动一个OSD进程。主要功能是存储数据、复制数据、平衡数据、恢复数据,以及与其它OSD间进行心跳检查,负责响应客户端请求返回具体数据的进程等。通常至少需要3个OSD来实现冗余和
- 2024-10-28<十七>Ceph 块存储理论与实践
Ceph集群的检查可以简化为MON状态检查、OSD状态检查和PG状态检查。上一章节我们重点介绍了MON的状态和维护方法。本章节将重点介绍OSD状态和块存储常用命令。Tips:如果是故障排查,请在确保MON状态正常的情况下进行OSD和PG状态检查。Tips:下面的简单理解只是
- 2024-09-04ceph:通过传统用户空间 tgtd 工具 以 iscsi 方式使用ceph rdb设备
如题:安装用户空间的iscsitarget工具。以麒麟v10为例:首先,安装以下iscsitarget工具 然后,配置/etc/tgt/targets.conf,配置cephrbd后端请注意:最核心的配置其实是“bsopts”!根据“scsi-target-utils-rbd”的相关说明文档,可通过配置“bsopts”来制定ceph.conf配置文件的位置。
- 2024-08-13kubernetes基于csi使用rbd存储
描述ceph-csi扩展各种存储类型的卷的管理能力,实现第三方存储ceph的各种操作能力与k8s存储系统的结合。通过ceph-csi使用cephrbd块设备,它动态地提供rbd以支持Kubernetes持久化存储,并将这些rbd映射给pod做为块设备持久化数据使用。Ceph将pod存在块设备的数据以副本
- 2024-07-16rbd常用的配置参数
本文分享自天翼云开发者社区《rbd常用的配置参数》,作者:l****nrbd的基本介绍rbd的架构如下图所示:rbd采用CRUSH算法实现数据的随机分布。CRUSH算法,即ControlledReplicationUnderScalableHashing,是一种基于哈希的数据分布算法。CRUSH算法以数据唯一标识符、当前存储集群的拓
- 2024-07-10Ceph块存储系统RDB接口
目录1.创建Ceph块存储系统RBD接口1.1创建一个名为rbd-xy101的专门用于RBD的存储池1.2创建镜像1.3 查看镜像1.4 修改镜像大小1.5 删除镜像1.6 临时删除镜像2.Linux客户端使用2.1在管理节点创建并授权一个用户可访问指定的RBD存储池2.2 修改RBD镜像
- 2024-06-18k8s使用rbd作为存储
k8s使用rbd作为存储如果需要使用rbd作为后端存储的话,需要先安装ceph-common需要提前在ceph集群上创建pool,然后创建image[root@ceph01~]#cephosdpoolcreatepool01[root@ceph01~]#cephosdpoolapplicationenablepool01rbd[root@ceph01~]#rbdpoolinitpool01[
- 2024-05-30ceph客户端配置自动挂载存储服务
1.安装支持ceph的内核模块可选:centos/ubuntu:yuminstall-yceph-common或aptinstall-yceph-common2.拷贝认证密钥cephadmin@ceph-deploy:~/ceph-cluster$sudoscpceph.confceph.client.admin.keyringroot@<客户端服务器IP>:/etc/ceph测试获取集群信息:客户
- 2024-05-26RBD与Cephfs
目录1.RBD1.RBD特性2.创建rbd池并使用2.1创建rbd2.2创建用户2.3下发用户key与ceph.conf2.4客户端查看pool2.5创建rbd块2.6映射rbd并挂载先看一下块设备2.7开机自动映射2.8rbdcreate参数2.9rbd映射基本操作3.块设备操作3.1调整rbd大小3.2复制块设备3.3移动到其他p
- 2024-04-26PVE-Ceph-RBD测试
集群型号与规模CPU型号:3X24xIntel(R)Xeon(R)
[email protected](2插槽)内存:110G磁盘:3X12X三星850evo500G(osd以raid0模式加入ceph)+3X1nvme500G可用osd个数:33个ceph集群副本:3副本ceph版本:cephversion17.2.6(810db68029296377607028a6c6da1ec06f5
- 2024-01-09Ceph RBD和QEMU块设备qos测试
微信公众号:运维开发故事作者:wanger关于ceph的qosCeph,作为一个高度可扩展的分布式存储系统,已经成为云计算和大数据时代的关键基石。随着企业和组织对数据存储的需求日益增长,Ceph通过其强大的特性,如可靠性、伸缩性和性能,满足了这些需求。然而,随着集群规模的扩大和工作负载的多样性,如
- 2024-01-08ceph通过tgt配置多路径的数据一致性问题
前言使用librbd通过tgt出iscsi,多路径数据是一致的,由于环境的原因,切换为kernelrbd出iscsi,然后通过不同的iscsi路径写入后,发现在rbd端就出现了数据没有刷新的问题问题分析这里有个类似的问题https://github.com/ceph/ceph-csi/issues/461这个是通过把rbdmap到不同的节点,通过dd写入
- 2023-12-29Kubernetes-集群Rook-Ceph快照
部署条件Rookofficiallysupportsv1snapshotsforKubernetesv1.20+.Installthesnapshotcontrollerandsnapshotv1CRDasrequired.Moreinfocanbefoundhere.安装快照控制器和CRD:安装快照CRD:gitclonehttps://github.com/kubernetes-csi/external-snapshotter.git
- 2023-11-13手把手系列 - Ceph使用rbd及cephfs与k8s集群集成 - 三种方式实现
前言本次详细部署k8s、ceph以及如何使用ceph作为k8s的外部存储。主机信息主机名IP说明信息k8s-master192.168.199.41k8smasterk8s-node01192.168.199.42nodek8s-node02192.168.199.43nodeceph-node01192.168.199.44ceph-node01-独立磁盘(/d
- 2023-10-27Kubernetes跨StorageClass迁移,切换Rainbond默认SC
默认使用的共享文件存储是NFS,以Pod方式运行在Kubernetes中,但这种方式也有一些无法避免的问题,比如:NFS的SVC无法通信时集群无法挂载存储则导致不能使用、服务器关机时卡在umount导致不能正常关机等等。当然还有切换共享文件存储的需求,在第一次安装Rainbond时,大多数都
- 2023-10-26Kubernetes跨StorageClass迁移,切换Rainbond默认SC
基于主机安装或基于Kubernetes安装的Rainbond集群(均使用默认参数安装),默认使用的共享文件存储是NFS,以Pod方式运行在Kubernetes中,但这种方式也有一些无法避免的问题,比如:NFS的SVC无法通信时集群无法挂载存储则导致不能使用、服务器关机时卡在umount导致不能正常关机等等
- 2023-10-26Kubernetes跨StorageClass迁移,切换Rainbond默认SC
基于主机安装或基于Kubernetes安装的Rainbond集群(均使用默认参数安装),默认使用的共享文件存储是NFS,以Pod方式运行在Kubernetes中,但这种方式也有一些无法避免的问题,比如:NFS的SVC无法通信时集群无法挂载存储则导致不能使用、服务器关机时卡在umount导致不能正常关机等等
- 2023-10-21K8S使用开源CEPH作为后端StorageClass
1引言K8S在1.13版本开始支持使用Ceph作为StorageClass。其中云原生存储Rook和开源Ceph应用都非常广泛。本文主要介绍K8S如何对接开源Ceph使用RBD卷。K8S对接Ceph的技术栈如下图所示。K8S主要通过容器存储接口CSI和Ceph进行交互。https://docs.ceph.com/en/reef/rbd/rbd-kuber
- 2023-09-28ceph部署和使用详细教程
一、ceph介绍1、ceph起源Ceph项目最早起源于Sage就读博士期间的工作(最早的成果于2004年发表),并随后贡献给开源社区。在经过了数年的发展之后,目前已得到众多云计算厂商的支持并被广泛应用。RedHat及OpenStack都可与Ceph整合以支持虚拟机镜像的后端存储。但是在2014年OpenStack火爆的
- 2023-09-24ceph(三)实现ceph块存储的挂载及存储空间的动态伸缩
1.客户端使用普通账户挂载并使用RBDRBD(RADOSBlockDevices)即块存储设备,RBD可以为KVM、VMware等虚拟化技术和云服务(OpenStack、kubernetes)提供高性能和无限可扩展的存储后端,客户端基于librbd库即可将RADOS存储集群用作块设备,不过,用于rbd的存储池需要事先启用rbd功能并进行初始化
- 2023-09-15UOS安装部署Ceph集群(二)
本篇文章介绍Ceph如何使用,包括创建/使用:块存储(rbd)、文件存储(cephfs)、对象存储(rgw)前4步详细介绍,请点击链接跳转。实验过程: 1、Ceph架构图 UOS安装部署Ceph集群(一)_[ceph_deploy][error]runtimeerror:bootstrap-osd_小时候很牛、的博客 2、实验环境说明 UOS安装部
- 2023-08-21ceph-mirror
1.环境要求集群名称集群版本storage01v17storage02v172.创建存储池全部集群操作cephosdpoolcreaterbd6464cephosdpoolapplicationenablerbdrbd3.开启mirror功能全部集群操作cephorchapplyrbd-mirror--placement=storage01/2
- 2023-08-15Ceph RBD的使用笔记
ceph的内容太多了,单独写一篇文章记录自己的一些RBD的学习笔记,其实简书和其他博客上已经记录的非常全面了,但是因为出处都比较分散,所以还是自己把自己的实验记录一下便于以后学习的查阅。也感谢各位大佬的无私分享。 1.RBD池的创建和enable[cephadmin@ceph-node~]$cephosdp
- 2023-08-08使用ceph的块存储rbd
CEPH块设备块是一个字节序列(例如,一个512字节的数据块)。基于块的存储接口是最常见的存储数据方法,它们基于旋转介质,像硬盘、CD、软盘、甚至传统的9磁道磁带。无处不在的块设备接口使虚拟块设备成为与Ceph这样的海量存储系统交互的理想之选。Ceph块设备是精简配置的、大小可
- 2023-08-07K8S使用ceph-csi持久化存储之RBD
Kubernetes集成Ceph一般有两种方案:Ceph组件运行在Kubernetes中,可以使用Rook;还有就是Kubernetes集成外部的Ceph集群。Ceph版本[root@master~]#ceph-vcephversion14.2.22(ca74598065096e6fcbd8433c8779a2be0c889351)nautilus(stable)Kubernetes版本[root@master~]#k