首页 > 其他分享 >ceph:纯手工配置osd磁盘及服务

ceph:纯手工配置osd磁盘及服务

时间:2024-08-30 16:14:13浏览次数:2  
标签:-- number 目录 ceph 纯手工 osd ###

 

#######################################################################
准备ceph用户环境(shell、homedir)
准备ceph的相关父目录
准备ceph.conf ceph.client.admin.keyring

主备相同容量的 整个磁盘、一个裸分区、一个lvm逻辑分区; 或一个posix文件系统目录
特别提醒:ceph用户需要有其上的rwx权限!

配置好ceph monitor
生成相应osd.${number}的keyring文件、并将其导入到ceph monitor auth系统


#######################################################################
### 为了方便,先以 root 用户操作

### 配置ceph monitor osd 子系统的 fsid

export UUID=`uuidgen` && echo ${UUID}
举例:623b660b-88d2-49c7-b9ed-268a011ad7b3

ceph osd new ${UUID}
或者我们可以自己指定 ${number},以便利旧,且消除crushmap孔隙
ceph osd new ${UUID} ${number}

#######################################################################

### 创建对应 ${number} 的osd数据目录
mkdir -p /var/lib/ceph/osd/ceph-${number}

### copy相应osd.${number}的keyring文件到该目录

### 如果是 创建“ 整个磁盘、一个裸分区、一个lvm逻辑分区”的符号连接block,则使用bluestore存储(默认)。强烈建议:明确指明是bluestore存储!
### 如果是 “一个posix文件系统目录”,则不需要任何多余动作
### 特别提醒:如果改位置曾经ceph-osd创建过mkfs,之后再次创建mkfs就会报错,得根据情况清理之前的配置,rm 删除 或 dd 擦除。

ceph-osd -d -i ${number} --mkfs --osd-objectstore bluestore --osd-data /{user-data-dir} [--osd-journal /{user-journal-dir-or-device}]

### 最小化配置,如果我们知道自己使用的是filestore模式,可以简单的将osd的系统配置目录直接通过符号连接的方式配置
ceph-osd -d -i ${number} --mkfs

#######################################################################
### 特别的,修改相关目录的属主为ceph

chown -R ceph.ceph /var/lib/ceph/osd/ceph-${number}
chown -R ceph.ceph /{user-data-dir}
[chown -R ceph.ceph /{user-journal-dir-or-device}]


#######################################################################
### 以 ceph 启动服务
su - ceph
ceph-osd -d -i ${number}

 

标签:--,number,目录,ceph,纯手工,osd,###
From: https://www.cnblogs.com/jinzhenshui/p/18388956

相关文章

  • ceph:纯手动配置mon
    准备:mon的keyringcd/etc/cephceph-authtool-Cceph.keyring-g-n'mon.'--capmon'allow*'--caposd'allow*'--capmgr'allow*'--capmds'allow*'ceph-authtoolceph.keyring-l#vi编辑这个ceph.key......
  • Openstack 与 Ceph集群搭建(完结): 配置Ceph作为Openstack后端存储
    文章目录参考文章1.前置任务1.0修改Openstack配置文件1.1.完成搭建的Ceph集群1.2.完成存储pool的创建1.3.针对OpenStack服务提供的Cephkeyring1.3.1.生成glance的keyring1.3.2.生成Cinder的keyring1.3.3.生成Cinder-backup的Keyring1.3.4.生成Nova的keyring2......
  • ceph集群
    环境3台centos 8机器,每台机器上边3个磁盘机器名:ceph1、ceph2、ceph3ceph-ansible集群部署在ceph1上边准备好ceph-ansiblegitclonehttps://github.com/ceph/ceph-ansible.gitcdceph-ansiblegitcheckoutstable-5.0#centos7用4.0pip3install-rrequirements.txt......
  • ceph-messenger模块代码走读(1)
    messenger代码走读messenger的使用以mgr代码为例,看看messengrr的初始化和启动。//构造函数,初始化一个client_messenger对象。MgrStandby::MgrStandby(intargc,constchar**argv):Dispatcher(g_ceph_context),monc{g_ceph_context,poolctx},client_messenger(M......
  • 探索 Kubernetes 持久化存储之 Rook Ceph 初窥门径
    在Kubernetes生态系统中,持久化存储是支撑业务应用稳定运行的基石,对于维护整个系统的健壮性至关重要。对于选择自主搭建Kubernetes集群的运维架构师来说,挑选合适的后端持久化存储解决方案是关键的选型决策。目前,Ceph、GlusterFS、NFS、Longhorn和openEBS等解决方案已在业界......
  • ceph如何进行数据的读写(2)
    本章摘要上文说到,librados/IoctxImpl.cc中调用objecter_op和objecter的op_submit函数,进行op请求的封装、加参和提交。本文详细介绍相关函数的调用。osdc中的操作初始化Op对象,提交请求设置Op对象的时间,oid,操作类型等信息。//osdc/Objector.h//mid-levelhelpersOp*pr......
  • ceph如何进行数据的读写(3)
    本章摘要上文说到,osdc中封装请求,使用message中的相关机制将请求发送出去。本文详细介绍osd服务端如何进行请求的接收。osd初始化osd启动时,定义了message变量ms_public,该变量绑定public网络,负责接收客户端的请求。ms_public会启动对应的线程进行接收,并指定接收函数。//ceph_......
  • ceph如何进行数据的读写(1)
    版本ceph版本为17.ceph如何进行读写接口的实现Ceph的客户端通过librados的接口进行集群的访问,这里的访问包括:1)对集群的整体访问2)对象的访问两类接口,这套接口(API)包括C、C++和Python的实现,接口通过网络实现对Ceph集群的访问。在客户端层面,可以在自己的程序中调用该接口,从而集......
  • Ceph介绍
    1. Ceph简介Ceph是一种开源的分布式存储系统,它旨在提供高性能、高可靠性和可伸缩性的存储解决方案。Ceph作为一个软件定义存储(SDS)系统可以在通用硬件上运行,并支持多种存储类型,包括对象存储、块存储和文件系统。Ceph从2006年开源至今,一直是主流的分布式存储系统,已在OpenStac......
  • ceph分布式存储系统
    cephceph是一个开源的,用c++语言编写的分布式的存储系统,存储文件数据。lvm逻辑卷可以扩容raid磁盘阵列高可用基于物理意义上的存储系统分布式就是多台物理磁盘组成的一个集群,在这个基础之后实现高可用,扩展特点:1、远程访问2、多个服务器组成的虚拟硬盘3、分布式......