首页 > 其他分享 >Ceph集群应用基础-块存储RBD

Ceph集群应用基础-块存储RBD

时间:2022-09-07 12:57:15浏览次数:67  
标签:rbd centos myrbd1 mnt VM Ceph 集群 RBD root

块存储RBD基础

创建RBD

创建存储池,制定pg和pgp的数量,pgp是对存在于pg的数据进行组合存储,pgp通常等于pg的值

ceph osd pool create myrbd1 64 64

对存储池启用RBD功能

ceph osd pool application enable myrbd1 rbd

通过rbd命令对存储池进行初始化

rbd pool init -p myrbd1

创建一个名为myimg1的镜像

rbd create myimg1 --size 5G --pool myrbd1

查看指定rbd信息

cephadmin@deploy:~$ rbd --image myimg1 --pool myrbd1 info
rbd image 'myimg1':
	size 5 GiB in 1280 objects
	order 22 (4 MiB objects)
	snapshot_count: 0
	id: 10f8357f64fe
	block_name_prefix: rbd_data.10f8357f64fe
	format: 2
	features: layering, exclusive-lock, object-map, fast-diff, deep-flatten
	op_features: 
	flags: 
	create_timestamp: Wed Sep  7 10:37:21 2022
	access_timestamp: Wed Sep  7 10:37:21 2022
	modify_timestamp: Wed Sep  7 10:37:21 2022

创建指定特性的img

cephadmin@deploy:~$ rbd create myimg2 --size 3G --pool myrbd1 --image-format 2 --image-feature layering
cephadmin@deploy:~$ rbd --image myimg2 --pool myrbd1 info
rbd image 'myimg2':
	size 3 GiB in 768 objects
	order 22 (4 MiB objects)
	snapshot_count: 0
	id: 1113fd72fb3e
	block_name_prefix: rbd_data.1113fd72fb3e
	format: 2
	features: layering
	op_features: 
	flags: 
	create_timestamp: Wed Sep  7 10:44:07 2022
	access_timestamp: Wed Sep  7 10:44:07 2022
	modify_timestamp: Wed Sep  7 10:44:07 2022

当前ceph状态

cephadmin@deploy:~$ ceph df
--- RAW STORAGE ---
CLASS     SIZE    AVAIL    USED  RAW USED  %RAW USED
hdd    600 GiB  600 GiB  81 MiB    81 MiB       0.01
TOTAL  600 GiB  600 GiB  81 MiB    81 MiB       0.01
 
--- POOLS ---
POOL                   ID  PGS  STORED  OBJECTS    USED  %USED  MAX AVAIL
device_health_metrics   1    1     0 B        0     0 B      0    190 GiB
mypool                  2   32     0 B        0     0 B      0    190 GiB
myrbd1                  3   64   405 B        7  48 KiB      0    190 GiB

使用centos挂载ceph存储,安装ceph-common

yum install epel-release
yum install https://mirrors.tuna.tsinghua.edu.cn/ceph/rpm-octopus/el7/noarch/ceph-release-1-1.el7.noarch.rpm -y
yum install ceph-common -y

客户端映射img,myimg2可以映射,myimg1不可以,img格式问题,内核不支持,可以升级内核试试。

或者关掉object-map fast-diff deep-flatten特性就可以映射了

[root@VM-0-9-centos ~]# rbd -p myrbd1 map myimg2
/dev/rbd0
[root@VM-0-9-centos ~]# rbd -p myrbd1 map myimg1
rbd: sysfs write failed
RBD image feature set mismatch. You can disable features unsupported by the kernel with "rbd feature disable myrbd1/myimg1 object-map fast-diff deep-flatten".
In some cases useful info is found in syslog - try "dmesg | tail".
rbd: map failed: (6) No such device or address
[root@VM-0-9-centos ~]# rbd feature disable myrbd1/myimg1 object-map fast-diff deep-flatten
[root@VM-0-9-centos ~]# rbd -p myrbd1 map myimg1
/dev/rbd1

 映射之后fdisk -l就可以看到了

直接将/dev/rbd1格式话 挂载就可以使用了

[root@VM-0-9-centos ~]# mkfs.xfs /dev/rbd1
meta-data=/dev/rbd1              isize=512    agcount=8, agsize=163840 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=1310720, imaxpct=25
         =                       sunit=1024   swidth=1024 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@VM-0-9-centos ~]# mount /dev/rbd1 /mnt
[root@VM-0-9-centos ~]# cd /mnt/
[root@VM-0-9-centos mnt]# touch 1

测试一下速率1.8G/s 速度还是不错的。

 

删除文件

rm -rf /mnt/file

直接删除文件看空间并没有释放出来。

释放空间

[root@VM-0-9-centos ~]# fstrim -v /mnt
/mnt: 5 GiB (5353766912 bytes) trimmed

在查就有了

配置挂载选项

[root@VM-0-9-centos ~]# umount /mnt
[root@VM-0-9-centos ~]# mount -t xfs -o discard /dev/rbd1 /mnt

还可以看到之前的数据

继续写一个文件

[root@VM-0-9-centos ~]# dd if=/dev/zero of=/mnt/file bs=1M count=300

把文件删掉,这次空间就会自动释放掉了

[root@VM-0-9-centos ~]# rm -rf /mnt/file

 

标签:rbd,centos,myrbd1,mnt,VM,Ceph,集群,RBD,root
From: https://www.cnblogs.com/zyyang1993/p/16664563.html

相关文章

  • 利用docker-compose快速搭建kafka集群
    一、安装docker-compose工具安装docker-compose事先需要安装docker,这里需要自行安装#升级pippip3install--upgradepip#指定docker-compose版本安装pipinst......
  • Ceph安装部署
     Monitor Mgr MdsOSDDeploy数量22 41CPU8c8c 4c4cMemory16g16g 16g8g硬盘200g200g 500g*3200g系统ubuntu18.04u......
  • 二进制部署k8s集群v1.23.9版本-17-安装minio
    17.1、准备minio镜像192.168.1.200操作dockerpullminio/minio:latestdockerimages|grepminiodockertage31e0721a96bharbor.qgutech.com/middleware/minio:lates......
  • 集群化部署ZabbixServer
    修改Zabbix-agent配置1、修改配置文件三台zabbix-Server上操作vim/etc/zabbix/zabbix_agent2.confServer=127.0.0.1改成Server=192.168.168.101,192.168.168.102,19......
  • Zookeeper-伪集群版安装配置(CentOS)
    Zookeeper-伪集群版安装配置(CentOS)集群设计注意避免今后与已知的端口冲突尽量选择10000后的端口ID节点主机名集群选举接口集群广播接口客户端连接端口1node11......
  • Zookeeper-伪集群版安装配置(CentOS)
    Zookeeper-伪集群版安装配置(CentOS)集群设计注意避免今后与已知的端口冲突尽量选择10000后的端口ID节点主机名集群选举接口集群广播接口客户端连接端口1node11......
  • 11-redis集群
    redis集群搭建#搭建三主三从redis集群#redis5.0提供了集群快速搭建#修改脚本文件:redis/utils/create-cluster目录下的create-cluster脚本文件--bind$IP--mast......
  • HBase集群部署与基础命令
    HBase集群部署安装hbase之前需要先搭建好hadoop集群和zookeeper集群。hadoop集群搭建可以参考:https://www.cnblogs.com/javammc/p/16545146.html下载安装包htt......
  • KingbaseES V8R6集群维护案例之---停用集群node_export进程
    案例说明:在KingbaseESV8R6集群启动时,会启动node_exporter进程,此进程主要用于向kmonitor监控服务输出节点状态信息。在系统安全漏洞扫描中,提示出现以下安全漏洞:对于未使......
  • Redis集群模式哈希槽rename问题
    (error)ERR'RENAME'commandkeysmustinsameslot一、介绍我们先来看基本的介绍RedisRename命令用于修改key的名称。1、语法redisrename命令的基本用法如......