首页 > 其他分享 >Ceph集群应用基础-CephFS文件存储

Ceph集群应用基础-CephFS文件存储

时间:2022-09-07 13:44:11浏览次数:68  
标签:ceph mgr1 deploy Ceph cephadmin 集群 active CephFS data

在mgr1上安装ceph-mds服务,可以和其他服务器混用(如ceph-mon、ceph-mgr)

root@mgr1:~# apt-cache madison ceph-mds
root@mgr1:~# apt install ceph-md=16.2.10-1bionic

把mgr1主机加进来创建成mds服务

cephadmin@deploy:~$ ceph-deploy mds create mgr1

验证MDS服务

MDS服务目前还无法正常使用,需要为MDS创建存储池用于保存MDS的数据

up:standby当前为备用状态,需要分配pool才可以使用

cephadmin@deploy:~$ ceph mds stat
 1 up:standby

创建CephFs metadata和data存储池

cephadmin@deploy:~$ ceph osd pool create cephfs-metadata 32 32
pool 'cephfs-metadata' created
cephadmin@deploy:~$ ceph osd pool create cephfs-data 64 64
pool 'cephfs-data' created
cephadmin@deploy:~$ ceph -s
  cluster:
    id:     dc883878-2675-4786-b000-ae9b68ab3098
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum mon1,mon2,mon3 (age 3h)
    mgr: mgr1(active, since 3h), standbys: mgr2
    osd: 12 osds: 12 up (since 3h), 12 in (since 3h)
    rgw: 1 daemon active (1 hosts, 1 zones)
 
  data:
    pools:   9 pools, 297 pgs
    objects: 206 objects, 10 MiB
    usage:   273 MiB used, 600 GiB / 600 GiB avail
    pgs:     7.744% pgs not active
             274 active+clean
             23  creating+peering
 
  io:
    client:   5.3 KiB/s wr, 0 op/s rd, 0 op/s wr

创建CephFS并验证

cephadmin@deploy:~$ ceph fs new mycephfs cephfs-metadata cephfs-data
new fs with metadata pool 8 and data pool 9

这样状态就都是活跃的了

cephadmin@deploy:~$ ceph mds stat
mycephfs:1 {0=mgr1=up:active}
cephadmin@deploy:~$ ceph fs status mycephfs
mycephfs - 0 clients
========
RANK  STATE   MDS      ACTIVITY     DNS    INOS   DIRS   CAPS  
 0    active  mgr1  Reqs:    0 /s    10     13     12      0   
      POOL         TYPE     USED  AVAIL  
cephfs-metadata  metadata  96.0k   189G  
  cephfs-data      data       0    189G  
MDS version: ceph version 16.2.10 (45fa1a083152e41a408d15505f594ec5f1b4fe17) pacific (stable)
cephadmin@deploy:~$ ceph -s
  cluster:
    id:     dc883878-2675-4786-b000-ae9b68ab3098
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum mon1,mon2,mon3 (age 3h)
    mgr: mgr1(active, since 3h), standbys: mgr2
    mds: 1/1 daemons up
    osd: 12 osds: 12 up (since 3h), 12 in (since 3h)
    rgw: 1 daemon active (1 hosts, 1 zones)
 
  data:
    volumes: 1/1 healthy
    pools:   9 pools, 297 pgs
    objects: 228 objects, 10 MiB
    usage:   277 MiB used, 600 GiB / 600 GiB avail
    pgs:     297 active+clean
 
  io:
    client:   2.7 KiB/s wr, 0 op/s rd, 0 op/s wr

使用centos服务器挂载CephFs

10.0.0.17是我的mon地址

secret是我的client.admin的key

mount -t ceph 10.0.0.17:6789:/ /mnt -o name=admin,secret=AQDq+hdjGPjrCRAA2xLvyNb1T2GulPif4FXLrA==

echo一个文件

echo "123" > 1.txt

我用另外一台服务器直接挂在CephFS,可以发现已经有1.txt可以尝试修改文件,是实施更新的。

mount -t ceph 10.0.0.17:6789:/ /mnt -o name=admin,secret=AQDq+hdjGPjrCRAA2xLvyNb1T2GulPif4FXLrA==

 

标签:ceph,mgr1,deploy,Ceph,cephadmin,集群,active,CephFS,data
From: https://www.cnblogs.com/zyyang1993/p/16665117.html

相关文章

  • redis 集群安装
    1.前期准备安装ruby升级ruby参见前一篇前期准备#EPEL源安装ruby支持yuminstallrubyrubygems-y使用国内源gemsource-ahttp://mirrors.aliyun.com/rubyge......
  • Ceph集群应用基础-RGW对象存储
    部署radodgw服务,将mgr服务器部署为RGW主机aptinstallradosgw=16.2.10-1bionicceph-deploy--overwrite-confrgwcreatemgr1 直接浏览器访问,能访问到说明启动成功......
  • Ceph集群应用基础-块存储RBD
    块存储RBD基础创建RBD创建存储池,制定pg和pgp的数量,pgp是对存在于pg的数据进行组合存储,pgp通常等于pg的值cephosdpoolcreatemyrbd16464对存储池启用RBD功能ceph......
  • 利用docker-compose快速搭建kafka集群
    一、安装docker-compose工具安装docker-compose事先需要安装docker,这里需要自行安装#升级pippip3install--upgradepip#指定docker-compose版本安装pipinst......
  • Ceph安装部署
     Monitor Mgr MdsOSDDeploy数量22 41CPU8c8c 4c4cMemory16g16g 16g8g硬盘200g200g 500g*3200g系统ubuntu18.04u......
  • 二进制部署k8s集群v1.23.9版本-17-安装minio
    17.1、准备minio镜像192.168.1.200操作dockerpullminio/minio:latestdockerimages|grepminiodockertage31e0721a96bharbor.qgutech.com/middleware/minio:lates......
  • 集群化部署ZabbixServer
    修改Zabbix-agent配置1、修改配置文件三台zabbix-Server上操作vim/etc/zabbix/zabbix_agent2.confServer=127.0.0.1改成Server=192.168.168.101,192.168.168.102,19......
  • Zookeeper-伪集群版安装配置(CentOS)
    Zookeeper-伪集群版安装配置(CentOS)集群设计注意避免今后与已知的端口冲突尽量选择10000后的端口ID节点主机名集群选举接口集群广播接口客户端连接端口1node11......
  • Zookeeper-伪集群版安装配置(CentOS)
    Zookeeper-伪集群版安装配置(CentOS)集群设计注意避免今后与已知的端口冲突尽量选择10000后的端口ID节点主机名集群选举接口集群广播接口客户端连接端口1node11......
  • 11-redis集群
    redis集群搭建#搭建三主三从redis集群#redis5.0提供了集群快速搭建#修改脚本文件:redis/utils/create-cluster目录下的create-cluster脚本文件--bind$IP--mast......