首页 > 其他分享 >Ceph——使用普通用户挂载cephfs

Ceph——使用普通用户挂载cephfs

时间:2023-01-25 21:44:09浏览次数:43  
标签:lxhfs ceph cephfs 6789 192.168 Ceph key 普通用户 root

  创建客户端账户

  创建账户

  创建一个名为lxhfs的普通账户,允许获取ceph状态信息,允许对mds元数据有读写权限,语序对存储池cephfs-data cephfs的存储池有读写和执行权限。

cephadmin@ceph-deploy:~/ceph-cluster$ ceph auth add client.lxhfs mon 'allow r' mds 'allow rw' osd 'allow rwx pool=cephfs-data'
added key for client.lxhfs

 

  验证账户

cephadmin@ceph-deploy:~/ceph-cluster$ ceph auth get client.lxhfs
[client.lxhfs]
	key = AQBipY5j9XwqBRAAB09e1wbCpzoHbtJHMfLJlA==
	caps mds = "allow rw"
	caps mon = "allow r"
	caps osd = "allow rwx pool=cephfs-data"
exported keyring for client.lxhfs

 

  创建keyring文件

cephadmin@ceph-deploy:~/ceph-cluster$ ceph auth get client.lxhfs -o ceph.client.lxhfs.keyring
exported keyring for client.lxhfs

 

  验证用户的 keyring 文件

cephadmin@ceph-deploy:~/ceph-cluster$ ll ceph.client.lxhfs.keyring 
-rw-rw-r-- 1 cephadmin cephadmin 149 Dec  6 10:21 ceph.client.lxhfs.keyring

cephadmin@ceph-deploy:~/ceph-cluster$ cat ceph.client.lxhfs.keyring
[client.lxhfs]
	key = AQBipY5j9XwqBRAAB09e1wbCpzoHbtJHMfLJlA==
	caps mds = "allow rw"
	caps mon = "allow r"
	caps osd = "allow rwx pool=cephfs-data"

 

  创建key文件

cephadmin@ceph-deploy:~/ceph-cluster$ ceph auth print-key client.lxhfs > lxhfs.key

  

  验证用户的key文件

cephadmin@ceph-deploy:~/ceph-cluster$ cat lxhfs.key 
AQBipY5j9XwqBRAAB09e1wbCpzoHbtJHMfLJlA==cephadmin@ceph-deploy:~/ceph-cluster$ 

 

  安装 ceph 客户端

  客户端服务器为centos7

  安装epel软件源

[root@ansible ~]# yum install epel-release -y

 

  安装ceph仓库

[root@ansible ~]\# yum install https://mirrors.aliyun.com/ceph/rpm-octopus/el7/noarch/ceph-release-1-1.el7.noarch.rpm
[root@ansible ~]\# yum list ceph-common  --showduplicates |sort -r
ceph-common.x86_64                     2:15.2.17-0.el7                     Ceph 
ceph-common.x86_64                     2:15.2.17-0.el7                     @Ceph
ceph-common.x86_64                     1:10.2.5-4.el7                      base

 

  安装ceph客户端

[root@ansible ~]# yum install ceph-common -y

 

  同步客户端ceph认证文件

  将ceph-deploy节点创建的用户认证文件和ceph配置文件一并发送到客户端/etc/ceph目录下

  keyring的认证文件:主要负责客户端管理ceph的权限认证环文件

  user.key的文件:主要负责允许客户端挂载cephfs的一个凭据权限

root@ceph-deploy:/home/cephadmin/ceph-cluster# scp ceph.conf ceph.client.lxhfs.keyring lxhfs.key 192.168.100.80:/etc/ceph/

 

  客户端验证权限

  指定ceph 的 --user选项 lxhfs用户验证ceph状态

[root@ansible ~]# ceph --user lxhfs -s

 

  客户端通过 key 文件挂载

  创建数据目录

[root@ansible ~]# mkdir /fsdata

  挂载cephfs

[root@ansible ~]# mount -t ceph 192.168.100.35:6789,192.168.100.36:6789,192.168.100.37:6789:/ /fsdata -o name=lxhfs,secretfile=/etc/ceph/lxhfs.key

  参数解释:
  -t ceph:指定文件系统类型,需要服务器安装ceph-common,内核才会支持ceph文件系统。

  192.168.100.35:6789,192.168.100.36:6789,192.168.100.37:6789:/:指定ceph集群的mon节点与ceph-mon服务的端口,挂载源路径为/。

  -o name: 指定ceph用户,指在ceph服务端创建的认证用户名称

  -o secretfile:指定ceph认证用户的key文件

 

  验证挂载

 

  测试文件写入

[root@ansible ~]# tar zcf etc.tar.gz /etc

#测试文件写入
[root@ansible ~]# cp etc.tar.gz /fsdata/
[root@ansible ~]# ll /fsdata/
total 11270
-rw-r--r-- 1 root root 11540279 Dec  6 11:14 etc.tar.gz

#生成500M大文件写入
[root@ansible ~]# dd if=/dev/zero of=/fsdata/testfile bs=1M count=500
500+0 records in
500+0 records out
524288000 bytes (524 MB) copied, 4.41425 s, 119 MB/s

#查看分区使用
[root@ansible ~]# df -h /fsdata
Filesystem                                                     Size  Used Avail Use% Mounted on
192.168.100.35:6789,192.168.100.35:6789,192.168.100.35:6789:/  633G  388M  633G   1% /fsdata

 

  客户端通过 key 挂载

  挂载cephfs

[root@ansible ~]# mount -t ceph 192.168.100.35:6789,192.168.100.36:6789,192.168.100.37:6789:/ /fsdata -o name=lxhfs,secret=AQBipY5j9XwqBRAAB09e1wbCpzoHbtJHMfLJlA==

  参数解释:
  -t ceph:指定文件系统类型,需要服务器安装ceph-common,内核才会支持ceph文件系统。

  192.168.100.35:6789,192.168.100.35:6789,192.168.100.35:6789:/:指定ceph集群的mon节点与ceph-mon服务的端口,挂载源路径为/。

  -o name: 指定ceph用户,指在ceph服务端创建的认证用户名称

  -o secret:指定ceph认证用户的key

 

  验证挂载

 

  开机挂载

  配置/etc/fstab添加cephfs挂载

[root@ansible ~]# vim /etc/fstab
192.168.100.35:6789,192.168.100.35:6789,192.168.100.35:6789:/ /fsdata ceph defaults,name=lxhfs,secretfile=/etc/ceph/lxhfs.
key,_netdev 0 0

  验证挂载

标签:lxhfs,ceph,cephfs,6789,192.168,Ceph,key,普通用户,root
From: https://www.cnblogs.com/punchlinux/p/17067324.html

相关文章

  • cephfs的部署和使用
      cephfs使用  cephFS即cephfilesystem,可以实现文件系统共享功能(POSIX标准),客户端通过ceph协议挂载并使用ceph集群作为数据存储服务器,https://docs.ceph.c......
  • Ceph pg的常见状态
      PG的常见在状态如下:  Peering   正在同步状态,同一个PG中的OSD需要将准备数据同步一致,而Peering(对等)就是OSD同步过程中的状态。   Activating ......
  • 通过命令管理ceph集群
      ceph集群维护  http://docs.ceph.org.cn/rados/ ceph集群配置、部署与运维   通过套接字进行单机管理  在ceph的节点上使用socket管理只针对ceph的节点......
  • Ceph基于普通用于挂载块存储、实现对块存储的动态空间拉伸
      客户端使用普通账户挂载并使用RBD  测试客户端使用普通账户挂载并使用RBD   创建普通账户并授权  创建普通账户cephadmin@ceph-deploy:~/ceph-cluster$......
  • rook搭建ceph
    待补充$gitclone--single-branch--branchv1.10.9https://github.com/rook/rook.gitcdrook/deploy/examples/#查看要下载的镜像及版本$catimages.txtquay.......
  • ceph账户的授权
      Ceph使用cephx协议对客户端进行身份认证。  cephx用于对ceph保存的数据进行认证访问和授权,用于对访问ceph的请求进行认证和授权检测,与mon通信的请求都要......
  • ceph octups 15.2.1部署
    目录互信和解析时钟配置源安装包部署mon部署osd部署mgr部署mds文件系统使用创建fs的库和meta库创建文件系统挂载文件系统(内核驱动方法)其他报错信息及处理常用命令互信和......
  • ceph集群添加node节点及OSD
      初始化ceph存储节点  初始化存储节点等于在存储节点安装了ceph及ceph-rodsgw安装包,但是使用默认的官方仓库会因为网络原因导致初始化超时,因此各存储节点推荐......
  • 基于ceph-deploy部署ceph 16.2.x 单节点mon和mgr环境
      ceph的部署方法和要求  部署方式  ceph-ansible:https://github.com/ceph/ceph-ansible #python  ceph-salt:https://github.com/ceph/ceph-salt #python ......
  • ceph的组件介绍
      ceph是一个开源的分布式存储系统,同时支持对象存储、块存储、文件系统   ceph支持EB(1EB=1,000,000,000GB)级别的数据存储,ceph把每一个待管理的数据流(文件等数据)......