首页 > 其他分享 >ceph集群搭建,ceph块存储,文件存储,对象存储

ceph集群搭建,ceph块存储,文件存储,对象存储

时间:2024-12-12 09:28:57浏览次数:4  
标签:存储 -- 192.168 ceph etc 集群 img1 rbd

一.ceph集群搭建步骤流程
		
	1.利用cephadm工具初始化ceph集群,Ceph1节点初始化节点为管理节点
		Ceph在使用过程中是无中心化结构,但搭建过程中选择集群某一个节点作为初始化管理节点,然后扩容其他节点
		[root@ceph1 ~]# ./cephadm bootstrap \	           #初始化集群 
			> --mon-ip 192.168.88.11 \                  #指定初始化节点IP地址
			> --initial-dashboard-password=123456 \     #指定dashboard面板密码
			> --dashboard-password-noupdate             #不更新dashboard面板密码

	2.同步ceph密钥
		Ceph 集群通常由多个节点组成,包括监视器(MON)、对象存储守护进程(OSD)和管理器(MGR)等
		通过将 Ceph 公钥同步到所有节点,可以简化管理员通过 SSH 登录到这些节点的过程,无需每次输入密码

			ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph1 #-f强制 
		
	3.扩容ceph集群
			ceph orch host add ceph2 192.168.88.12  #将ceph2加入集群
				
	4.搭建OSD服务
			ceph orch daemon add osd ceph1:/dev/vdb #绑定单个硬盘
			ceph orch apply osd --all-available-device #OSD绑定所有可用状态硬盘

	5.确认集群状态
			ceph -s

1.Ceph块存储使用(大量数据读写,数据库服务为主)
块存储客户端的使用流程:
	     1)获取集群配置文件,和用户认证文件
		yum -y install ceph-common
		scp root@192.168.88.11:/etc/ceph/ceph.conf /etc/ceph/
		scp root@192.168.88.11:/etc/ceph/ceph.client.admin.keyring /etc/ceph/
		/etc/ceph/ceph.client.admin.keyring:存储了公钥和私钥,有这个位文件才能操作集群


	     2)创建存储池,设置类型
			ceph osd pool create aaa 64
			ceph osd pool application enable aaa rbd 
	     3)创建镜像
			rbd create aaa/img1(名) --size 10G:创建镜像,aaa为存储池子名
	     4)映射镜像
			rbd map img1
	     5)格式化挂载使用
			mkfs.xfs /dev/rbd0            
			mount /dev/rbd0 /data/         

	     6)创建快照,保护快照
			rbd snap create img1 --snap img1-sn1   #创建名为img1-sn1快照
			rbd snap protect img1 --snap img1-sn1  #保护指定快照
	     7)快照克隆(实现数据共享)
			rbd clone img2 --snap img2-sn1 img2-sn1-clone1  #克隆镜像img2-sn1-1
	     8)独立克隆镜像
			rbd flatten img2-sn1-2             #将img2所有的数据拷贝到克隆镜像
		
	     9)开机自动映射和自动挂载

		 开机自动映射:
			编辑配置文件: /etc/ceph/rbdmap 
			 rbd/img1   id=admin,keyring=/etc/ceph/ceph.client.admin.keyring
			 	     (admin用户,以及它对应的密码文件路径)
			重启服务:systemctl enable rbdmap.service --now

		 开机自动挂载:
			编辑配置文件:  /etc/fstab 
			/dev/rbd/rbd/img1   /data/  xfs    noauto 0 0
			(/dev/rbd磁盘的rbd池的img1镜像,noauto,开机加载出磁盘及服务后在挂载)

2.ceph文件存储服务MDS的搭建及使用(创建一个共享文件目录)
	1.搭建MDS服务
		(两个存储池=数据池+元数据池)
		1)创建数据池/元数据池
			ceph osd pool create data01/metadata01 128  
  
		2)利用两个池子创建文件系统存储
			ceph fs new myfs01 metadata01 data01
	  
		3)部署mds服务
			ceph orch apply mds myfs01 --placement='3 ceph1 ceph2 ceph3' 

		4)挂载使用
			192.168.88.11,192.168.88.12,192.168.88.13:/ /mydata ceph name=admin,secret=AQAVfwtmJmI/CRAAKg1mVOsRIHcTvQckllYZsA==,fs=myfs01,_netdev 0 2
	2.MDS的使用
		1)确认cephfs支持相关包已安装
		2)创建目录挂载使用
		3)永久挂载/etc/fstab
			192.168.88.11,192.168.88.12,192.168.88.13:/ /mydata ceph name=admin,secret=AQAVfwtmJmI/CRAAKg1mVOsRIHcTvQckllYZsA==,fs=myfs01,_netdev 0 2


3.Ceph对象存储服务RGW的搭建及使用(大量的非结构化的图形,图像数据)

	1.搭建rgw服务

		1)部署rgw服务
		ceph orch apply rgw myrgw --placement="3 ceph1 ceph2 ceph3" --port 8080
	
		2)创建rgw用户,分配桶权限
		radosgw-admin user create --uid=testuser --display-name="Test User" --email=test@tedu.cn --access-key=12345 --secret-key=67890

		3)安装awscli工具,配置用户绑定
			yum -y install awscli.noarch
	
			aws configure --profile=ceph
				指定密码给用户绑定桶:
				AWS Access Key ID [None]: 12345         #输入access_key
				AWS Secret Access Key [None]: 67890     #输入secret_key

		4)创建桶:数据的容器
		   aws --profile=ceph --endpoint=http://ceph1:8080 s3 mb s3://testbucket
				--profile=ceph:上面已经绑定的名称
				--endpoint:指定空间位置
				testbucket:这是要创建的S3存储桶的名称
	2.RGW使用

		1)文件上传
			aws --profile=ceph --endpoint=http://ceph1:8080 --acl=public-read-write s3 cp /etc/hosts s3://testbucket/hosts.txt
			--acl:访问控制列表,指定某人读取该文件的权限等

		2)文件下载
			wget -O zhuji.txt http://ceph1:8080/testbucket/hosts.txt
			-o:指定日志文件的输出位置,默认终端

一.ceph集群搭建步骤流程
        
    1.利用cephadm工具初始化ceph集群,Ceph1节点初始化节点为管理节点
        Ceph在使用过程中是无中心化结构,但搭建过程中选择集群某一个节点作为初始化管理节点,然后扩容其他节点
        [root@ceph1 ~]# ./cephadm bootstrap \               #初始化集群 
            > --mon-ip 192.168.88.11 \                  #指定初始化节点IP地址
            > --initial-dashboard-password=123456 \     #指定dashboard面板密码
            > --dashboard-password-noupdate             #不更新dashboard面板密码

    2.同步ceph密钥
        Ceph 集群通常由多个节点组成,包括监视器(MON)、对象存储守护进程(OSD)和管理器(MGR)等
        通过将 Ceph 公钥同步到所有节点,可以简化管理员通过 SSH 登录到这些节点的过程,无需每次输入密码

            ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph1 #-f强制 
        
    3.扩容ceph集群
            ceph orch host add ceph2 192.168.88.12  #将ceph2加入集群
                
    4.搭建OSD服务
            ceph orch daemon add osd ceph1:/dev/vdb #绑定单个硬盘
            ceph orch apply osd --all-available-device #OSD绑定所有可用状态硬盘

    5.确认集群状态
            ceph -s

1.Ceph块存储使用(大量数据读写,数据库服务为主)
块存储客户端的使用流程:
         1)获取集群配置文件,和用户认证文件
        yum -y install ceph-common
        scp root@192.168.88.11:/etc/ceph/ceph.conf /etc/ceph/
        scp root@192.168.88.11:/etc/ceph/ceph.client.admin.keyring /etc/ceph/
        /etc/ceph/ceph.client.admin.keyring:存储了公钥和私钥,有这个位文件才能操作集群


         2)创建存储池,设置类型
            ceph osd pool create aaa 64
            ceph osd pool application enable aaa rbd 
         3)创建镜像
            rbd create aaa/img1(名) --size 10G:创建镜像,aaa为存储池子名
         4)映射镜像
            rbd map img1
         5)格式化挂载使用
            mkfs.xfs /dev/rbd0            
            mount /dev/rbd0 /data/         

         6)创建快照,保护快照
            rbd snap create img1 --snap img1-sn1   #创建名为img1-sn1快照
            rbd snap protect img1 --snap img1-sn1  #保护指定快照
         7)快照克隆(实现数据共享)
            rbd clone img2 --snap img2-sn1 img2-sn1-clone1  #克隆镜像img2-sn1-1
         8)独立克隆镜像
            rbd flatten img2-sn1-2             #将img2所有的数据拷贝到克隆镜像
        
         9)开机自动映射和自动挂载

         开机自动映射:
            编辑配置文件: /etc/ceph/rbdmap 
             rbd/img1   id=admin,keyring=/etc/ceph/ceph.client.admin.keyring
                      (admin用户,以及它对应的密码文件路径)
            重启服务:systemctl enable rbdmap.service --now

         开机自动挂载:
            编辑配置文件:  /etc/fstab 
            /dev/rbd/rbd/img1   /data/  xfs    noauto 0 0
            (/dev/rbd磁盘的rbd池的img1镜像,noauto,开机加载出磁盘及服务后在挂载)

2.ceph文件存储服务MDS的搭建及使用(创建一个共享文件目录)
    1.搭建MDS服务
        (两个存储池=数据池+元数据池)
        1)创建数据池/元数据池
            ceph osd pool create data01/metadata01 128  
  
        2)利用两个池子创建文件系统存储
            ceph fs new myfs01 metadata01 data01
      
        3)部署mds服务
            ceph orch apply mds myfs01 --placement='3 ceph1 ceph2 ceph3' 

        4)挂载使用
            192.168.88.11,192.168.88.12,192.168.88.13:/ /mydata ceph name=admin,secret=AQAVfwtmJmI/CRAAKg1mVOsRIHcTvQckllYZsA==,fs=myfs01,_netdev 0 2
    2.MDS的使用
        1)确认cephfs支持相关包已安装
        2)创建目录挂载使用
        3)永久挂载/etc/fstab
            192.168.88.11,192.168.88.12,192.168.88.13:/ /mydata ceph name=admin,secret=AQAVfwtmJmI/CRAAKg1mVOsRIHcTvQckllYZsA==,fs=myfs01,_netdev 0 2


3.Ceph对象存储服务RGW的搭建及使用(大量的非结构化的图形,图像数据)

    1.搭建rgw服务

        1)部署rgw服务
        ceph orch apply rgw myrgw --placement="3 ceph1 ceph2 ceph3" --port 8080
    
        2)创建rgw用户,分配桶权限
        radosgw-admin user create --uid=testuser --display-name="Test User" --email=test@tedu.cn --access-key=12345 --secret-key=67890

        3)安装awscli工具,配置用户绑定
            yum -y install awscli.noarch
    
            aws configure --profile=ceph
                指定密码给用户绑定桶:
                AWS Access Key ID [None]: 12345         #输入access_key
                AWS Secret Access Key [None]: 67890     #输入secret_key

        4)创建桶:数据的容器
           aws --profile=ceph --endpoint=http://ceph1:8080 s3 mb s3://testbucket
                --profile=ceph:上面已经绑定的名称
                --endpoint:指定空间位置
                testbucket:这是要创建的S3存储桶的名称
    2.RGW使用

        1)文件上传
            aws --profile=ceph --endpoint=http://ceph1:8080 --acl=public-read-write s3 cp /etc/hosts s3://testbucket/hosts.txt
            --acl:访问控制列表,指定某人读取该文件的权限等

        2)文件下载
            wget -O zhuji.txt http://ceph1:8080/testbucket/hosts.txt
            -o:指定日志文件的输出位置,默认终端
 

标签:存储,--,192.168,ceph,etc,集群,img1,rbd
From: https://blog.csdn.net/qq_50655286/article/details/144346826

相关文章

  • JS进阶DAY5|本地存储
    嗨~......
  • 通过 sealos 部署 k8s 集群
    sealos官方文档release背景sealos是用于一键部署k8s集群的工具。对于不想被太多操作系统细节配置困扰,又想快速装好一套测试k8s集群的同学,无疑是很方便的网上教程很多,这边自己简单写下在公司机器上安装的过程,绕了一部分坑,帮助大家更快地使用官方文档还说明sealos可用来......
  • ccache的存储逻辑
    ccache的存储逻辑在cmake当中指定的CCACHE_PATH是ccache程序本身的可执行文件路径,即告诉系统去哪里找到ccache这个程序。在你的例子中是位于/usr/local/bin/ccache在PATH当中指定的CCACHE_DIR是ccache用来存储编译缓存的目录路径。在你的例子中缓存会被存储在/wor......
  • Java 里的对象在虚拟机里面是怎么存储的?
    Java中的对象在虚拟机里的存储在Java中,对象在虚拟机中的存储方式取决于JVM内存模型,主要存储在堆(Heap)中。对象的内存布局和管理方式会影响对象的创建、访问和销毁。下面详细解释对象在JVM中的存储结构。1.对象在堆中的存储Java中的对象通常存储在堆内存中。堆内存......
  • 安卓存储目录总结
    应用敏感信息目录路径:/data/data/<包名>目录用途shared_prefsSharedPreferences键值对的存储路径filesDataStore数据仓库的存储路径databasesSqlite数据库的存储路径应用私有数据目录路径:/storage/emulated/0/Android/data/<包名>相关API示例:getEx......
  • 共享存储服务nfs【转】
    已知samba主要用于linux与windows之间共享文件夹那用于Linux之间进行文件共享则是用NFS服务(NetworkFileSystem)目的在于让不同的机器,不同的操作系统可以彼此分享各自的文件数据。NFS服务可以将远程Linux系统上的文件共享资源挂载到本地机器的目录上。企业生产集群为什么需要......
  • GlusterFS 离线安装与集群配置指南
    GlusterFS离线安装与集群配置指南1.准备安装包1.1创建存放目录mkdirglusterfs-packages1.2下载离线包sudoaptinstall--download-onlyglusterfs-server1.3整理安装包cdglusterfs-packagessudocp/var/cache/apt/archives/*.deb.1.4分发安装包注意:请确......
  • 百度文本编辑器Ueditor存储、取用以及生成PDF
    一.Ueditor存储、取用1.引用编辑器配置文件 2.设置编辑器的大小 3.加載編輯器的容器 4.从数据库获取到内容后,js赋值到编辑器中(result.NoticeMsg是我获取的内容) 5.点击新增时,编辑器进行清空处理:ue.setContent("");6.点击保存时,获取编辑器内容并打包成json传送到后端......
  • 基于Java中的SSM框架实现消防物资存储系统项目【项目源码+论文说明】
    摘要网络的广泛应用给生活带来了十分的便利。所以把消防物资存储管理与现在网络相结合,利用java技术建设消防物资存储系统,实现消防物资存储的信息化。则对于进一步提高消防物资存储管理发展,丰富消防物资存储管理经验能起到不少的促进作用。消防物资存储系统能够通过互联网得到......
  • Kubernetes集群巡检内容
    1.概述Kubernetes集群巡检是一种监测和评估底层系统运行状况的重要手段,旨在快速发现系统中存在的潜在风险并提供修复建议。通过对Kubernetes(K8s)集群进行定期巡检,可以有效保障集群稳定性、优化资源利用率、提升安全性,并降低运维风险,特别是在生产环境中,这种预防性措施尤为重......