首页 > 其他分享 >Rook-Ceph中扩容OSD数量

Rook-Ceph中扩容OSD数量

时间:2023-12-28 18:02:29浏览次数:32  
标签:ceph rook name osd 170m Ceph Running Rook OSD

修改发现磁盘扫描间隔

vim rook/deploy/examples/operator.yaml
# The duration between discovering devices in the rook-discover daemonset.
- name: ROOK_DISCOVER_DEVICES_INTERVAL
  value: "60"

下发资源

kubectl apply -f rook/deploy/examples/operator.yaml

添加OSD磁盘

vim rook/deploy/examples/cluster.yaml
nodes:
#   - name: "172.17.4.201"
#     devices: # specific devices to use for storage can be specified for each node
#       - name: "sdb"
#       - name: "nvme01" # multiple osds can be created on high performance devices
#         config:
#           osdsPerDevice: "5"
#       - name: "/dev/disk/by-id/ata-ST4000DM004-XXXX" # devices can be specified using full udev paths
#     config: # configuration can be specified at the node level which overrides the cluster level config
#   - name: "172.17.4.301"
#     deviceFilter: "^sd."
# when onlyApplyOSDPlacement is false, will merge both placement.All() and placement.osd
- name: "master"
  devices:
  - name: "vdb"
  - name: "vdc"
- name: "node"
  devices:
  - name: "vdb"
  - name: "vdc"
- name: "node2"
  devices:
  - name: "vdb"
  - name: "vdc"
onlyApplyOSDPlacement: false

下发资源

kubectl apply -f rook/deploy/examples/cluster.yaml

检查

#新增了osd-3-5
[root@master ~]# kubectl get pod -n rook-ceph
NAME                                              READY   STATUS      RESTARTS   AGE
csi-cephfsplugin-7ftv5                            2/2     Running     0          170m
csi-cephfsplugin-kfwrn                            2/2     Running     0          170m
csi-cephfsplugin-nrv6r                            2/2     Running     0          170m
csi-cephfsplugin-provisioner-6875cdf85f-nv4z7     5/5     Running     0          170m
csi-cephfsplugin-provisioner-6875cdf85f-zm8zf     5/5     Running     0          170m
csi-rbdplugin-provisioner-cc86dcdc8-g8985         5/5     Running     0          170m
csi-rbdplugin-provisioner-cc86dcdc8-s78h8         5/5     Running     0          170m
csi-rbdplugin-q2xst                               2/2     Running     0          170m
csi-rbdplugin-qfckq                               2/2     Running     0          170m
csi-rbdplugin-wd9tf                               2/2     Running     0          170m
rook-ceph-crashcollector-master-dffb5cb69-v2b9h   1/1     Running     0          117m
rook-ceph-crashcollector-node-747965c88c-bddk6    1/1     Running     0          117m
rook-ceph-crashcollector-node2-5446865889-p8xc7   1/1     Running     0          168m
rook-ceph-mds-myfs-a-7d8ff84777-qtwn4             2/2     Running     0          117m
rook-ceph-mds-myfs-b-748d64bdb6-z4tn4             2/2     Running     0          117m
rook-ceph-mgr-a-6786cf7454-ztx9h                  3/3     Running     0          168m
rook-ceph-mgr-b-84459794f9-ld6tj                  3/3     Running     0          168m
rook-ceph-mon-a-656c57bbf5-mj5jn                  2/2     Running     0          170m
rook-ceph-mon-b-7b5955d99d-wcqz9                  2/2     Running     0          169m
rook-ceph-mon-c-78749f8647-jw8n9                  2/2     Running     0          168m
rook-ceph-operator-99ffdc499-2cjs2                1/1     Running     0          171m
rook-ceph-osd-0-b86dff787-zjgbd                   2/2     Running     0          166m
rook-ceph-osd-1-6899548f48-hl2ct                  2/2     Running     0          166m
rook-ceph-osd-2-cbf6db88c-jv9z4                   2/2     Running     0          166m
rook-ceph-osd-3-f7c759774-qnttt                   2/2     Running     0          162m
rook-ceph-osd-4-556d4cb6b5-jv2cf                  2/2     Running     0          162m
rook-ceph-osd-5-5d8b5bd559-57r4h                  2/2     Running     0          162m
rook-ceph-osd-prepare-master-cfm4b                0/1     Completed   0          163m
rook-ceph-osd-prepare-node-xm6kv                  0/1     Completed   0          163m
rook-ceph-osd-prepare-node2-nlbzj                 0/1     Completed   0          162m
rook-ceph-tools-68754fc9dd-568gk                  1/1     Running     0          170m

标签:ceph,rook,name,osd,170m,Ceph,Running,Rook,OSD
From: https://blog.51cto.com/u_14458428/9017267

相关文章

  • Kubernetes-集群卸载Rook-Ceph
    删除storageclass和pvc(卸载卷、删除卷声明等,根据实际情况修改)kubectldelete-frook/deploy/examples/csi/cephfs/pod.yamlkubectldelete-frook/deploy/examples/csi/cephfs/pvc.yamlkubectldelete-nrook-cephcephblockpoolreplicapoolkubectldelete-frook/deploy/......
  • SOSDP
    SOSDP(SumOverSubsetsDynamicProgramming),中文名子集DP。下面给一个最Common的用法:给定一个集合\(S=\{a_0,a_1,\dots,a_{n-1}\}\),求:\[\sum_{T\subseteqS}\sum_{a_i\inT}a_i\]即\(S\)的子集和。暴力做是\(\mathcalO(3^n)\)的,而用SOSDP可以把时......
  • ceph应用-RBD、radosgw对象存储、cephfs
    块存储(RBD)用于K8S、openstack、linux中直接挂载。类似使用iscsi块存储一样。块存储使用案例#1.创建存储池#语法:cephosdpoolcreate<存储池名><PG>[<PGP>][{replicated|erasure}]# PG:指定存储池的pg数量# PGP:指定存储池pgp数量,一般与pg相同。不填写默认就是和PG......
  • pve 配置Ceph
    1.服务器的磁盘配置。检查服务器的阵列卡,看是否可以将磁盘设置为Job模式,如果没有这个功能,需要对ceph使用的测试做成raid0 ,如果所有磁盘作为ceph磁盘,可以考虑将阵列卡设置为HBA模式,但是有些阵列卡也不支持。这种只能将这些磁盘设置为raid0.2.ceph 存储如果设置3副本,则......
  • ceph集群搭建详细教程(ceph-deploy)
    ceph-deploy比较适合生产环境,不是用cephadm搭建。相对麻烦一些,但是并不难,细节把握好就行,只是命令多一些而已。实验环境服务器主机public网段IP(对外服务)cluster网段IP(集群通信)角色deploy192.168.2.120用于部署集群、管理集群ceph-node1192.168.2.121192.168.6......
  • 搭建ceph集群
    前文我们了解了Ceph的基础架构和相关组件的介绍,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/16720234.html;今天我们来部署一个ceph集群;部署工具介绍1、ceph-deploy:该部署工具是ceph官方的部署工具,它只依赖SSH访问服务器,不需要额外的agent;它可以完全运行在自己的工......
  • Qt/C++视频监控Onvif工具/组播搜索/显示监控画面/图片参数调节/OSD管理/祖传原创
    一、前言能够写出简单易用而又不失功能强大的组件,一直是我的追求,简单主要体现在易用性,不能搞一些繁琐的流程和一些极难使用的API接口,或者一些看不懂的很难以理解的函数名称,一定是要越简单越好。功能强大主要体现在功能的完整性,常规的接口肯定是必备的,然后在默认值方面,尽量将值设......
  • 《计算机科学概论 第12版》[美]J.Glenn Brookshear Denis Brylow 译者:刘艺,吴英,毛
    《计算机科学概论》是计算机科学概论课程的经典教材,全书对计算机科学做了百科全书式的精彩阐述,充分展现了计算机科学的历史背景、发展历程和新的技术趋势。《计算机科学概论》首先介绍的是信息编码及计算机体系结构的基本原理,进而讲述操作系统和组网及因特网,接着探讨算法、程序设......
  • 计算机科学概论 (第10版) 作者: [美] J.Glenn Brookshear 译者: 刘艺 / 肖成海 / 马小
    计算机科学概论(第10版)  更新图书信息或封面作者: [美]J.GlennBrookshear出版社: 人民邮电出版社出品方: 图灵教育原作名: ComputerScience:AnOverview译者: 刘艺 / 肖成海 / 马小会出版年: 2009-9页数: 411定价: 59.00元装帧: 平装丛书: 图灵......
  • 【ceph】授权认证管理cephx
    授权认证管理cephx [ceph:root@node/]#cephauthgetclient.adminexportedkeyringforclient.admin[client.admin]key=AQCi6Dhajw7pIRAA/ECkwyipx2/raLWjgbklyA==capsmds="allow*"capsmgr="allow*"capsmon="allow*......