首页 > 其他分享 >ceph存储上盘下盘操作

ceph存储上盘下盘操作

时间:2024-10-24 15:21:15浏览次数:4  
标签:rook 上盘 -- tools ceph 下盘 root osd

1、定位硬盘和报错日志
#1. 例如更换osd.1硬盘,找出osd.1对应的磁盘
[root@ceph1 mapper]# kubectl get po rook-ceph-osd-1-79fcff4bbd-4gq2b -n rook-ceph -o yaml | grep UUID
              k:{"name":"ROOK_OSD_UUID"}:
    - name: ROOK_OSD_UUID
    - "\nset -ex\n\nOSD_ID=1\nOSD_UUID=d3483ef7-2ddf-46d9-9f0d-79999b25180d\nOSD_STORE_FLAG=\"--bluestore\"\nOSD_DATA_DIR=/var/lib/ceph/osd/ceph-\"$OSD_ID\"\nCV_MODE=lvm\nDEVICE=/dev/ceph-4abbbe54-da99-4cac-bdb7-f3ef744ecf78/osd-data-dc8616c1-9c3d-48cc-9eba-937861d419d4\nMETADATA_DEVICE=\"$ROOK_METADATA_DEVICE\"\nWAL_DEVICE=\"$ROOK_WAL_DEVICE\"\n\n#
      \"$OSD_ID\" \"$OSD_UUID\"\n\n\t# copy the tmpfs directory to a temporary directory\n\t#
[root@ceph2 ~]# lsblk
NAME                                                                                                 MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                                                                                                    8:0    0   20G  0 disk
├─sda1                                                                                                 8:1    0    1G  0 part /boot
└─sda2                                                                                                 8:2    0   19G  0 part
  ├─centos-root                                                                                      253:0    0   17G  0 lvm  /
  └─centos-swap                                                                                      253:1    0    2G  0 lvm
sdb                                                                                                    8:16   0   10G  0 disk
└─ceph--1dbde574--6d46--4378--8e58--3963835c0405-osd--data--12d2a2b5--81c6--467e--b17f--cae8c63ef3f4 253:3    0   10G  0 lvm
sdc                                                                                                    8:32   0   10G  0 disk
└─ceph--4abbbe54--da99--4cac--bdb7--f3ef744ecf78-osd--data--dc8616c1--9c3d--48cc--9eba--937861d419d4 253:2    0   10G  0 lvm
sr0                                                                                                   11:0    1  4.4G  0 rom


2、先把operator设置为0
[root@ceph1 mapper]# kubectl scale deploy -n rook-ceph rook-ceph-operator --replicas=0
deployment.apps/rook-ceph-operator scaled

3、修改配置,将需要移除的盘移除:
[root@ceph1 mapper]# kubectl edit cephcluster -n rook-ceph rook-ceph
cephcluster.ceph.rook.io/rook-ceph edited
    - devices:
      - name: sdb
      - name: sdc (删除)

4、手动移除对应osd
[root@ceph1 ~]# kubectl exec -it -n rook-ceph rook-ceph-tools-6f44db7c58-zw47s bash

ceph osd set noup
ceph osd down 0
ceph osd out 0
#ceph -w查看数据均衡进度, 等待数据均衡完成

[root@ceph1 ~]# kubectl exec -it -n rook-ceph rook-ceph-tools-6f44db7c58-zw47s bash
kubectl exec [POD] [COMMAND] is DEPRECATED and will be removed in a future version. Use kubectl exec [POD] -- [COMMAND] instead.
[root@rook-ceph-tools-6f44db7c58-zw47s /]#
[root@rook-ceph-tools-6f44db7c58-zw47s /]#
[root@rook-ceph-tools-6f44db7c58-zw47s /]#
[root@rook-ceph-tools-6f44db7c58-zw47s /]#
[root@rook-ceph-tools-6f44db7c58-zw47s /]# ceph osd set noup
noup is set
[root@rook-ceph-tools-6f44db7c58-zw47s /]# ceph osd tree
ID  CLASS  WEIGHT   TYPE NAME       STATUS  REWEIGHT  PRI-AFF
-1         0.05878  root default
-3         0.01959      host ceph1
 0    hdd  0.00980          osd.0       up   1.00000  1.00000
 5    hdd  0.00980          osd.5       up   1.00000  1.00000
-5         0.01959      host ceph2
 1    hdd  0.00980          osd.1       up   1.00000  1.00000
 2    hdd  0.00980          osd.2       up   1.00000  1.00000
-7         0.01959      host ceph3
 3    hdd  0.00980          osd.3       up   1.00000  1.00000
 4    hdd  0.00980          osd.4       up   1.00000  1.00000
[root@rook-ceph-tools-6f44db7c58-zw47s /]# ceph osd down 1
marked down osd.1.
[root@rook-ceph-tools-6f44db7c58-zw47s /]# ceph osd out 1
marked out osd.1.
[root@rook-ceph-tools-6f44db7c58-zw47s /]#
[root@rook-ceph-tools-6f44db7c58-zw47s /]#
[root@rook-ceph-tools-6f44db7c58-zw47s /]#
[root@rook-ceph-tools-6f44db7c58-zw47s /]# ceph -w
  cluster:
    id:     ee795c82-8de1-4dc9-af64-764ffbafbd19
    health: HEALTH_WARN
            noup flag(s) set

  services:
    mon: 3 daemons, quorum a,b,c (age 4h)
    mgr: a(active, since 4h)
    osd: 6 osds: 5 up (since 15s), 5 in (since 3s)
         flags noup

  data:
    pools:   2 pools, 33 pgs
    objects: 0 objects, 0 B
    usage:   5.1 GiB used, 45 GiB / 50 GiB avail
    pgs:     17 active+clean
             16 active+undersized

5、均衡数据完成后移除对应的osd
[root@rook-ceph-tools-6f44db7c58-zw47s /]# ceph osd purge 1 --yes-i-really-mean-it
purged osd.1

[root@rook-ceph-tools-6f44db7c58-zw47s /]# ceph auth del osd.1
entity osd.1 does not exist

6、检查ceph状态以及osd状态
[root@rook-ceph-tools-6f44db7c58-zw47s /]# ceph -s
  cluster:
    id:     ee795c82-8de1-4dc9-af64-764ffbafbd19
    health: HEALTH_WARN
            noup flag(s) set

  services:
    mon: 3 daemons, quorum a,b,c (age 4h)
    mgr: a(active, since 4h)
    osd: 5 osds: 5 up (since 4m), 5 in (since 4m)
         flags noup

  data:
    pools:   2 pools, 33 pgs
    objects: 0 objects, 0 B
    usage:   5.1 GiB used, 45 GiB / 50 GiB avail
    pgs:     33 active+clean

[root@rook-ceph-tools-6f44db7c58-zw47s /]#
[root@rook-ceph-tools-6f44db7c58-zw47s /]#
[root@rook-ceph-tools-6f44db7c58-zw47s /]# ceph osd tree
ID  CLASS  WEIGHT   TYPE NAME       STATUS  REWEIGHT  PRI-AFF
-1         0.04898  root default
-3         0.01959      host ceph1
 0    hdd  0.00980          osd.0       up   1.00000  1.00000
 5    hdd  0.00980          osd.5       up   1.00000  1.00000
-5         0.00980      host ceph2
 2    hdd  0.00980          osd.2       up   1.00000  1.00000
-7         0.01959      host ceph3
 3    hdd  0.00980          osd.3       up   1.00000  1.00000
 4    hdd  0.00980          osd.4       up   1.00000  1.00000

7、移除pod,和判断删除对应的job
[root@ceph1 mapper]# kubectl delete deploy -n rook-ceph rook-ceph-osd-1
deployment.apps "rook-ceph-osd-1" deleted


8、恢复配置
[root@rook-ceph-tools-6f44db7c58-zw47s /]# ceph osd unset noup
noup is unset
[root@rook-ceph-tools-6f44db7c58-zw47s /]# ceph -s
  cluster:
    id:     ee795c82-8de1-4dc9-af64-764ffbafbd19
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum a,b,c (age 4h)
    mgr: a(active, since 4h)
    osd: 5 osds: 5 up (since 6m), 5 in (since 6m)

  data:
    pools:   2 pools, 33 pgs
    objects: 0 objects, 0 B
    usage:   5.1 GiB used, 45 GiB / 50 GiB avail
    pgs:     33 active+clean

9、格式化磁盘或者下架磁盘

对应机器执⾏,输⼊对应需要下架的盘

#!/bin/bash
yum -y install gdisk
read -p "input your disk [/dev/sda]:" DISK
# 磁盘去格式化
# DISK="/dev/sda"
# Zap the disk to a fresh, usable state (zap-all is important, b/c MBR has to be d:clean)
# You will have to run this step for all disks.
sgdisk --zap-all $DISK
dd if=/dev/zero of="$DISK" bs=1M count=100 oflag=direct,dsync
# These steps only have to be run once on each node
# If rook sets up osds using ceph-volume, teardown leaves some devices mapped that lock the disks.
#找到对应的磁盘的ceph信息进行檫除
ls /dev/mapper/ceph--d41fd45b--a5e4--4c45--ab3f--d344c02fa4c9-osd--data--49dda9c2--1907--4225--ad8b--035424fd0484 | xargs -I% -- dmsetup remove %
# ceph-volume setup can leave ceph-<UUID> directories in /dev (unnecessary clutter)
rm -rf /dev/rm -rf ceph-4abbbe54-da99-4cac-bdb7-f3ef744ecf78/
lsblk -f

 

[root@ceph2 mapper]# lsblk -f
NAME                                                                             FSTYPE      LABEL           UUID                                   MOUNTPOINT
sda
├─sda1                                                                           xfs                         4b8b54bd-9ac2-4bf0-8e64-c4a929a986fa   /boot
└─sda2                                                                           LVM2_member                 9kfG02-udDn-cx3l-2pxQ-fDwK-sUr1-9I079W
  ├─centos-root                                                                  xfs                         5085bc7a-4955-487e-ae36-b9357fbc9721   /
  └─centos-swap                                                                  swap                        618b4fdd-5b18-436d-97c1-4fd786d706f4
sdb                                                                              LVM2_member                 dCABKo-MdC0-mfNn-TT36-ZP2F-FEx1-624R8u
└─ceph--1dbde574--6d46--4378--8e58--3963835c0405-osd--data--12d2a2b5--81c6--467e--b17f--cae8c63ef3f4

sdc
sr0                                                                              iso9660     CentOS 7 x86_64 2020-11-04-11-36-43-00


10、恢复rook的operator
[root@ceph1 mapper]# kubectl scale deploy -n rook-ceph rook-ceph-operator --replicas=1
deployment.apps/rook-ceph-operator scaled


11、下盘完成


12、上盘,加入硬盘osd
1、修改配置,将需要加入的盘添加上去即可.如果是使用过的磁盘先格式化在添加
[root@ceph1 mapper]# kubectl edit cephcluster -n rook-ceph rook-ceph

标签:rook,上盘,--,tools,ceph,下盘,root,osd
From: https://www.cnblogs.com/xmwan/p/18499654

相关文章

  • glance对接cephA5
    目录*glance对接ceph1.上传镜像2.对接ceph2.1创建池2.2创建用户:西部世界官网2.3下发ceph文件2.4修改globals文件2.5更新glance配置3.上传镜像到cephglance对接ceph基于前面的openstack环境glance的镜像默认情况下是存储在本地的,如果glance节点挂掉了,那......
  • glance对接ceph
    目录glance对接ceph1.上传镜像2.对接ceph2.1创建池2.2创建用户2.3下发ceph文件2.4修改globals文件2.5更新glance配置3.上传镜像到cephglance对接ceph基于前面的openstack环境glance的镜像默认情况下是存储在本地的,如果glance节点挂掉了,那么镜像也就不存在了,所以现在我......
  • CEPH 运维记录
    基于l版本。1、osd状态ceph-sactive:PG处于活动状态,正在处理读写请求。clean:PG中的所有对象都是最新的,所有副本都已同步,没有缺失或未完成的操作。scrubbing:PG正在进行数据校验过程,确保所有数据都是一致的。Scrubbing是定期的检查,以防止数据损坏。deep:表示正在进行深......
  • ceph之pg inactive
    查看故障查看ceph状态通过ceph的输出,发现osd.7提示slowops,同时有1个pg处于inactive状态。故障处理确定osd状态通过以上命令确定osd.7属于ceph03节点。确定pg状态通过以上命令,发现pg7.1dstuck状态。查看ceph日志查看ceph03节点的ceph日志,/var/log/ceph/cep......
  • 对象存储方案大比拼——本地存储、OSS、MinIO、Ceph、Apache Ozone 与 OpenIO
    在当今数据驱动的时代,选择合适的对象存储方案对于企业和开发者来说至关重要。本文将对本地存储、阿里云OSS、MinIO、Ceph、ApacheOzone和OpenIO这几种常见的对象存储方案进行详细的介绍和比较,帮助你做出明智的选择。 一、本地存储 (一)特点 1. 直接存储在本地设备......
  • Ceph Reef(18.2.X)之纠删码池
    作者:尹正杰版权声明:原创作品,谢绝转载!否则将追究法律责任。目录一.纠删码理论概述1.纠删码理论概述2.ceph纠删码以插件的形式提供3.纠删码池的优缺点二.纠删码基础命令实践1.列出......
  • ceph:nfs-ganesha V4-stable:手工编译:make rpm 打包成rpm包,USE_GSS总是打开的问题,bug?
    如题:不管你怎么去配置cmake,makerpm生成的版本总是Debug版、总是使用GSS,why? 一开始,本人试图从cmake上去寻找答案,未果!!无论如何配置,makerpm它总是从头执行cmake...make..后来......最后,突然想到,没准makerpm是从头生成并调用的cmake,+++而且rpm包的生成一般是依赖于......
  • ceph:麒麟kylin v10 sp3:安装ceph-nautilus for el8:这个版本依赖于python3.6,看看怎么欺
    [root@kylintemplate~]#catceph-nautilus-el8_depends-for-kylin.specSummary:ceph-nautilus-el8_depends-for-kylinvirtualName:ceph-nautilus-el8_depends-for-kylinVersion:1.0Release:0License:GPLGroup:Development/ToolsAutoReqProv:yesAutoReq:ye......
  • ceph:源代码编译 nfs-ganesha 2.8.4 (V2-stable)
     step1:从github下载nfs-ganesha(标签2.8.4或分支V2-stable)同时下载相应代码库中指定的版本的libntirpc库代码!注意版本一致。注意ntirpc放到src目录中,要改名为libntirpc或直接做个符号链接libntirpc。 step2:根据你自己的要求或希望的功能,安装依赖 step3:cmake生......
  • 每天5分钟复习OpenStack(十五)Ceph与Bcache结合
    上一章我们成功部署了bcache,这一章我们将Ceph与Bcache结合来使用,使用Bcache来为ceph的数据盘提速。1ceph架构一个标准的ceph集群可能是如下的架构,SSD/NVME存储元数据,而SATA盘存储数据。这样的架构下,物理介质的SATA盘读写速率上限决定了存储集群Ceph的上限(木桶效应)。如果在......