首页 > 其他分享 >【北亚企安数据恢复】Ceph分布式存储基本架构&概念&Ceph数据恢复流程

【北亚企安数据恢复】Ceph分布式存储基本架构&概念&Ceph数据恢复流程

时间:2023-09-26 15:32:25浏览次数:39  
标签:数据恢复 存储 文件 对象 Ceph 企安 数据 OSD

Ceph存储基本架构:

Ceph存储可分为块存储,对象存储和文件存储。Ceph基于对象存储,对外提供三种存储接口,故称为统一存储。

Ceph的底层是RADOS(分布式对象存储系统),RADOS由两部分组成:OSD和MON。

MON负责监控整个集群,维护集群的健康状态,维护展示集群状态的各种图表,如OSDMap、MonitorMap、PGMap和CRUSHMap。

OSD负责存储数据、复制数据、平衡数据、恢复数据,与其它OSD间进行心跳检查等。通常情况下一块硬盘对应一个OSD。

【北亚企安数据恢复】Ceph分布式存储基本架构&概念&Ceph数据恢复流程_数据恢复

Ceph数据的存储过程:

无论使用哪种存储方式(对象、块、文件),存储的数据都会被切分成对象(Objects)。


存储池:

不同用户因为不同的目的把对象存储在不同的存储池里,这些对象分布于OSD上。

对象保存在不同的存储池(Pool)中,是对象存储的逻辑组,对应不同的用户。存储池管理着归置组数量、副本数量、和存储池规则集。

【北亚企安数据恢复】Ceph分布式存储基本架构&概念&Ceph数据恢复流程_数据恢复_02

归置组:

归置组(PGPlacementGroup)是对象池的片段,Ceph根据对象的Oid和一些其他信息做计算操作,映射到归置组,无数的对象被划分到不同的归置组。PG是一个逻辑概念,它在数据寻址时类似于数据库中的索引。

每个对象都会固定映射进一个PG中,所以当我们要寻找一个对象时,只需要先找到对象所属的PG,然后遍历这个PG就可以了,无需遍历所有对象。而且在数据迁移时,也是以PG作为基本单位进行迁移。


OSD:

最后PG会根据管理员设置的副本数量进行复制,然后通过crush算法存储到不同的OSD节点上,最终把PG中的所有对象存储到OSD节点上。


BlueStore:

新版本中,Ceph默认以Bluestore存储引擎,作为RADOS中OSD的ObjectStore存储底层实现BlueStore整体架构。


存储空间:

BlueStore将整个存储空间分为3个部分:WAL,DB,SLOW

慢速(Slow)空间:主要用于存储对象数据,由BlueStore管理。

高速(DB)空间:存储blufs和rocksdb产生的数据,由BlueFS直接管理,如果不存在或者DB设备空间不足,则选择Slow类型设备空间。

超高速(WAL)空间:主要存储RocksDB的WAL(即.log)文件,由BlueFS直接管理,如果不存在或者WAL设备空间不足,则逐级降级选择DB、SLOW分区。


Rocksdb:

BlueStore使用Rocksdb作为自己元数据存储的底层实现,将各种元数据以kv型记录的方式存在数据库中。

写入机制:任何元数据的写入都会先写到WAL,然后再写入MemoryTable(Memtable)。

当一个Memtable写满了之后,就会变成immutable的Memtable,RocksDB在后台会通过一个flush线程将这个Memtableflush到磁盘,生成一个SortedStringTable(SST)文件。


BlueFS:

BlueFS与通用文件系统不同,是Bluestore专为Rocksdb所设计的精简文件系统。

BlueFS的文件和目录的元数据以日志事务的形式保存在日志文件中,在上电过程中,replay日志文件中的事务,就可以加载所有的元数据到内存中。


北亚企安针对Ceph的数据恢复流程:

1、制作磁盘镜像,用于数据提取和备份。

2、提取BlueFS中数据库文件。从磁盘镜像的分区获取超级块,得到日志的节点信息。回放整个日志中的事务,得到目录结构和数据库文件节点信息,根据数据库文件节点信息提取数据库文件。提取从每个OSD提取出来的数据库中的object记录。

3、对于损坏的数据库,根据文件格式提取数据库完好文件中的object记录。

4、解析object记录,从各镜像上提取对应的object数据。

5、根据object的id按序组合卷文件的所有object数据块,还原整个卷数据。

6、修复卷的文件系统和其中文件。

对于损坏缺失程度不高的卷文件系统,尝试修复损坏的卷,得到卷中的文件。

对于有固定格式的文件,尝试修复损坏文件。

【北亚企安数据恢复】Ceph分布式存储基本架构&概念&Ceph数据恢复流程_存储数据恢复_03

标签:数据恢复,存储,文件,对象,Ceph,企安,数据,OSD
From: https://blog.51cto.com/sun510/7609223

相关文章

  • XSAN数据恢复-存储空间从XSAN迁移到STORNEXT中误格式化系统的数据恢复案例
    XSAN数据恢复环境:昆腾存储,MACOS操作系统,划分了9个数据卷(1个META信息卷,8个DATA信息卷),存放视频类数据,MXF、MOV等格式文件。XSAN故障&分析:将存储空间从XSAN架构迁移到STORNEXT架构,迁移完成后发现存储空间中数据全部丢失。北亚企安数据恢复工程师分析META信息卷,读取其中的元信息,发......
  • 数据恢复软件免费下载-数据恢复神器免费下载-硬盘数据恢复神器软件- U盘数据恢复神器
    EaseUSData数据恢复软件是非常强大的数据恢复软件,支持电脑、硬盘、移动硬盘、U盘、SD卡、存储卡、相机等各类存储设备数据恢复,支持1000多种文件格式恢复,包括文档、照片、视频、音频等各种文件。作为一款功能强大的数据恢复软件,可轻松恢复意外删除的文档,并支持从损坏或格式化的硬盘......
  • 数据恢复神器EaseUSDataRecovery数据恢复软件技术终身版免费下载
    EaseUSDataRecovery数据恢复软件免费版是一款优秀的数据恢复工具,可以帮助我们找回因各种原因丢失的数据。如果您正在被数据丢失问题所烦恼,请立刻免费下载数据恢复软件,开始进行数据恢复吧。数据恢复软件终身版本数据恢复软件免费版可以帮助用户找回因删除、格式化、分区丢失、分区损......
  • 易我数据恢复EaseUS Data Recovery Wizard 16.0技术员终身版你的数据恢复神器
    易我数据恢复EaseUSDataRecoveryWizard16.0技术员终身版为全球提供数据恢复方案,用于误删数据数据,电脑误删文件恢复,格式化硬盘数据恢复、手机U盘数据恢复等。RAID磁盘阵列数据恢复,分区丢失及其它未知原因丢失的数据恢复、简单易用轻松搞定数据恢复。EaseUSDataRecoveryWizar......
  • ceph(三)实现ceph块存储的挂载及存储空间的动态伸缩
    1.客户端使用普通账户挂载并使用RBDRBD(RADOSBlockDevices)即块存储设备,RBD可以为KVM、VMware等虚拟化技术和云服务(OpenStack、kubernetes)提供高性能和无限可扩展的存储后端,客户端基于librbd库即可将RADOS存储集群用作块设备,不过,用于rbd的存储池需要事先启用rbd功能并进行初始化......
  • ceph(四)ceph集群管理、pg常见状态总结
    1.ceph常见管理命令总结1.1只显示存储池cephosdpoolls示例$cephosdpoollsdevice_health_metricsmypoolmyrbd1rbd-data11.2列出存储池并显示idcephosdlspools示例$cephosdlspools1device_health_metrics2mypool3myrbd14rbd-data11.3查看p......
  • 数据库数据恢复-ORACLE数据库常见故障有哪些?oracle数据库出现这些故障能恢复数据吗?
    ORACLE数据库常见故障:1、ORACLE数据库无法启动或无法正常工作。2、ORACLE数据库ASM存储破坏。3、ORACLE数据库数据文件丢失。4、ORACLE数据库数据文件部分损坏。5、ORACLE数据库DUMP文件损坏。 ORACLE数据库数据恢复可能性分析:1、ORACLE数据库无法启动或无法正常工作:突然出......
  • UOS安装部署Ceph集群(二)
    本篇文章介绍Ceph如何使用,包括创建/使用:块存储(rbd)、文件存储(cephfs)、对象存储(rgw)前4步详细介绍,请点击链接跳转。实验过程:  1、Ceph架构图  UOS安装部署Ceph集群(一)_[ceph_deploy][error]runtimeerror:bootstrap-osd_小时候很牛、的博客  2、实验环境说明  UOS安装部......
  • UOS安装部署Ceph集群(一)
    本篇文章介绍Ceph集群部署,包括:实验环境说明、集群基础环境、创建Ceph集群块存储(rbd)、文件存储(cephfs)、对象存储(rgw)详细介绍,请点击链接跳转。Ceph产品这里不就介绍了,网上有很多资料可查。直接上实验~实验过程:  1、Ceph架构图  2、实验环境说明  3、Ceph集群基础环境调试......
  • idb单副本时-TiKV节点损坏后有损数据恢复的方法
    Tidb单副本时-TiKV节点损坏后有损数据恢复的方法背景UAT环境下,为了减少存储.搭建了一套单副本的TiDB集群但是随着数据量的增多,UAT上面的数据可以丢失,但是表结构等信息是无法接受丢失和损坏的.因为很多不太均衡的问题,导致.部分TiKV节点不稳定.甚至会出现TiKV宕机的......