首页 > 其他分享 >概述Ceph的架构与配置规范

概述Ceph的架构与配置规范

时间:2022-12-14 22:34:41浏览次数:38  
标签:存储 场景 架构 配置 Ceph 概述 集群 OSD

在云计算时代,计算虚拟化、软件定义存储、软件定义网络是IaaS的三大基础支柱。目前在软件定义存储市场,很多厂商均有自己的产品。有的基于文件系统,有的基于块设备,有的基于对象存储。在云时代,用户需要云门户来调度底层的各种计算资源(物理机、虚拟机、公有云)和存储资源(SAN、NAS、对象存储),这就需要有一种统一存储平台,通过提供统一接口,同时提供块存储、对象存储和文件系统,与云平台对接。在目前的开源界,能够提供统一的、开源的最著名的分布式存储是Ceph。

1、Ceph的背景

2014年,红帽收购Inktank(Inktank主要提供基于Ceph的企业级产品)。此次收购后,红帽成为Ceph开源社区代码贡献最多的贡献者。Ceph作为一种存储集群,其支持的节点数量和容量无理论上限,可以多达上百个节点、PB容量级别。

Ceph内部是一种对象存储,它对外提供三种访问方式。

  • Object:兼容Swift和S3的API,提供对象存储访问方式。
  • Block:支持精简配置、快照、克隆,提供块设备、裸设备访问方式。
  • File:Posix接口,支持快照,提供文件系统访问方式。
2、Ceph适用的业务场景

目前企业使用Ceph的场景有三类。为KVM虚拟化、OpenStack提供后端存储。为容器云提供后端存储。为Linux操作系统(物理机或虚拟机)提供后端存储。

  • IOPS密集型业务场景:这种场景通常是支撑在虚拟化、私有云上运行数据库。如在OpenStack上运行MySQL、MariaDB或PostgreSQL等。IOPS密集型业务场景对磁盘的性能要求较高,最好使用全闪架构。如果使用混合架构,机械盘转速需要1.2万转/秒,并使用高速盘存储频繁写操作的日志或元数据。
  • 高吞吐量型业务场景:这种场景主要是大块数据传输,如图像、视频、音频文件等。高吞吐量型业务场景对磁盘的要求没有IOPS密集型业务场景高,但对网络配置要求较高,同时需要配置SSD来处理写日志。
  • 高容量型业务场景:这种场景主要用于存储归档、离线数据。它对磁盘的容量要求较高,对性能无过多要求。写日志也可以存储在HDD上。
3、Ceph的架构

Ceph存储集群由三类守护进程组成:OSDMonitorManager

  • OSD:OSD是Ceph存储数据的空间,通常一个HDD是一个OSD,并且不建议做RAID(独立硬盘冗余阵列)。每个OSD有一个OSD守护进程。Ceph OSD利用Ceph节点的CPU、内存和网络资源来执行数据复制、纠删码、数据恢复、监控和报告功能。
  • Monitor:Monitor负责维护Ceph存储集群,主要存储集群中数据的主副本以及存储集群的当前状态。注意,多个Monitor的信息需要强一致,因此要求Monitor节点之间的系统时间是一致的,并且网络延时要低。
  • Manager:Manager是Ceph 12.8中的新功能,它维护放置组(PG)、进程元数据和主机元数据的详细信息。这部分功能此前由Monitor完成(其目的是提高Ceph集群的性能)。Manager可以处理只读Ceph CLI查询请求,例如放置组统计信息等。此外,Manager还提供RESTful API监控。

如果要使用Ceph文件系统和对象接口,Ceph集群还需要具备如下节点。

  • 元数据服务器(Metadata Server,MDS):每个MDS节点运行MDS守护程序(ceph-mds),管理与Ceph文件系统(CephFS)上存储的文件相关的元数据。
  • 对象网关:Ceph对象网关节点上运行Ceph Rados网关守护程序(ceph-radosgw)。它是一个构建在librados之上的对象存储接口,也是一个为应用程序提供Ceph存储集群的RESTful网关。Ceph对象网关支持两个接口:S3和OpenStack Swift。

在介绍了Ceph的相关背景和架构后,我们介绍Ceph的配置规范。

4、Ceph的配置规范

在介绍了Ceph的相关背景和架构后,我们介绍Ceph的配置规范。

  • 针对IOPS密集型业务场景,服务器配置建议如下

OSD:每个NVMe SSD上配置四个OSD(可以使用lvm)。

日志:存放于NVMe SSD。

控制器:使用Native PCIe总线。

网络:每12个OSD配置一个万兆网口。

内存:最小为12GB,每增加一个OSD,增加2GB内存。

CPU:每个NVMe SSD消耗10 CPU内核。

  • 针对高吞吐量型业务场景,服务器配置建议如下。

OSD:使用7200转速的机械盘,每个磁盘为一个OSD。不需要配置RAID。

日志:如果使用SATA SSD,日志容量与OSD容量的比率控制在1:4~5。如果使用NVMe SSD,则容量比率控制在1:12~18。

网络:每12个OSD配置一个万兆网口。

内存:最小为12GB,每增加一个OSD,增加2GB内存。

CPU:每个HDD消耗0.5 CPU内核。

  • 针对高容量型业务场景,服务器配置建议如下。

OSD:使用7200转速的机械盘,每个磁盘为一个OSD。不需要配置RAID。

日志:使用HDD磁盘。

网络:每12个OSD配置一个万兆网口。

内存:最小为12GB,每增加一个OSD,增加2GB内存。

CPU:每个HDD消耗0.5 CPU内核。

除此之外,在选择Ceph的硬件时也有一些通用的标准,如Ceph节点使用相同的I/O控制器、磁盘大小、磁盘转速、网络吞吐量和日志配置。

Ceph集群包含以下两类网络。

  • 前端公共网络:处理客户端发过去的请求并且与Ceph Monitor通信。
  • 后端集群网络:处理OSD心跳、副本复制等。

从性能角度考虑,这两类网络最好使用不同的网卡。在上面的Ceph安装中,我们将两个网络进行了拆分。

标签:存储,场景,架构,配置,Ceph,概述,集群,OSD
From: https://blog.51cto.com/key3feng/5938402

相关文章

  • 架构设计(二):数据库复制
    架构设计(二):数据库复制作者:Grey原文地址:博客园:架构设计(二):数据库复制CSDN:架构设计(二):数据库复制在架构设计(一):从单服务器模式到负载均衡设计中提到了数据库类型的选择,针......
  • 【系统架构设计师】软考高级职称,一次通过,倾尽所有,【系统架构设计师】备考学习资料
    【系统架构设计师】软考高级职称,一次通过,倾尽所有,看完这篇就够了,学习方法和技巧这里全都有。下文中的网盘连接,可能触发到百度网盘风控规则,导致连接失效,非本人原因,如需要,可以......
  • 【《硬件架构的艺术》读书笔记】05 低功耗设计(3)
    5.6在寄存器传输级降低功耗RTL完成时80%的功耗就已经确定,后端不能解决所有功耗问题。综合前RTL阶段就应讲与功耗有关的所有问题解决。5.6.1状态机编码与解码格雷码在......
  • 一文搞懂 Redis 架构演化之路
    作者:ryetan,腾讯CSIG后台开发工程师现如今Redis变得越来越流行,几乎在很多项目中都要被用到,不知道你在使用Redis时,有没有思考过,Redis到底是如何稳定、高性能地提供服务......
  • sentinel 核心架构源码剖析
    常见限流算法精讲计数器法计数器法是限流算法里最简单也是最容易实现的一种算法。比如我们规定,对于A接口来说,我们1分钟的访问次数不能超过100个。那么我们可以这么做:在一......
  • 数据架构管理
    一、简介数据架构管理是定义和维护如下规范的过程:•提供标准的、通用的业务术语/辞典。• 表达战略性的数据需求。• 为满足如上需求......
  • 架构与思维:再聊缓存击穿,面试是一场博弈
    1介绍在之前的一篇文章《一次缓存雪崩的灾难复盘》中,我们比较清晰的描述了缓存雪崩、穿透、击穿的各自特征和解决方案,想详细了解的可以移步。最近在配合HR筛选候选人,作......
  • 卷积神经网络之早期架构
    文章目录​​早期架构​​​​lenet5架构​​​​小结​​​​代码​​​​DanCiresanNet​​​​后续几种网络的概要​​早期架构文档存放更新地址:​​https://github.co......
  • 海外服务器的3种体系架构:SMP、NUMA、MPP
    境外服务器的3种体系架构:SMP、NUMA、MPP!从系统的体系架构来看,目前的商用服务器大体上可以分为3类:SMP(对称多处理器)结构、NUMA(非一致存储访问)结构和MPP(海量并行处理)结构。这3......
  • 三种大数据应用架构介绍
    信息技术的发展,如今数据存储能力上升到了TB、PB级别,企业和政府部门都以各种形式存储了大量的数据,如何快速有效地处理规模大、结构复杂的数据?本文主要介绍大数据的三类应用......