首页 > 数据库 >实时分析数据库 Druid,Mark 一下

实时分析数据库 Druid,Mark 一下

时间:2023-01-02 21:37:26浏览次数:60  
标签:存储 数据库 Druid 查询 imply Mark 数据 节点


持之以恒,贵在坚持,每天进步一点点!

前言

Druid 则是一个分布式的支持实时分的数据存储系统(Data Store)。Druid 设计之初的想法就是为分析而生,它在处理数据的规模、数据处理的实时性方面,比传统的 OLAP 系统有了显著的性能改进,而且拥抱主流的开源生态,包括 Hadoop 等。多年以来,Druid 一直是非常活跃的开源项目

实时分析数据库 Druid,Mark 一下_数据

Druid

Druid 简介

        Druid 是一个高性能的实时分析数据库。它在 PB 级数据处理、毫秒级查询、数据实时处理方面,比传统的 OLAP 系统有显著的性能提升。

Druid 的官方网站是 http://druid.io

实时分析数据库 Druid,Mark 一下_数据结构_02

Druid 的三个设计原则

  • 快速查询(Fast Query):部分数据的聚合(Partial Aggregate)+ 内存化(In-emory)+ 索引(Index)。
  • 水平扩展能力(Horizontal Scalability):分布式数据(Distributed Data)+ 并行化查询(Parallelizable Query)
  • 实时分析(Realtime Analytics):不可变的过去,只追加的未来(Immutable Past,Append-Only Future)

1. 快速查询(Fast Query)

        对于数据分析场景,大部分情况下,我们只关心一定粒度聚合的数据,而非每一行原始数据的细节情况。因此,数据聚合粒度可以是1 分钟、5 分钟、1 小时或1 天等。部分数据聚合(Partial Aggregate)给 Druid 争取了很大的性能优化空间

        数据内存化也是提高查询速度的杀手锏。内存和硬盘的访问速度相差近百倍,但内存的大小是非常有限的,因此在内存使用方面要精细设计,比如 Druid 里面使用了 Bitmap 和各种压缩技术

        另外,为了支持 Drill-Down 某些维度,Druid 维护了一些倒排索引。这种方式可以加快 AND 和 OR 等计算操作。

2、水平扩展能力(Horizontal Scalability)

        Druid 查询性能在很大程度上依赖于内存的优化使用。数据可以分布在多个节点的内存中,因此当数据增长的时候,可以通过简单增加机器的方式进行扩容。为了保持平衡,Druid按照时间范围把聚合数据进行分区处理。对于高基数的维度,只按照时间切分有时候是不够的(Druid 的每个Segment 不超过2000 万行),故Druid 还支持对Segment 进一步分区。历史Segment 数据可以保存在深度存储系统中,存储系统可以是本地磁盘、HDFS 或远程的云服务。如果某些节点出现故障,则可借助Zookeeper 协调其他节点重新构造数据。

        Druid 的查询模块能够感知和处理集群的状态变化,查询总是在有效的集群架构中进行。集群上的查询可以进行灵活的水平扩展。

3、实时分析(Realtime Analytics)

        Druid 提供了包含基于时间维度数据的存储服务,并且任何一行数据都是历史真实发生的事件,因此在设计之初就约定事件一但进入系统,就不能再改变

        对于历史数据 Druid 以Segment 数据文件的方式组织,并且将它们存储到深度存储系统中,例如文件系统或亚马逊的S3 等。当需要查询这些数据的时候,Druid 再从深度存储系统中将它们装载到内存供查询使用。

Druid 特点

        Druid具有如下技术特点:

  • 列式存储格式

        Druid使用面向列的存储,这意味着它只需要加载特定查询所需的精确列。这为仅查看几列的查询提供了巨大的速度提升。此外,每列都针对其特定数据类型进行了优化,支持快速扫描和聚合。

  • 高可用性与高可拓展性

        Druid采用分布式、SN(share-nothing)架构,管理类节点可配置HA,工作节点功能单一,不相互依赖,这些特性都使得Druid集群在管理、容错、灾备、扩容等方面变得十分简单。Druid通常部署在数十到数百台服务器的集群中,并且可以提供数百万条记录/秒的摄取率,保留数万亿条记录,以及亚秒级到几秒钟的查询延迟。

  • 大规模的并行查询

        Druid可以在整个集群中进行大规模的并行查询。

  • 实时摄取或批量处理

        实时流数据分析。区别于传统分析型数据库采用的批量导入数据进行分析的方式,Druid提供了实时流数据分析,采用​​LSM(Long structure-merge)-Tree​​结构使 Druid 拥有极高的实时写入性能;同时实现了实时数据在亚秒级内的可视化。

  • 自愈、自平衡、易操作

        作为运营商,要将群集扩展或缩小,只需添加或删除服务器,群集将在后台自动重新平衡,无需任何停机时间。如果任何Druid服务器发生故障,系统将自动路由损坏,直到可以更换这些服务器。Druid旨在全天候运行,无需任何原因计划停机,包括配置更改和软件更新。

  • 云原生,容错的架构,不会丢失数据

        一旦 Druid 摄取了您的数据,副本就会安全地存储在深层存储(通常是云存储,HDFS或共享文件系统)中。即使每个Druid服务器都出现故障,您的数据也可以从深层存储中恢复。对于仅影响少数 Druid 服务器的更有限的故障,复制可确保在系统恢复时仍可进行查询。

  • 亚秒级的OLAP查询分析

        Druid采用了列式存储、倒排索引、位图索引等关键技术,能够在亚秒级别内完成海量数据的过滤、聚合以及多维分析等操作。

  • 丰富的数据分析功能

        针对不同用户群体,Druid提供了友好的可视化界面、类SQL查询语言以及REST 查询接口。

Druid 的使用场景

        了解了 Druid 有哪些常见的特点,我们还需要知道它具体的使用场景。

        如果您的用例符合以下的几个描述,Druid 可能是一个不错的选择:

  • 插入率非常高,但更新不常见
  • 大多数查询都是聚合和报告查询(“分组依据”查询)。您可能还有搜索和扫描查询。
  • 查询延迟定位为100毫秒到几秒钟
  • 数据有一个时间组件(Druid包括与时间特别相关的优化和设计选择)。
  • 可能有多个表,但每个查询只能访问一个大的分布式表。查询可能会触发多个较小的“查找”表。
  • 有高基数数据列(例如URL,用户ID),需要对它们进行快速计数和排名。
  • 希望从 Kafka,HDFS,平面文件或对象存储(如Amazon S3)加载数据。

        要是感觉看的不是很懂,简洁地总结一下:

  • 适用于将清洗好的记录实时录入,但不需要更新操作的场景
  • 适用于支持宽表,不用join的场景(换句话说就是一张单表)
  • 适用于实时性要求高的场景
  • 适用于对数据质量的敏感度不高的场景

        当然以上列举的都是 Druid 的适用情况,为了方便我们之后做技术选型,我们还需要知道它不支持哪些操作

  • 不支持精确去重
  • 不支持 Join(只能进行 semi-join)
  • 不支持根据主键的单条记录更新

        所以如果不能接受这几点,则可以考虑放弃使用 Druid 了。

        那 Druid 的常见应用领域有哪些呢 ?

  • 点击流分析(网络和移动分析)
  • 风险/欺诈分析
  • 网络遥测分析(网络性能监控)
  • 服务器指标存储
  • 供应链分析(制造指标)
  • 应用程序性能指标
  • 商业智能/ OLAP

        关于更详细的描述,建议大家去多浏览官网​​https://druid.apache.org/use-cases​​,这里不做过多赘述 。

        下面来侃侃 Druid 的 架构 ~

Druid架构

        Druid 采用多进程,分布式的架构;其架构易于运维及部署,便于部署在云环境中。每个 Druid 进程都可以被独立地配置和横向扩展,这种设计一方面赋予了Druid集群 最大的灵活性和可扩展性,另一方面以提供了更高的容错性:避免了个别组件的失效影响了系统的其他模块。

实时分析数据库 Druid,Mark 一下_服务器_03        Druid的总体架构包含如下四类节点。

  • 中间管理节点(MiddleManager Node):及时摄入实时数据,并生成 Segment 数据文件。
  • 历史节点(Historical Node):加载已生成的数据文件,以供用户查询数据。
  • 查询节点(Broker Node):对外提供数据查询服务,并同时从中间管理节点与历史节点中查询数据,合并后返回调用方。
  • 协调节点(Coordinator Node):负责历史节点的数据负载均衡,以及通过规则(Rule)管理数据的生命周期。

集群还包含如下三类外部依赖:

  • 元数据库(Metadata Storage):存储Druid 集群的元数据信息,比如,Segment 的相关信息,一般使用 MySQL 或 PostgreSQL 存储。
  • 分布式协调服务(Zookeeper):为 Druid 集群提供一致性协调服务的组件,通常为 Zookeeper。
  • 数据文件存储库(Deep Storage):存放生成的 Segment 数据文件,并提供历史服务器下载功能,对于单节点集群,可以是本地磁盘,而对于分布式集群,一般是 HDFS 或 NFS 。

Druid 数据结构

        基于 DataSource 和 Segment 的 Druid 数据结构与 Druid 架构相辅相成,它们共同成就了 Druid 的高性能优势。

        DataSource相当于关系型数据库中的表(Table)。DataSource的结构如下。

  • 时间列:表明每行数据的时间值,默认使用UTC时间格式且精确到毫秒级。
  • 维度列:维度来自OLAP的概念,用来标识数据行的各个类别信息。
  • 指标列:用于聚合和计算的列。通常是一些数字,计算操作包括Count、Sum等。

        DataSource 结构如表所示:

实时分析数据库 Druid,Mark 一下_服务器_04        无论是实时摄取数据还是批量处理数据,Druid 在基于 DataSource 结构存储数据时,可选择对任意的指标列进行聚合操作。该聚合操作主要基于维度列与时间列。表显示的是 DataSource 聚合后的数据结构。实时分析数据库 Druid,Mark 一下_数据_05        在数据存储时便可对数据进行聚合操作是 Druid 的特点,该特点使得 Druid 不仅能够节省存储空间,而且能够提高聚合查询的效率。

        DataSource是一个逻辑概念,Segment是数据的实际物理存储格式。Druid将不同时间范围内的数据存储在不同的 Segment 数据块中,这便是所谓的数据横向切割。按照时间横向切割数据,避免了全表查询,极大地提高了效率。

        在Segment中,采用列式存储格式对数据进行压缩存储(Bitmap压缩技术),这便是所谓的数据纵向切割

Druid 安装

        接下来为大家介绍如何安装 Druid,本次我们演示安装的是单机版

安装部署

        我们可以选择去官网 ​​https://druid.apache.org/​​​下载实时分析数据库 Druid,Mark 一下_数据结构_06        另外我们也可以选择​​​https://imply.io/​​,从 imply页面下载 Druid 最新版本的安装包。因为 imply 集成了Druid ,提供了 Druid 从部署到配置再到各种可视化工具的完整解决方案,所以这里我们使用了第 2 种方法 ~

(1)将 ​​imply-2.7.10.tar.gz​​​上传到 node01 节点的的 /opt/software 目录下,并解压到​​/export/servers​​目录下。

[root@node01 software]# tar -zxvf imply-2.7.10.tar.gz -C ../servers/

(2)修改imply-2.7.10的名称为imply。

[root@node01 servers]# mv imply-2.7.10 imply

(3)修改配置文件

① 修改 Druid 的 ZK 配置

[root@node01 servers]# vim imply/conf/druid/_common/common.runtime.properties

需要修改的内容如下

druid.zk.service.host=node01:2181,node02:2181,node03:2181

② 修改启动命令参数,使其不校验、不启动内置ZK。实时分析数据库 Druid,Mark 一下_服务器_07(4)启动

① 启动 Zookeeper

[root@node01 imply]# zk_startall.sh

② 通过 bin 目录下的 supervise 命令启动 imply

[root@node01 imply]$ bin/supervise -c conf/supervise/quickstart.conf

说明:每启动一个服务均会打印出一条日志。我们可以在/opt/module/imply/var/sv/目录下查看服务启动时的日志信息。

        (1)启动成功之后呢,我们可以通过 ​​ip:端口​​​的方式进行访问,以我当前所安装 Druid 的节点 node01 为例,当我访问​​node01:9095/datasets​​,便可以在网页上看到如下界面:

实时分析数据库 Druid,Mark 一下_数据结构_08

        (2)单击“Load data”按钮,然后单击“Apache Kafka”按钮:实时分析数据库 Druid,Mark 一下_数据结构_09        (3)添加 Kafka 集群和主题信息,并选择合适的格式化形式实时分析数据库 Druid,Mark 一下_服务器_10(4)确认数据样本格式实时分析数据库 Druid,Mark 一下_数据_11(5)加载数据,必须要有时间字段实时分析数据库 Druid,Mark 一下_服务器_12(6)配置要加载的列实时分析数据库 Druid,Mark 一下_服务器_13(7)配置 Kafka 数据源实时分析数据库 Druid,Mark 一下_服务器_14(8)确认加载数据的配置实时分析数据库 Druid,Mark 一下_数据_15(9)连接 Kafka 的 topics_start,刚开始会显示 Connecting,加载完成之后便会显示如下图所示:实时分析数据库 Druid,Mark 一下_服务器_16(10)选择 SQL

        因为 topic 为​​ckTest​​​里存储的都是用户行为数据,这里我写了一个 SQL 获取每种渠道所对应的数据量,如下所示:实时分析数据库 Druid,Mark 一下_服务器_17

巨人的肩膀

1、hhttps://druid.apache.org/   Druid 官网

2、https://www.jianshu.com/p/6f822e0f538c《Druid基本概念及架构介绍》 

3、https://zhuanlan.zhihu.com/p/82038648《Apache Druid 简介》 


小结

        本期文章为大家介绍了 Druid 的简介,特点,使用场景,架构与数据结构,并用一个简单的 demo 为大家演示了 Druid 的具体使用。当然关于 Druid 值得探索的内容还有很多,限于文章篇幅不作过多介绍,希望大家能看完之后养成一种“自我驱动型学习”的能力,这才是最重要的!有疑问也欢迎找我探讨 ~ 你知道的越多,你不知道的也越多 ~ 我是梦想家,我们下一期见!


标签:存储,数据库,Druid,查询,imply,Mark,数据,节点
From: https://blog.51cto.com/u_15105906/5984117

相关文章

  • 语雀导出mark & 导入到obsidian
    语雀现在收费了,感觉后面不知道啥时候,可能就不会使用了。后面计划每隔一段时间就把语雀的文章导出成markdown,自己留存。如何导出语雀比较为Markdown可以参考:语雀知识库......
  • Markdown学习笔记
    Markdown学习一级标题:一个#+一个空格+标题名字+回车二级标题二级标题:2个#+一个空格+标题名字+回车三级标题三级标题:3个#+一个空格+标题名字+回车字体Hello,World!......
  • 从 markdown 中生成目录
    目录1完整代码2使用示例3原理3.1HTML的链接语法3.2markdown列表缩进4代码详解4.1使用「现代」Perl4.2支持utf8编码4.3主循环4.3.1跳过mark......
  • 数据库编程接口Libpq 2
    1.4异步函数   使用函数​​PQexec​​​​执行SQL命令很方便,但也有下面的缺点:​​·        ​​PQexec​​​​必须等到发出的命令执行结束才会返回,如果命......
  • PostgreSQL 数据库集群和PL/Proxy配置安装指南
    ​​PL/Proxy​​​和​​PostgreSQL​​​集群的结构关系可以用下图清楚地表示,对PL/Proxy和PostgreSQL集群还不太了解的朋友可以看​​SkypePlansforPostgreSQLtoScal......
  • mysql数据库的分区与分表(概念性说明)
    为什么要分区或者分表分区、分表都是解决数据量大,查询数据慢的主要手段。正常情况下一个innodb表,在没有分区分表情况下。在数据库文件数据中,它是有一个存储表结构的.frm文件......
  • SpringBoot中使用JDBC(扩展:关于java中的jdbc、数据库驱动、数据库连接池的学习与理解)
    SpringBoot中使用JDBC:https://huaweicloud.csdn.net/63876ea0dacf622b8df8bf7d.html?spm=1001.2101.3001.6650.1&utm_medium=distribute.pc_relevant.none-task-blog-2%7E......
  • Markdown使用方法
    Markdown使用方法 一级二级标题用#符号来表示层级标题(一共有6级别)也可以用ctrl+数字来表示 引用用>符号来表示这是一段引用 有序列表类似于word,......
  • Python之路【第八篇】:堡垒机实例以及数据库操作
    1.堡垒机前戏开发堡垒机之前,先来学习Python的paramiko模块,该模块机遇SSH用于连接远程服务器并执行相关操作 1.1SSHClient用于连接远程服务器并执行基本命令......
  • DDL的数据库操作和表操作
    SQL分类分类全称说明DDLdatadefinitionlanguage数据定义语言,用来定义数据库对象(数据库,表,字段)DMLdatamanipulationlanguage数据操作语言,用来对数据库的数......