首页 > 数据库 >浅谈MySQL、Hadoop、BigTable、Clickhouse数据读写机制

浅谈MySQL、Hadoop、BigTable、Clickhouse数据读写机制

时间:2022-10-11 17:34:34浏览次数:82  
标签:log Clickhouse Hadoop SSTable 引擎 block 数据 BigTable 浅谈

个人理解,欢迎指正

数据库 引擎 写数据 读数据 补充
MySql

InnoDB:支持事务,高速读写性能一般

Myisam:不支持事务,高速读写性能好

以InnoDB更新一条记录为例

1、B+Tree搜索找到这行记录,如果数据页在内存直接返回给【执行器】,否则从磁盘读入内存再返回

2、【执行器】更新数据,再调用【引擎】接口写入这行新数据

3、【引擎】将旧数据备份到undo log,然后更新内存中数据页的这行数据,同时将操作记录写到redo log里,此时redo log 处于prepare状态

4、【执行器】记录binlog日志

5、【执行器】调用引擎接口,【引擎】将redo log改成commit状态

6、此时更新就算完成了,【InnoBD引擎】会在适当的时候将操作记录批量刷到磁盘,并清理redo log

其基本流程是:先去缓存页查找,若没有则通过B+Tree检索到叶子节点对应的数据页,然后加到缓存页并返回

redo log(重做日志)和 binlog(归档日志)

1、redo log 是 InnoDB 引擎特有的;binlog 是 MySQL 的 Server 层实现的,所有引擎都可以使用。

2、redo log 是物理日志,记录的是“在某个数据页上做了什么修改”;binlog 是逻辑日志,记录的是这个语句的原始逻辑,比如“给 ID=2 这一行的 c 字段加 1 ”。

3、redo log 是循环写的,空间固定会用完;binlog 是可以追加写入的。“追加写”是指 binlog 文件写到一定大小后会切换到下一个,并不会覆盖以前的日志。 

Hadoop

存储:HDFS

计算:MapReduce

HDFS写数据

1、Client向NameNode请求上传Block(文件块)

2、NameNode向Client返回DataNode地址

3、Client以Package为单位向DataNode依次写入,直到写完整个Block

4、每传输完一个Package,DataNode会向Clent返回一个ack,若失败会重试

HDFS读数据

1、Client向NameNode请求下载文件

2、NameNode按负载均衡和节点距离返回DataNode给Client

3、Client读取DataNode,以Package为单位拉取,先存入缓存,最后生成文件,中间有checksum校验

MapReduce运算

1、InputFormat会从DataNode拉取一个个Bolck块

2、然后启动若干个MapTask对Block数据做运算

3、运算后的结果经过Shuffer落到磁盘

4、然后启动若干个ReduceTask从磁盘读取数据进行聚合

5、最后通过OutputFormat把结果写到HDFS或其他存储介质里

BigTable SSTable

其实SSTable文件也是存在GFS上,但GFS不支持随机写【增删改】,那么BigTable是如何实现的呢?

1、其实BigTable在内存里维护了一个内存表(MemTable),每次数据【增删改】都会增加一条记录,并附带版本。当容量到达阀值的时候会把MemTable转成SSTable【顺序写】到GFS上,后续数据继续写新的MemTable

2、另外,会启动一个后台进程(Major Compaction机制),不断的合并SSTable,只保留【增删改】的最终数据,老版本的数据被删除

当查询数据时,会去读取索引数据,找到数据块返回给Tablet Server,再从这个数据块里提取出对应的 KV 数据返回给客户端

1、内存里缓存 BloomFilter,使得对于不存在于 SSTable 中的行键,可以直接过滤掉,无需访问 SSTable 文件才能知道它并不存在

2、通过 Scan Cache 和 Block Cache 这两层缓存,利用局部性原理,使得查询结果可以在缓存中找到,而无需访问 GFS 上的硬盘

3、经过前2步还没找到,会通过SSTable索引来查找,底层是AVL红黑树或跳表,随机读写都是O(log n)

1、SSTable 的文件格式是由两部分组成:

数据块(data block),就是实际要存储的行键、列、值以及时间戳,这些数据会按照行键排序分成一个个固定大小的块(block)来进行存储。

元数据块(meta block),是一系列的元数据和索引信息,这其中包括用来快速过滤当前 SSTable 中不存在的行键的布隆过滤器,以及整个数据块的一些统计指标。

另外还有针对数据块和元数据块的索引(index),这些索引内容,则分别是元数据索引块(metaindex block)和数据索引块(index block)

2、因为 SSTable 里面的数据块是顺序存储的,所以Major Compaction做的是一个有序链表的多路归并,这个过程中在磁盘上是顺序读写

Clickhouse 表引擎主要是MergeTree系列,还有Log系列等其他引擎

1、一个Table是由多个Partition组成,一个Partition是由多个Part组成,Part里按column【列式存储】

2、旧数据在一个Part,新数据会写另一个Part,然后通过MergeTree引擎将多个Part异步合并(按排序键归并排序)

因为是按排序键已经排好序了,所以索引结构不需要像其他引擎设计的那么复杂;

底层是稀疏索引(默认8192为一个步长),通过【稀疏索引+标记的偏移量】就能很快找到Block的位置

 

1、Clickhouse通过【批处理+预排序】将数据提前排好序

2、Clickhouse能处理的最小单位是block,block就是一群行的集合,默认最大8192行组成一个block

 

相关资料

HDFS设计原理

日志系统:一条SQL更新语句是如何执行的?

SSTable存储引擎

Clickhouse的优化手段之block+lsm

Clickhouse索引结构

Clickhouse存储引擎

Clickhouse官方文档:MergeTree系列

标签:log,Clickhouse,Hadoop,SSTable,引擎,block,数据,BigTable,浅谈
From: https://www.cnblogs.com/wwzyy/p/16745461.html

相关文章

  • 浅谈LIS和LCS
    这是一篇由超级菜的OIer写的博客......LIS就是最长上升子序列,通过DP求解。普通的求法是\(O({n}^{2})\)的(相信大家都会写):解法1#include<bits/stdc++.h>usingnames......
  • 浅谈一下山海鲸和镝数这2款软件
    “数据可视化”无疑是当下被讨论的最多的话题之一,我也经常在各个平台看到有人提及。近日,我在翻阅知乎有关于可视化工具时经常能够看到两个名字:“山海鲸可视化”和“镝数图......
  • 浅谈自定义事件如何创建,触发和监听?
    我们知道的原生js事件,即内置事件有click,blur,mousemove等等。那如果我们想自定义一个事件呢?1、通过newEvent创建一个事件实例2、触发事件通过dispatch进行事件分发3......
  • 数据算法--Hadoop-Spark大数据处理技巧 pdf
    高清扫描版下载链接:https://pan.baidu.com/s/1SCA5hN-0ZbEK_uHZgpBkVg点击这里获取提取码 ......
  • 浅谈Go1.18版本新特性——泛型
    泛型Generics:引入了对使用参数化类型的泛型代码的新支持,达到了算法可复用的目的。两数求和,泛型函数的使用假设我们要计算两个数的和,函数可以这样子写funcAdd(a......
  • 浅谈gedit配置
    \(\text{gedit}\)是\(\text{GNOME}\)桌面的小型和轻量文本编辑器因为之前看学长博客感觉燕大的电脑似乎比较[数据删除],于是去问了\(\text{CDsidi}\)大佬\(\text{v......
  • ChunJun框架在数据还原上的探索和实践 | Hadoop Meetup精彩回顾
    Hadoop是Apache基金会旗下最知名的基础架构开源项目之一。自2006年诞生以来,逐步发展成为海量数据存储、处理最为重要的基础组件,形成了非常丰富的技术生态。作为国内顶......
  • 浅谈城市综合管廊分类及其运维管理
    陈盼安科瑞电气股份有限公司上海嘉定 20220620一、前言    综合管廊(日本称“共同沟”、中国台湾称“共同管道”),就是地下城市管道综合走廊,即在城市地下建造一个隧......
  • 浅谈弧光保护在中低压电力系统中的重要性
    陈盼安科瑞电气股份有限公司【摘要】: 中低压电力系统由于无母线保护、出线多,操作频繁、三相导体线间距离和与大地的距离比较近、易受小动物危害、设备制造质量比高压设备差......
  • hadoop集群启动脚本文件myhadoop.sh
    #!/bin/bashif[$#-lt1]thenecho"NoArgsInput..."exit;ficase$1in"start")echo"===================启动hadoop集群=========......