首页 > 其他分享 >大数据HBase图文简介

大数据HBase图文简介

时间:2024-07-29 22:53:05浏览次数:15  
标签:存储 列族 简介 Region Server HBase 数据 图文

引言

要想明白为什么产生 HBase,就需要先了解一下 Hadoop 存在的限制:Hadoop 可以通过 HDFS 来存 储结构化、半结构甚至非结构化的数据,是传统数据库的补充,是海量数据存储的最佳方法,它针对大文件的存储、批量访问和流式访问都做了优化,同时也通过多副本解决了容灾问题。

但是 Hadoop 的缺陷在于它只能执行批处理,并且只能以顺序方式访问数据,这意味着即使是最简单的工作也必须搜索整个数据集,无法实现对数据的随机访问。实现数据的随机访问是传统的关系型数据库所擅长的,但它们却不能用于海量数据的存储。在这种情况下,必须有一种新的方案来解决海量数据 存储和随机访问的问题,HBase 就是其中之一 (HBase,Cassandra,couchDB,Dynamo 和 MongoDB 都能存储海量数据并支持随机访问)。

数据结构分类:

  • 结构化数据:即以关系型数据库表形式管理的数据;
  • 半结构化数据:非关系模型的,有基本固定结构模式的数据,例如日志文件、XML 文档、 JSON 文档、Email 等;
  • 非结构化数据:没有固定模式的数据,如 WORD、PDF、PPT、EXL,各种格式的图片、视 频等。

简介

HBase是构建在Hadoop的HDFS文件系统之上的面向列族的数据库管理系统

HBase有如下特点:

  • 容量大:一个表可以有数十亿行,上百万列,这也和它的扩展性息息相关;
  • 面向列:数据是按照列存储,每一列都单独存放,数据即索引,在查询时可以只访问指定列的数 据,有效地降低了系统的 I/O 负担;
  • 稀疏性:空 (null) 列并不占用存储空间,表可以设计的非常稀疏 ;
  • 易扩展:的扩展性主要体现在两个方面,一个是基于上层处理能力(RegionServer) 的扩展,一个是基于存储的扩展(HDFS)。通过横向添加 RegionSever 的机器, 进行水平扩展,提升 Hbase 上层的处理能力,提升 Hbsae 服务更多 Region 的 能力。
  • 数据多版本:每个单元中的数据可以有多个版本,按照时间戳排序,新的数据在最上面;
  • 采用 HDFS 作为底层存储,支持结构化、半结构化和非结构化的存储;
  • 支持数据分片;
  • 易于使用的 Java 客户端 API,客户端可以通过 HBase 实现对 HDFS 上数据的随机访问;

HBase Table

表 schema 仅定义列族,表具有多个列族,每个列族可以包含任意数量的列,列由多个单元格 (cell )组成,单元格可以存储多个版本的数据,多个版本数据以时间戳进行区分。

  • 所有数据的底层存储格式都是字节数组;
  • 不持复杂的事务,只支持行级事务,即单行数据的读写都是原子性的;
  • 查询功能简单,不支持join等复杂操作;
  • 仅支持通过主键(row key)和主键的 range 来检索数据;

Row Key行键

Row Key 是用来检索记录的主键。想要访问 HBase Table 中的数据,只有以下三种方式:

  • 通过指定的 Row Key 进行访问;
  • 通过 Row Key 的 range 进行访问,即访问指定范围内的行;
  • 进行全表扫描;

Row Key 可以是任意字符串,存储时数据按照 Row Key 的字典序进行排序,这里需要注意以下两点:

  • 因为字典序对 int 排序的结果是 1,10,100,11,12,13,14,15,16,17,18,19,2,20,21,…,9,91,92,93,94,95,96,97,98,99。如果你使用整型的字符串作为行键,那么为了保持整型的自然序,行键必须用 0 作左填充
  • 行的一次读写操作时原子性的 (不论一次读写多少列)。

Column Family列族

  • HBase 表中的每个列,都归属于某个列族。列族是表的 Schema 的一部分,所以列族需要在创建表时定义。
  • 列族的所有列都以列族名作为前缀,例如 courses:history , courses:math 都属于 courses 这个列族。

Column Qualifier列限定符

列限定符,可以理解为是具体的列名,例如 courses:history , courses:math 都属于 courses 这个列族,它们的列限定符分别是 history 和 math 。需要注意的是列限定符不是表 Schema 的一部分,可以在插入数据的过程中动态创建列。

Cell 单元格

Cell 是行,列族和列限定符的组合,并包含值和时间戳。可以等价理解为关系型数据库中由指定行和指定列确定的一个单元格,而不同的是 HBase 中的一个单元格是由多个版本的数据组成的,每个版本的数据用时间戳进行区分。

Timestamp 时间戳

HBase 中通过 row key 和 column 确定的为一个存储单元称为 Cell 。每个 Cell 都保存着同一份数 据的多个版本。版本通过时间戳来索引,时间戳的类型是 64 位整型,时间戳可以由 HBase 在数据写入 时自动赋值,也可以由客户显式指定。每个 Cell 中,不同版本的数据按照时间戳倒序排列,即最新的数据排在最前面。

存储结构

Regions

HBase Table 中的所有行按照 Row Key 的字典序排列。HBase Tables 通过行键的范围 (row key range) 被水平切分成多个 Region , 一个 Region 包含了在 start key 和 end key 之间的所有行。

每个表一开始只有一个 Region ,随着数据不断增加, Region 会不断增大,当增大到一个阀值的时 候, Region 就会等分为两个新的 Region 。当 Table 中的行不断增多,就会有越来越多的 Region 。

Region 是 HBase 中分布式存储和负载均衡的最小单元。这意味着不同的 Region 可以分布在不同的 Region Server 上。但一个 Region 是不会拆分到多个 Server 上的。

Region Server

Region Server 运行在 HDFS 的 DataNode 上。它具有以下组件:

  • WAL(Write Ahead Log,预写日志):对 HBase 读写数据的时候,数据不是直接写进磁盘,它会在内存中保留一段时间,但把数据保存在内存中可能有更高的概率引起数据丢失,为了解决这个问题,数据会先写在一个叫 做 Write-Ahead logfile 的文件中存储尚未进持久化存储的数据记录,以便在发生故障时进行恢复。
  • BlockCache:读缓存。它将频繁读取的数据存储在内存中,如果存储不足,它将按照 最近最少使 用原则 清除多余的数据。
  • MemStore:写缓存。它存储尚未写入磁盘的新数据,并会在数据写入磁盘之前对其进行排序。 每个 Region 上的每个列族都有一个 MemStore
  • HFile :将行数据按照 Key\Values 的形式存储在文件系统上,是实际的存储文件。

Region Server 存取一个子表时,会创建一个 Region 对象,然后对表的每个列族创建一个 Store 实例,每个 Store 会有 0 个或多个 StoreFile 与之对应,每个 StoreFile 则对应一个 HFile ,HFile 就是实际存储在 HDFS 上的文件。

系统架构

HBase 系统遵循 Master/Salve 架构,由三种不同类型的组件组成:

Zookeeper

  • 保证任何时候,集群中只有一个 Master;
  • 存贮所有 Region 的寻址入口;
  • 实时监控 Region Server 的状态,将 Region Server 的上线和下线信息实时通知给 Master;
  • 存储 HBase 的 Schema,包括有哪些 Table,每个 Table 有哪些 Column Family 等信息;

Master

  • 为 Region Server 分配或移除Region ;
  • 负责 Region Server 的负载均衡 ;
  • 处理Region Server 的故障转移;
  • 处理GFS 上的垃圾文件回收;
  • 处理 Schema 的更新请求;

Region Server

  • 负责维护 Master 分配给它的 Region ,并处理发送到 Region 上的 IO 请求;
  • 负责切分在运行过程中变得过大的 Region;
  • 维护HLog
  • 刷新缓存到HDFS
  • 存储HBase的实际数据
  • 压缩数据

三个组件间的协作

HBase 使用 ZooKeeper 作为分布式协调服务来维护集群中的服务器状态。 Zookeeper 负责维护可用 服务列表,并提供服务故障通知等服务:

  • 每个 Region Server 都会在 ZooKeeper 上创建一个临时节点,Master 通过 Zookeeper 的 Watcher 机制对节点进行监控,从而发现新加入的 Region Server 或故障退出的 Region Server;
  • 所有 Masters 会竞争性地在 Zookeeper 上创建同一个临时节点,由于 Zookeeper 只能有一个同名节点,所以必然只有一个 Master 能够创建成功,此时该 Master 就是主 Master,主 Master 会 定期向 Zookeeper 发送心跳。备用 Masters 则通过 Watcher 机制对主 HMaster 所在节点进行监听
  • 如果主 Master 未能定时发送心跳,则其持有的 Zookeeper 会话会过期,相应的临时节点也会被 删除,这会触发定义在该节点上的 Watcher 事件,使得备用的 Master Servers 得到通知。所有备 用的 Master Servers 在接到通知后,会再次去竞争性地创建临时节点,完成主 Master 的选举。

写数据流程

  1. Client 向 Region Server 提交写请求;
  2. Region Server 找到目标 Region;
  3. Region 检查数据是否与 Schema 一致;
  4. 如果客户端没有指定版本,则获取当前系统时间作为数据版本;
  5. 将更新写入 WAL Log;
  6. 将更新写入 Memstore;
  7. 判断 Memstore 存储是否已满,如果存储已满则需要 flush 为 Store Hfile 文件。

读数据

以下是客户端首次读写 HBase 上数据的流程:

  1. 客户端从 Zookeeper 获取 META 表所在的 Region Server;
  2. 客户端访问 META 表所在的 Region Server,从 META 表中查询到访问行键所在的 Region Server,之后客户端将缓存这些信息以及 META 表的位置;
  3. 客户端从行键所在的 Region Server 上获取数据。
  4. 如果再次读取,客户端将从缓存中获取行键所在的 Region Server。这样客户端就不需要再次查询 META 表,除非 Region 移动导致缓存失效,这样的话,则将会重新查询并更新缓存。

注: META 表是 HBase 中一张特殊的表,它保存了所有 Region 的位置信息,META 表自己的位置信息 则存储在 ZooKeeper 上。

Phoenix

  • Phoenix 是 HBase 的开源 SQL 中间层,它允许使用标准 JDBC 的方式来操作 HBase 上的数据!
  • 在 Phoenix 之前,如果要访问 HBase,只能调用它的 Java API,但相比于使用一行 SQL 就能实现数据 查询,HBase 的 API 还是过于复杂。

Phoenix 的理念是 we put sql SQL back in NOSQL ,即可以使用标准的 SQL 就能完成对 HBase 上数据的操作,这也意味着可以通过集成 Spring Data JPA 或 Mybatis 等常用的持久层框架来操作 HBase。 其次 Phoenix 的性能表现也非常优异, Phoenix 查询引擎会将 SQL 查询转换为一个或多个 HBase Scan,通过并行执行来生成标准的 JDBC 结果集。它通过直接使用 HBase API 以及协处理器和自定义过 滤器,可以为小型数据查询提供毫秒级的性能,为千万行数据的查询提供秒级的性能。同时 Phoenix 还 拥有二级索引等 HBase 不具备的特性,不仅如此 Phoenix 对于用户输入的 SQL 同样会有大量的优化手段(就像 hive 自带 sql 优化器一样),因为以上的优点,所以 Phoenix 成为了 HBase 最优秀的 SQL 中间层。

标签:存储,列族,简介,Region,Server,HBase,数据,图文
From: https://blog.csdn.net/qq_73181349/article/details/140753124

相关文章

  • 1. STM32结构简介
    上面就是stm32F103系列的结构图。内核在stm32芯片中,其资源分为内核以及外设两个部分,所谓内核相当于电脑的CPU,负责进行数据处理。以stm32F103系列为例,其内核采用Cortex-M3内核,该内核由Arm公司设计授权给ST公司进行制造生产。总线结构总线(Bus)是指计算机组件间规范化的交......
  • SQL Server简介
    一、SQLServer的历史SQLServer的起源可以追溯到20世纪80年代末。当时,微软公司与Sybase合作开发了一个关系数据库管理系统(RDBMS),这就是SQLServer的前身。最早的版本是针对OS/2操作系统开发的。随着时间的推移,微软逐渐在SQLServer的开发和维护中占据了主导地位,最终在1993年,......
  • windows hbase连接工具 hbase连接数过多, yarn job HBase hdfs zookeper
    windowshbase连接工具hbase连接数过多##1.ZK连接过多1)查看ip连接数前十  登录后复制netstat-na|grep2181|awk'{print$5}'|awk-F:'{print$1}'|sort|uniq-c|sort-rn|head-n101.##2.补数操作登录后复制hbaseorg.apache.hadoop.hbase.mapreduce.Co......
  • 【通信模块】LoraWAN网络简介
    LoRaWAN网络技象科技相关文章总结,学习笔记,原文链接如下,转载请标明该出处:LORA:https://www.techphant.cn/tag/l-2LORAWAN:https://www.techphant.cn/tag/l-3其他:如LANhttps://www.techphant.cn/tag/l-4Lora基本原理LoRa(长距离低功耗无线通信)技术作为一种低功耗、远距......
  • LoRa MESH网络拓扑及其物联网应用场景简介
    什么是LORAMESH组网技术LORAMESH组网技术是一种基于LORA传输的Mesh组网方案,LoRaMESH网络允许设备之间以多跳(multi-hop)的方式进行无线通信。LoRaMESH组网技术被广泛运用于解决“最后一公里”问题,是实现设备之间低功耗、广覆盖通信的重要手段。LoRaMESH网络拓扑简介LoRaMES......
  • 如果 频繁操作Hbase 数据库 ,可以保持 Connection connection 一直连接吗
    问:如果频繁操作Hbase数据库,可以保持 Connectionconnection一直连接吗,或者有什么方式可以优化吗,如何 使用连接池(HBase自己提供的连接池)可以复用连接对象,减少频繁创建和销毁连接的开销。连接池负责维护一组预先建立的连接,并在需要时将它们提供给应用程序。当应用程序完成操......
  • Nacos-微服务注册中⼼(Nacos简介 Nacos配置管理)
    目录一、 微服务的注册中⼼1.注册中⼼的主要作⽤ 2.常⻅的注册中⼼二、Nacos简介 nacos实战⼊⻔1.搭建nacos环境2.将订单微服务注册到nacos2.1 在pom.xml中添加nacos的依赖2.2在主类上添加@EnableDiscoveryClient注解2.3在application.yml中添加nacos服务......
  • HarmonyOS瀑布流的实现-------唐朝诡事录人物简介
    HarmonyOS瀑布流的实现介绍功能介绍代码结构页面布局数据结构类瀑布流数据数组瀑布流数据资源瀑布流组件中子组件的构建瀑布流效果的实现介绍当下的大多数产品中瀑布流是一种非常常见的组件,本文将介绍关于waterflow的图片浏览功能介绍使用瀑布流实现图片展示如下......
  • Linux Kernel CFI机制简介及测试禁用
    PS:要转载请注明出处,本人版权所有。PS:这个只是基于《我自己》的理解,如果和你的原则及想法相冲突,请谅解,勿喷。环境说明  无前言  当我们为android移植linux的驱动程序的时候,总会遇到一些错误,这些错误有一部分就是android内核开启的安全的机制导致的。本文就会介绍一种......
  • 【libevent】libevent简介
    1、Libevent1.1简介Libevent是一个用C语言编写的、轻量级的开源高性能事件驱动网络库。基本的socket编程是阻塞/同步的,每个操作除非已经完成或者出错才会返回,这样对于每一个请求,要使用一个线程或者单独的进程去处理,系统资源没法支撑大量的请求,于是各系统分别提出了基于异步/c......