首页 > 其他分享 >Hadoop总结——HDFS

Hadoop总结——HDFS

时间:2022-11-19 16:00:17浏览次数:51  
标签:总结 HDFS 副本 文件 Hadoop DataNode NameNode 数据

一、HDFS概述

1.1 HDFS产生背景

随着数据量越来越大,在一个操作系统管辖的范围内存不下了,那么就分配到更多的操作系统管理的磁盘中,但是不方便管理和维护,迫切需要一种系统来管理多台机器上的文件,这就是分布式文件管理系统。HDFS只是分布式文件管理系统中的一种。

1.2 HDFS概念

1)HDFS,它是一个文件系统,用于存储文件,通过目录树来定位文件;其次,它是分布式的,由很多服务器联合起来实现其功能,集群中的服务器有各自的角色。

2)HDFS的设计适合一次写入,多次读出的场景,且不支持文件的修改。适合用来做数据分析,并不适合用来做网盘应用。

二、HDFS优缺点

2.1 优点

1、高容错性

  • 数据自动保存多个副本。它通过增加副本的形式,提高容错性
  • 某一个副本丢失以后,它可以自动恢复
  • Block元数据信息+心跳
  • 多副本,提供容错机制,副本丢失或宕机自动恢复,默认存三份

2、适合批处理

  • 移动计算而非数据
  • 数据位置暴露给计算框架(Block偏移量)

3、适合大数据处理

  • 数据规模:能够处理数据规模达到 GB、TB、甚至PB级别的数据
  • 文件规模:能够处理百万规模以上的文件数量,数量相当之大

4、可构建在廉价机器上,通过多副本机制提高可靠性,提供容错和恢复机制

2.2 缺点

1、不适合低延时数据访问,比如毫秒级的存储数据,是做不到的

2、无法高效的对大量小文件进行存储

  • 存储大量小文件的话,它会占用NameNode大量的内存来存储文件、目录和块信息。这样是不可取的,因为NameNode的内存总是有限的
  • 小文件存储的寻道时间会超过读取时间,它违反了HDFS的设计目标

3、并发写入、文件随机修改

  • 一个文件只能有一个写,不允许多个线程同时写
  • 一个文件只有一个写者,仅支持数据 append(追加),不支持文件的随机修改
  • 问:如何使用append实现数据的增删改查 答:追加+标记+删除更改

三、HDFS存储模型:字节

3.1 HDFS存储模型:Block

3.2 分布式关键:Block

1、Block的副本数

  • 数据的备份数
  • 可以体现计算的并行度:数据本地化计算

2、区别主从副本

  • 主从副本:副本数=主副本+从副本
  • HDFS的副本不是主从副本,3个副本都是一样的地位

3、Block是按字节切分存储

3.3 存储模型:字节

  • 文件线性切割成块(Block):偏移量offset(byte)
  • Block分散存储在集群节点中
  • 单一文件Block大小一致,文件与文件可以不一致
  • Block可以设置副本数,副本分散在不同节点
  • 副本数不要超过节点数
  • 文件上传可以设置Block大小和副本数
  • 已上传的文件Block副本数可以调整,大小不变
  • 只支持一次写入多次读取,同一时间只有一个写入者
  • 可以append追加数据

四、HDFS架构

4.1 Hadoop 1.x HDFS架构:未做高可用时

1、Master/Slave架构

HDFS-1.0架构

Hadoop总结——HDFS_Hadoop

2、存在的问题

1)HDFS存在的问题

  • NameNode单点故障,难以应用于在线场景
  • NameNode压力过大,且内存受限,影响系统扩展性

2)MapReduce存在的问题

  • JobTracker访问压力过大,影响系统扩展性
  • 难以支持除MapReduce之外的计算框架,比如Spark等

4.2 Hadoop 2.x HDFS架构:高可用

Hadoop总结——HDFS_HDFS_02

架构解析:

1、主备NameNode

1)解决单点故障

  • 主NameNode对外提供服务,备NameNode同步主NameNode元数据,以待切换
  • 所有DataNode同时向两个NameNode汇报数据块信息

2)两种切换选择

  • 手动切换
  • 通过命令实现主备之间的切换,可以用HDFS升级等场合
  • 自动切换:基于Zookeeper实现
  • Zookeeper Failover Controller:监控NameNode健康状态
  • 向Zookeepe注册NameNode
  • NameNode挂掉后,ZKFC为NameNode竞争锁,获得ZKFC锁的NameNode变为Active

2、JN

3、ZKFC

4.3 架构组件

Hadoop总结——HDFS_HDFS读写流程_03

1、Client:客户端

  • 文件切分。文件上传 HDFS 的时候,Client 将文件切分成一个一个的Block,然后进行存储
  • 与NameNode交互,获取文件的位置信息
  • 与DataNode交互,读取或者写入数据
  • Client提供一些命令来管理HDFS,比如NameNode格式化
  • Client可以通过一些命令来访问HDFS,比如对HDFS增删查改操作

2、NameNode

1)Master节点:主管,管理者

  • 管理HDFS的名称空间
  • 配置副本策略
  • 管理数据块(Block)映射信息
  • 处理客户端的读写请求

2)NameNode有一个虚拟的文件系统,类似Linux的根目录

3、DataNode

1)Slave节点

  • 存储实际的数据块
  • 执行数据块的读/写操作

2)NameNode下达命令,DataNode执行实际的操作

4、SecondaryNameNode

1)SecondaryNameNode是NameNode的冷备份

  • 合并FsImage和Edits并发回给NameNode
  • FsImage:元数据镜像文件(文件系统的目录树)
  • Edits:元数据操作日志(针对文件系统做的修改操作记录)

2)SecondaryNameNode的合并流程解析

合并图解

Hadoop总结——HDFS_Hadoop_04

合并流程

  • NameNode将元数据镜像文件FsImage落成磁盘文件,新的操作日志会写入到Edits文件中, 当达到Checkpoint出发的条件时,SecondaryNameNode开始工作
  • 当触发一个Checkpoint操作时,NameNode会生成一个新的Edits,即图中的edits.new文件, 同时SecondaryNameNode会将edits(日志滚动前的edits)和fsimage复制到本地
  • SecondaryNameNode加载编辑日志和镜像文件到内存,并合并成Fsimage.ckpt
  • 拷贝fsimage.ckpt到NameNode,NameNode将fsimage.ckpt重新命名成fsimage
  • 等待下一次Checkpoint触发SecondaryNameNode进行工作,一直这样循环操作

小结

生成新的edits文件->复制fsimage和edits文件到SecondaryNameNode ->将编辑日志和镜像文件合并成Fsimage.ckpt->拷贝fsimage.ckpt到NameNode,重新命名为fsimage ->达到触发条件SecondaryNameNode再次开始运行

Checkpoint触发条件

  • fs.checkpoint.period:指定连续两次检查点的最大时间间隔,默认1h
  • fs.checkpoint.size:默认128M,edit日志文件大于这个值则强制触发
  • 配置文件:core-site.xml

3)辅助NameNode,分担其工作量,比如定期合并Fsimage和Edits,并推送给NameNode

4)在紧急情况下,可辅助恢复NameNode

5)SecondaryNameNode是Hadoop 1.x中HDFS HA的一个解决方案

6)冷备份和热备份的区别

  • 热备份能随时顶替挂掉的节点工作
  • 冷备份在节点挂掉后,只是节点挂掉之前的部分元数据

4.4 HDSF 1.x与HDFS 2.x的区别

Hadoop总结——HDFS_HDFS_05

五、HDFS工作原理

5.1 简易版本

1、HDFS写数据流程

Hadoop总结——HDFS_Hadoop_06

1)客户端通过Distributed FileSystem模块向NameNode请求上传文件,NameNode检查目标文件是否已存在,父目录是否存在。

2)NameNode返回是否可以上传。

3)客户端请求第一个 block上传到哪几个datanode服务器上。

4)NameNode返回3个datanode节点,分别为dn1、dn2、dn3。

5)客户端通过FSDataOutputStream模块请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成。

6)dn1、dn2、dn3逐级应答客户端。

7)客户端开始往dn1上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位,dn1收到一个packet就会传给dn2,dn2传给dn3;dn1每传一个packet会放入一个应答队列等待应答。

8)当一个block传输完成之后,客户端再次请求NameNode上传第二个block的服务器。(重复执行3-7步)。

2、HDFS读数据流程

Hadoop总结——HDFS_Hadoop_07

1)客户端通过Distributed FileSystem向NameNode请求下载文件,NameNode通过查询元数据,找到文件块所在的DataNode地址。

2)挑选一台DataNode(就近原则,然后随机)服务器,请求读取数据。

3)DataNode开始传输数据给客户端(从磁盘里面读取数据输入流,以packet为单位来做校验)。

4)客户端以packet为单位接收,先在本地缓存,然后写入目标文件。

5.2 详细版本

1、HDFS写数据流程

Hadoop总结——HDFS_HDFS读写流程_08

1)Client将FileA按128M分块。分成两块,block1和Block2;

2)Client向nameNode发送写数据请求,如图蓝色虚线①------>。

3)NameNode节点,记录block信息。并返回可用的DataNode,如粉色虚线②------->。

  • Block1: host2,host1,host6 Block2: host7,host3,host4

4)client向DataNode发送block1;发送过程是以流式写入。

流式写入过程

(1)将64M的block1按64k的package划分;

(2)然后将第一个package发送给host2;

(3)host2接收完后,将第一个package发送给host1,同时client向host2发送第二个package;

(4)host1接收完第一个package后,发送给host6,同时接收host2发来的第二个package。

(5)以此类推,如图红线实线所示,直到将block1发送完毕。

(6)host2,host1,host6向NameNode,host2向Client发送通知,说“消息发送完了”。如图粉红颜色实线所示。

(7)client收到host2发来的消息后,向namenode发送消息,说我写完了。这样就完成了。如图黄色粗实线。

(8)发送完block1后,再向host7,host3,host4发送block2,如图蓝色实线所示。

(9)发送完block2后,host7,host3,host4向NameNode,host7向Client发送通知,如图浅绿色实线所示。

(10)client向NameNode发送消息,说我写完了,如图黄色粗实线。。。这样就完毕了。

2、HDFS读数据流程

Hadoop总结——HDFS_HDFS_09

1)client向namenode发送读请求。

2)namenode查看Metadata信息,返回fileA的block的位置。

  • block1:host2,host1,host6 block2:host7,host3,host4

3)block的位置是有先后顺序的,先读block1,再读block2。而且block1去host2上读取;然后block2,去host7上读取。

5.3 HDFS副本存放机制

1、配备了机架感知

Hadoop的副本放置策略在可靠性(副本在不同机架)和带宽(只需跨越一个机架)中做了一个很好的平衡

Hadoop总结——HDFS_HDFS_10

Hadoop3.x副本结点选择:

由上图可知,第一个副本在Client所处的节点上。如果客户端在集群外,随机选一个。

第二个副本在另一个机架的随机一个节点。

第三个副本在第二个副本所在机架的随机节点。

更多副本:随机节点

2、未配备机架感知

三个DataNode机器的选择完全是随机的

5.4 HDFS的机架感知技术

1、确定节点所在的机架?

原理如下:

  • 当DataNode注册时和heartbeat时,会把DataNode的IP作为参数传入,返回信息为此DataNode的机架信息。
  • 如果没有参数配置,DataNode统一为默认的机架/default-rack

2、默认关闭

3、hadoop-site.xml配置:topology.script.file.name

配置选项的value指定为一个可执行脚本程序

  • 脚本的编写需要充分了解真实的网络拓扑和机架信息

通过该脚本能够将机器的IP地址正确的映射到相应的机架上去

5.5 HDFS安全模式

namenode启动的时候,首先将映像文件(fsimage)或入内存,并执行编相日志(edits)中的各项操作。

一旦在内存中成功建立文件系统元数据的映时,则创建一个新的fsimage文件(这个操作不需要SecondaryNameNode)和一个空的编辑日志。

此刻namenode运行在安全模式,即namenode的文件系统对于客服端来说是只读的。(显示目录,显示文件内容等。写、制除、重命名都会失败)

在此阶段Nameode收集各个datanode的报告,当数据块达到最小副本数以上时,会被认为是“安全”的,在一定比例(可设置)的故据块被确定为“安全”后,再过若干时间,安全模式结束

当检测到副本故不足的故据块时,该块会被复制直到达到最小副本故,系统中数据块的位置并不是由nanenode维护的,而是以块列表形式存铑在datanode中。

标签:总结,HDFS,副本,文件,Hadoop,DataNode,NameNode,数据
From: https://blog.51cto.com/u_15553407/5870455

相关文章