首页 > 其他分享 >Hadoop(十一)HDFS 读写数据流程

Hadoop(十一)HDFS 读写数据流程

时间:2024-09-18 09:35:19浏览次数:8  
标签:HDFS 读写 Hadoop DataNode dn1 dn2 NameNode 节点 客户端

HDFS读写数据流程

一、写数据流程


1、客户端通过Distributed FileSystem模块向NameNode请求上传文件,NameNode检查目标文件是否已存在,父目录是否存在
2、NameNode返回是否可以上传
3、客户端请求第一个Block上传到哪几个DataNode服务器上
4、NameNode返回3个DataNode节点,分别为dn1、dn2、dn3
5、客户端通过FSDataOutputStream模块请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成
6、dn1、dn2、dn3逐级应答客户端
7、客户端开始往dn1上传第一个Block(先从磁盘读取数据放到一个本地内存缓存),以Packet为单位,dn1收到一个Packet就会传给dn2,dn2传给dn3;dn1每传一个packet会放入一个应答队列等待应答
8、当一个Block传输完成之后,客户端再次请求NameNode上传第二个Block的服务器(重复执行3-7步)

二、节点距离计算

  • 在HDFS写数据的过程中,NameNode会选择距离待上传数据最近距离的DataNode接收数据
  • 节点距离:两个节点到达最近的共同祖先的距离总和

三、副本存储节点选择

  • 第一个副本在Client所处的节点上,如果客户端在集群外,随机选一个;第二个副本在另一个机架的随机一个节点;第三个副本在第二个副本所在机架的随机节点

四、读数据流程


1、客户端通过DistributedFileSystem向NameNode请求下载文件,NameNode通过查询元数据,找到文件块所在的DataNode地址
2、挑选一台DataNode(就近原则,然后随机)服务器,请求读取数据
3、DataNode开始传输数据给客户端(从磁盘里面读取数据输入流,以Packet为单位来做校验)
4、客户端以Packet为单位接收,先在本地缓存,然后写入目标文件

标签:HDFS,读写,Hadoop,DataNode,dn1,dn2,NameNode,节点,客户端
From: https://www.cnblogs.com/shihongpin/p/18417892

相关文章