HDFS
一.HDFS概述
1.HDFS的产生背景和定义
(1)HDFS产生背景
随着数据量越来越大,在一个操作系统存不下所有的数据,那么就分配到 更多的操作系统管理的磁盘中,但是不方便管理和维护,迫切需要一种系 统来管理多台机器上的文件,这就是分布式管理系统.HDFS只是分布式文 件管理系统中的一种
(2)HDFS定义
HDFS是一个文件系统,用于存储文件,通过目录树来定位文件;其次,他是 分布式的,有很多服务器联合起来实现其功能,集群中的服务器有各自的 角色
HDFS的使用场景:适合一次写入,多次读出的场景.一个文件经过创建,写 入和关闭之后就不需要改变
2.优缺点
优点:
(1)高容错性
A.数据自动保存多个副本.它通过增加副本的形式,提高容错性
B.某一个人副本丢失以后,它可以自动恢复
(2)适合处理大数据
A.数据规模:能够处理数据规模达到GB,TB,甚至PB级别的数据
B.文件规模:能够处理百万规模以上的文件数量,数量相当之大
(3)可构建在廉价的机器上,通过多副本机制,提高可靠性
缺点:
(1)不适合低延时数据访问,比如毫秒级的存储数据,是做不到的
(2)无法高效的对大量小文件进行存储
A.存储大量小文件,他会占用namenode大量的内存来存储文件目录和块 信息.这样是不可取的,因为namenode的内存总是有限的
B.小文件存储的寻址时间会超过读取时间,他违反了HDFS的设计目标
(3)不支持并发写入,文件随机修改
A.一个文件只能有一个写,不允许多个线程同时写
B.仅支持数据append(追加),不支持文件的随机修改
3.组成
(1)namenode(nn):就是master,他是一个主管,管理者
A.管理HDFS的名称空间
B.配置副本策略
C.管理数据块(block)映射信息
D.处理客户端读写请求
(2)datanode:就是slave.namenode下达命令,datanode执行实际的操作
A.存储实际的数据块
B.执行数据块的读写操作
(3)Client:就是客户端
A.文件切分.文件上传HDFS的时候,Client将文件切分成一个一个的 block,然后进行上传
B.与namenode交互,获取文件的位置信息
C.与datanode交互,读取或者写入数据
D.client提供一些命令来管理HDFS,比如namenode格式化
E.client可以通过一些命令来访问HDFS,比如对HDFS增删查改操作
(4)Secondarynamenode:并非namdenode的热备.当namenode挂掉的时候,它并 不能马上替换namenode并提供服务
A.辅助namenode,分担其工作量,比如定期合并fsimage和edits,并推给 namenode
B.在紧急情况下,可辅助恢复namenode
4.文件块大小(面试重点)
HDFS中的文件在物理上是分块存储(block),块的大小可以通过配置参数 (dfs.blocksize)来规定,默认大小在hadoop2.x/3.x版本中是128m,1.x版本中是 64m
(1)集群中的block:block1,block2...
(2)如果寻址时间约为10ms,及查找到目标block的时间为10ms
(3)寻址时间为传输时间的1%时,则为最佳状态.因此传输时间=10ms/0.01=1s
(4)目前磁盘的传输速率普遍为100ms
思考:为什么块的大小不能设置太小,也不能设置太大
(1)HDFS的块设置太小,会增加寻址时间,程序一直在找块的开始位置
(2)如果块设置太大,从磁盘传输数据的时间会明显大于定位这个块开始位置 所需时间.导致程序在处理这块数据时,会非常慢
总结:HDFS块的大小主要取决于磁盘传输速率
二.HDFS的shell操作(开发重点)
1.基本语法
hadoop fs -具体命令
hdfs dfs -具体命令
2.命令大全
3.常见命令实操
3.1.准备工作
(1)启动hadoop集群
(2)-help:输入这个命令参数
(3)准备/sanguo文件夹
3.2.上传
(1)-moveFromLocal:从本地剪切粘贴到HDFS
(2)-copyFromLocal:从本地文件系统中拷贝文件到HDFS路径
(3)-put:等同于copyFromLocal,生产环境更习惯用put
(4)-appendToFile:追加一个文件到已经存在的文件末尾
3.3.下载
(1)-copyToLacol:从HDFS拷贝到本地
(2)-get:等同于copyToLoacl,生产环境习惯用get
3.4.HDFS直接操作
(1)-ls:显示目录信息
(2)-cat:显示文件内容
(3)-chgrp,-chmod,-chown:linux文件系统中的用法一样,修改文件所属权限
(4)-mkdir:创建路径
(5)-cp:从HDFS的一个路径拷贝到HDFS的另一个路径
(6)-mv:在HDFS目录中移动文件
(7)-tail:显示一个文件的末尾1kb的数据
(8)-rm:删除文件或文件夹
(9)-rm -r:递归删除目录及目录里的内容
(10)-du:统计文件夹的大小信息
(11)-setrep:设置HDFS中文件的副本数量
三.HDFS的api操作
1.客户端环境准备
(1)将windows所需的依赖放到非中文路径中(E:\software\hadoop-3.1.1)
(2)配置HADOOP_HOME环境变量
(3)在IDEA中创建一个maven工程,导入依赖坐标+日志添加
2.HDFS的api操作实例
封装相同的步骤
2.1.HDFS文件上传(测试参数优先级)
(1)文件的上传
(2)将hdfs-site.xml拷贝到项目的resources资源目录下
(3)参数优先级
参数优先级排序:A.客户端代码中设置的值>B.ClassPath下的用户自 定义配置文件>C.服务器的自定义配置(xxx.site.xml)>D.服务器 的默认 配置(xxx-default.xml)
2.2.HDFS文件下载
2.3.HDFS文件更名和移动
2.4.HDFS删除文件和目录
2.5.HDFS文件详情查看
2.6.HDFS文件和文件夹判断
四.HDFS的读写操作(面试重点)
1.HDFS写数据流程
1.1.剖析文件写入
1.2.网络拓扑-节点距离计算
在HDFS写数据的过程中,namenode会选择距离待上传数据最近距离的 datanode接收数据.那么这个最近的距离怎么计算呢?
节点距离:两个节点到达最近的共同祖先的距离总和
例如,假设有数据中心d1机架r1中的节点n1.该节点可以表示为 /d1/r1/n1.利用这种标记,这里给出了四种距离描述
1.3.机架感知(副本存储节点选择)
(1)机架感知说明
A.官方
B.源码
Ctrl+n查找blockplacementpolicydefault,在该类中查找 choosetargetinorder方法
(2)副本节点选择
2.HDFS读数据流程
读数据的时候选择哪个节点考虑两个因素:(1)距离最近(2)负载均衡
五.namenode和secondarynamenode
1.NN和2NN工作机制
思考:namenode中的元数据是存储在哪里的?
首先,我们做个假设,如果存储在namenode节点的磁盘中,因为经常需要进行 随机访问,还有响应客户请求,必然是效率过低.因此,元数据需要存放在内存 中.但如果只存在内存中,一旦断电,元数据丢失,整个集群就无法工作了.因此 产生在磁盘中备份元数据的fsimage
这样又会带来新的问题,当在内存中的元数据更新时,如果同时更新fsimage, 就会导致效率过低,但如果不更新,就会发生一致性问题,一旦namenode节点 断电,就会产生数据丢失.因此.引入edits文件(只进行追加操作,效率很高).每 当元数据有更新或者添加元数据时,修改内存中的元数据并追加到edits中. 这 样,一旦namenode节点断电,可以通过fsimage和edits的合并,合成元数据
(1)第一阶段:namenode启动
A.第一次启动nn格式化后,创建fsimage和edits文件.如果不是第一次 启动,直接加载编辑日志和镜像文件到内存
B.客户端对元数据进行增删改的请求
C.nn记录操作日志,更新滚动日志
D.nn在内存中对元数据进行增删改
(2)第二阶段:2nn工作
A.2nn询问nn是否需要checkpoint.直接带回nn是否检查结果
B.2nn请求执行checkpoint
C.nn滚动正在写的edits日志
D.将滚动前的编辑日志和镜像文件拷贝到2nn
E.2nn加载编辑日志和镜像文件到内存,并合并
F.生成新的镜像文件fsimage.chkpoint
G.拷贝fsimage.chkpoint到nn
H.nn将fsimage.chkpoint重新命名成fsimage
2.fsimage和edits解析
2.1.概念
nn被格式化之后,将在 目录中产生如下文件
(1)fsimage文件:HDFS文件系统元数据的一个永久性的检查点,其中包含 HDFS文件系统的所有目录和文件inode的序列化信息
(2)edits文件:存放HDFS文件系统的所有更新操作的路径,文件系统客户 端执行的所有写操作首先会被记录到edits中
(3)seen_txid文件保存的是一个数字,就是最后一个edits_的数字
2.2.操作
(1)oiv查看fsimage文件
A.查看oiv和oev命令
B.基本语法
hdfs oiv -p 文件类型 -i 镜像文件 -o 转换后文件输出路径
C.案例实操
(2)oev查看edits日志
A.基本语法
hdfs ove -p 文件类型 -i 编辑日志 -o 转换后文件输出路径
B.案例实操
3.checkpoint时间设置
(1)通常情况下,2nn每隔一小时执行一次
(2)一分钟检查一次操作次数,当操作次数达到1百万时,2nn执行一次
六.Datanode
1.dn工作机制
(1)一个数据块在dn上以文件的形式存储在磁盘上,包括两个文件,一个是数 据本身,一个是元数据包括数据块的长度,快数据的校验和,以及时间戳
(2)dn启动后向nn注册,通过后周期性(6小时)的向nn上报所有的块信息
dn向nn汇报当前解读信息的时间间隔,默认为6小时
Dn扫描自己节点块信息列表的时间,默认6小时
(3心跳是每3秒一次,心跳返回结果带有nn给该dn的命令如复制块数据到另 一台机器,或删除每个数据块.如超过十分钟没有收到某个dn的心跳,则认为 该节点不可用
(4)集群运行中可以安全加入和退出一些机器
2.数据完整性
思考:如果电脑磁盘里面存储的数据是控制高铁信号灯的红灯信号(1)和绿灯 信号(0),但是存储该数据的磁盘坏了,一直显示是绿灯,是否很危险?同理节点 上的数据损坏了,却没有发现,是否也很危险,那么如何解决
如下是datanode节点保证数据完整性的方法:
A.当dn读取block的时候,他会计算checksum
B.如果计算后的clecksum,与block创建时值不一样,说明block已经损 坏
C.client读取其他dn上的block
D.常见的校验算法crc(32),md5(128),sha1(160)
E.dn在其文件创建后周期验证clecksum
3.掉线时限参数设置
需要注意的是hdfs-site.xml配置文件中的heartbeat.recheck.interval的 单位为 毫秒,dfs.hearbeat.interval的单位为秒
标签:HDFS,nn,文件,namenode,数据,节点 From: https://www.cnblogs.com/swh666/p/18404627