首页 > 其他分享 >2.HDFS

2.HDFS

时间:2024-09-09 15:13:57浏览次数:1  
标签:HDFS nn 文件 namenode 数据 节点

HDFS

一.HDFS概述

1.HDFS的产生背景和定义

(1)HDFS产生背景

随着数据量越来越大,在一个操作系统存不下所有的数据,那么就分配到 更多的操作系统管理的磁盘中,但是不方便管理和维护,迫切需要一种系 统来管理多台机器上的文件,这就是分布式管理系统.HDFS只是分布式文 件管理系统中的一种

(2)HDFS定义

HDFS是一个文件系统,用于存储文件,通过目录树来定位文件;其次,他是 分布式的,有很多服务器联合起来实现其功能,集群中的服务器有各自的 角色

HDFS的使用场景:适合一次写入,多次读出的场景.一个文件经过创建,写 入和关闭之后就不需要改变

2.优缺点

优点:

(1)高容错性

A.数据自动保存多个副本.它通过增加副本的形式,提高容错性

B.某一个人副本丢失以后,它可以自动恢复

(2)适合处理大数据

A.数据规模:能够处理数据规模达到GB,TB,甚至PB级别的数据

B.文件规模:能够处理百万规模以上的文件数量,数量相当之大

(3)可构建在廉价的机器上,通过多副本机制,提高可靠性

缺点:

(1)不适合低延时数据访问,比如毫秒级的存储数据,是做不到的

(2)无法高效的对大量小文件进行存储

A.存储大量小文件,他会占用namenode大量的内存来存储文件目录和块 信息.这样是不可取的,因为namenode的内存总是有限的

B.小文件存储的寻址时间会超过读取时间,他违反了HDFS的设计目标

(3)不支持并发写入,文件随机修改

A.一个文件只能有一个写,不允许多个线程同时写

B.仅支持数据append(追加),不支持文件的随机修改

3.组成

(1)namenode(nn):就是master,他是一个主管,管理者

A.管理HDFS的名称空间

B.配置副本策略

C.管理数据块(block)映射信息

D.处理客户端读写请求

(2)datanode:就是slave.namenode下达命令,datanode执行实际的操作

A.存储实际的数据块

B.执行数据块的读写操作

(3)Client:就是客户端

A.文件切分.文件上传HDFS的时候,Client将文件切分成一个一个的 block,然后进行上传

B.与namenode交互,获取文件的位置信息

C.与datanode交互,读取或者写入数据

D.client提供一些命令来管理HDFS,比如namenode格式化

E.client可以通过一些命令来访问HDFS,比如对HDFS增删查改操作

(4)Secondarynamenode:并非namdenode的热备.当namenode挂掉的时候,它并 不能马上替换namenode并提供服务

A.辅助namenode,分担其工作量,比如定期合并fsimage和edits,并推给 namenode

B.在紧急情况下,可辅助恢复namenode

4.文件块大小(面试重点)

HDFS中的文件在物理上是分块存储(block),块的大小可以通过配置参数 (dfs.blocksize)来规定,默认大小在hadoop2.x/3.x版本中是128m,1.x版本中是 64m

(1)集群中的block:block1,block2...

(2)如果寻址时间约为10ms,及查找到目标block的时间为10ms

(3)寻址时间为传输时间的1%时,则为最佳状态.因此传输时间=10ms/0.01=1s

(4)目前磁盘的传输速率普遍为100ms

思考:为什么块的大小不能设置太小,也不能设置太大

(1)HDFS的块设置太小,会增加寻址时间,程序一直在找块的开始位置

(2)如果块设置太大,从磁盘传输数据的时间会明显大于定位这个块开始位置 所需时间.导致程序在处理这块数据时,会非常慢

总结:HDFS块的大小主要取决于磁盘传输速率

二.HDFS的shell操作(开发重点)

1.基本语法

hadoop fs -具体命令

hdfs dfs -具体命令

2.命令大全

3.常见命令实操

3.1.准备工作

(1)启动hadoop集群

(2)-help:输入这个命令参数

(3)准备/sanguo文件夹

3.2.上传

(1)-moveFromLocal:从本地剪切粘贴到HDFS

(2)-copyFromLocal:从本地文件系统中拷贝文件到HDFS路径

(3)-put:等同于copyFromLocal,生产环境更习惯用put

(4)-appendToFile:追加一个文件到已经存在的文件末尾

3.3.下载

(1)-copyToLacol:从HDFS拷贝到本地

(2)-get:等同于copyToLoacl,生产环境习惯用get

3.4.HDFS直接操作

(1)-ls:显示目录信息

(2)-cat:显示文件内容

(3)-chgrp,-chmod,-chown:linux文件系统中的用法一样,修改文件所属权限

(4)-mkdir:创建路径

(5)-cp:从HDFS的一个路径拷贝到HDFS的另一个路径

(6)-mv:在HDFS目录中移动文件

(7)-tail:显示一个文件的末尾1kb的数据

(8)-rm:删除文件或文件夹

(9)-rm -r:递归删除目录及目录里的内容

(10)-du:统计文件夹的大小信息

(11)-setrep:设置HDFS中文件的副本数量

三.HDFS的api操作

1.客户端环境准备

(1)将windows所需的依赖放到非中文路径中(E:\software\hadoop-3.1.1)

(2)配置HADOOP_HOME环境变量

(3)在IDEA中创建一个maven工程,导入依赖坐标+日志添加

2.HDFS的api操作实例

封装相同的步骤

2.1.HDFS文件上传(测试参数优先级)

(1)文件的上传

(2)将hdfs-site.xml拷贝到项目的resources资源目录下

(3)参数优先级

参数优先级排序:A.客户端代码中设置的值>B.ClassPath下的用户自 定义配置文件>C.服务器的自定义配置(xxx.site.xml)>D.服务器 的默认 配置(xxx-default.xml)

2.2.HDFS文件下载

2.3.HDFS文件更名和移动

2.4.HDFS删除文件和目录

2.5.HDFS文件详情查看

2.6.HDFS文件和文件夹判断

四.HDFS的读写操作(面试重点)

1.HDFS写数据流程

1.1.剖析文件写入

1.2.网络拓扑-节点距离计算

在HDFS写数据的过程中,namenode会选择距离待上传数据最近距离的 datanode接收数据.那么这个最近的距离怎么计算呢?

节点距离:两个节点到达最近的共同祖先的距离总和

例如,假设有数据中心d1机架r1中的节点n1.该节点可以表示为 /d1/r1/n1.利用这种标记,这里给出了四种距离描述

1.3.机架感知(副本存储节点选择)

(1)机架感知说明

A.官方

B.源码

Ctrl+n查找blockplacementpolicydefault,在该类中查找 choosetargetinorder方法

(2)副本节点选择

2.HDFS读数据流程

读数据的时候选择哪个节点考虑两个因素:(1)距离最近(2)负载均衡

五.namenode和secondarynamenode

1.NN和2NN工作机制

思考:namenode中的元数据是存储在哪里的?

首先,我们做个假设,如果存储在namenode节点的磁盘中,因为经常需要进行 随机访问,还有响应客户请求,必然是效率过低.因此,元数据需要存放在内存 中.但如果只存在内存中,一旦断电,元数据丢失,整个集群就无法工作了.因此 产生在磁盘中备份元数据的fsimage

这样又会带来新的问题,当在内存中的元数据更新时,如果同时更新fsimage, 就会导致效率过低,但如果不更新,就会发生一致性问题,一旦namenode节点 断电,就会产生数据丢失.因此.引入edits文件(只进行追加操作,效率很高).每 当元数据有更新或者添加元数据时,修改内存中的元数据并追加到edits中. 这 样,一旦namenode节点断电,可以通过fsimage和edits的合并,合成元数据

(1)第一阶段:namenode启动

A.第一次启动nn格式化后,创建fsimage和edits文件.如果不是第一次 启动,直接加载编辑日志和镜像文件到内存

B.客户端对元数据进行增删改的请求

C.nn记录操作日志,更新滚动日志

D.nn在内存中对元数据进行增删改

(2)第二阶段:2nn工作

A.2nn询问nn是否需要checkpoint.直接带回nn是否检查结果

B.2nn请求执行checkpoint

C.nn滚动正在写的edits日志

D.将滚动前的编辑日志和镜像文件拷贝到2nn

E.2nn加载编辑日志和镜像文件到内存,并合并

F.生成新的镜像文件fsimage.chkpoint

G.拷贝fsimage.chkpoint到nn

H.nn将fsimage.chkpoint重新命名成fsimage

2.fsimage和edits解析

2.1.概念

nn被格式化之后,将在 目录中产生如下文件

(1)fsimage文件:HDFS文件系统元数据的一个永久性的检查点,其中包含 HDFS文件系统的所有目录和文件inode的序列化信息

(2)edits文件:存放HDFS文件系统的所有更新操作的路径,文件系统客户 端执行的所有写操作首先会被记录到edits中

(3)seen_txid文件保存的是一个数字,就是最后一个edits_的数字

2.2.操作

(1)oiv查看fsimage文件

A.查看oiv和oev命令

B.基本语法

hdfs oiv -p 文件类型 -i 镜像文件 -o 转换后文件输出路径

C.案例实操

(2)oev查看edits日志

A.基本语法

hdfs ove -p 文件类型 -i 编辑日志 -o 转换后文件输出路径

B.案例实操

3.checkpoint时间设置

(1)通常情况下,2nn每隔一小时执行一次

(2)一分钟检查一次操作次数,当操作次数达到1百万时,2nn执行一次

六.Datanode

1.dn工作机制

(1)一个数据块在dn上以文件的形式存储在磁盘上,包括两个文件,一个是数 据本身,一个是元数据包括数据块的长度,快数据的校验和,以及时间戳

(2)dn启动后向nn注册,通过后周期性(6小时)的向nn上报所有的块信息

dn向nn汇报当前解读信息的时间间隔,默认为6小时

Dn扫描自己节点块信息列表的时间,默认6小时

(3心跳是每3秒一次,心跳返回结果带有nn给该dn的命令如复制块数据到另 一台机器,或删除每个数据块.如超过十分钟没有收到某个dn的心跳,则认为 该节点不可用

(4)集群运行中可以安全加入和退出一些机器

2.数据完整性

思考:如果电脑磁盘里面存储的数据是控制高铁信号灯的红灯信号(1)和绿灯 信号(0),但是存储该数据的磁盘坏了,一直显示是绿灯,是否很危险?同理节点 上的数据损坏了,却没有发现,是否也很危险,那么如何解决

如下是datanode节点保证数据完整性的方法:

A.当dn读取block的时候,他会计算checksum

B.如果计算后的clecksum,与block创建时值不一样,说明block已经损 坏

C.client读取其他dn上的block

D.常见的校验算法crc(32),md5(128),sha1(160)

E.dn在其文件创建后周期验证clecksum

3.掉线时限参数设置

需要注意的是hdfs-site.xml配置文件中的heartbeat.recheck.interval的 单位为 毫秒,dfs.hearbeat.interval的单位为秒

标签:HDFS,nn,文件,namenode,数据,节点
From: https://www.cnblogs.com/swh666/p/18404627

相关文章

  • Sqoop(四)将HDFS上的数据导出到MySQL中
    将HDFS上的数据导出到MySQL中 在MySQL中建表createtableorders(orderidintprimarykey,orderdatevarchar(10),productidint,numint);导出到MySQL中hdfs中准备数据hadoopfs-chmod777/orders/orders/order.txt1,202406,12,300002,202406,13,350003,2024......
  • Hadoop生态圈(三)- HDFS(分布式文件系统)
    目录设计目标特性HDFS基本原理NameNode概述DataNode概述HDSF读写操作HDFS写数据流程HDFS读数据流程HDFS元数据管理HDFSshellHDFS解决的是海量存储的问题设计目标:故障是常态,因此故障的检测和自动快速恢复是核心适合批量处理,注重数据访问的高吞吐量。一旦写入......
  • HDFS的编程
    一、HDFS原理HDFS(HadoopDistributedFileSystem)是hadoop生态系统的一个重要组成部分,是hadoop中的的存储组件,在整个Hadoop中的地位非同一般,是最基础的一部分,因为它涉及到数据存储,MapReduce等计算模型都要依赖于存储在HDFS中的数据。HDFS是一个分布式文件系统,以流式数据访问模......
  • Hadoop 中的大数据技术:HDFS(1)
    Hadoop中的大数据技术:HDFS(1)大家好!在为您带来精彩的技术干货之前,先给您推荐一个我精心运营的公众号[大数据深度洞察]。在这里,您将获取更多独家的技术分享、实用案例以及行业前沿资讯。亲爱的读者们,当您准备开启这篇充满价值的技术文章之旅时,不妨先关注我的公众号[大数据深......
  • Hadoop 中的大数据技术:HDFS(2)
    Hadoop中的大数据技术:HDFS(2)续上一篇Hadoop中的大数据技术:HDFS(1)大家好!在为您带来精彩的技术干货之前,先给您推荐一个我精心运营的公众号[大数据深度洞察]。在这里,您将获取更多独家的技术分享、实用案例以及行业前沿资讯。亲爱的读者们,当您准备开启这篇充满价值的技术文章......
  • 统计HDFS中文件数量、大小、以及在某范围大小的文件数量
    说明:统计HDFS文件数量大小,小于20M文件数量1、HDFS相关命令#统计文件大小hdfsdfs-du-h/#统计文件数量,返回的数据是目录个数,文件个数,文件总计大小,输入路径hdfsdfs-count/#统计所有文件的信息,过滤文件夹,只统计文件,因为使用-ls-R之后,可以看到文件是”-“......
  • Hadoop:java使用HDFS API实现基本操作工具类
    1、引入库<dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-common</artifactId><version>3.1.0</version></dependency><dependency><groupId>org.apache.hadoop</......
  • 0CTF/TCTF 2023 OLAPInfra Nashorn RCE + HDFS UDF RCE
    前置知识ClickHouse:是一个开源的列式数据库管理系统clickhouse-jdbc-bridge:clickhouse数据库和jdbc交互的工具HDFS(HadoopDistributedFileSystem):专为大数据存储和处理而设计。审计<?phperror_reporting(E_ALL^E_DEPRECATED);require__DIR__.'/../vendor/autol......
  • HDFS集群
    一、上传hadoop安装包到hdp-01集群任一节点(master) tar-zxvf软件包-C指定安装文件夹二、修改配置文件1.指定Hadoop的默认文件系统为hdfs2.指定hdfs的namenode节点为哪台机器3.指定namenode软件存储元数据的本地目录4.指定datanode软件存放文件块的本地目录三、进入......
  • windows hbase连接工具 hbase连接数过多, yarn job HBase hdfs zookeper
    windowshbase连接工具hbase连接数过多##1.ZK连接过多1)查看ip连接数前十  登录后复制netstat-na|grep2181|awk'{print$5}'|awk-F:'{print$1}'|sort|uniq-c|sort-rn|head-n101.##2.补数操作登录后复制hbaseorg.apache.hadoop.hbase.mapreduce.Co......