首页 > 其他分享 >二、Hadoop集群搭建与学习

二、Hadoop集群搭建与学习

时间:2023-11-29 09:13:06浏览次数:28  
标签:DN 文件 HDFS hadoop Hadoop 集群 NameNode 节点 搭建

 

Hadoop集群搭建(完全分布式版本)

 

一、准备工作

  • 三台虚拟机:master、node1、node2

  • 时间同步(3.x版本不用做)
ntpdate ntp.aliyun.com

 

       调整时区 3.x版本不用做)

cp  /usr/share/zoneinfo/Asia/Shanghai  /etc/localtime

 

  jdk1.8

java -version

 

  修改主机名

  三台分别执行 vim /etc/hostname 并将内容指定为对应的主机名

  • 关闭防火墙:systemctl stop firewalld

    • 查看防火墙状态:systemctl status firewalld

    • 取消防火墙自启:systemctl disable firewalld

  • 静态IP配置

    • 直接使用图形化界面配置(不推荐)

    • 手动编辑配置文件进行配置

1、编辑网络配置文件
vim /etc/sysconfig/network-scripts/ifcfg-ens33

TYPE=Ethernet
BOOTPROTO=static
HWADDR=00:0C:29:E2:B8:F2
NAME=ens33
DEVICE=ens33
ONBOOT=yes
IPADDR=192.168.190.100
GATEWAY=192.168.190.2
NETMASK=255.255.255.0
DNS1=192.168.190.2
DNS2=223.6.6.6

需要修改:HWADDR(mac地址,centos7不需要手动指定mac地址)
        IPADDR(根据自己的网段,自定义IP地址)
        GATEWAY(根据自己的网段填写对应的网关地址)

2、关闭NetworkManager,并取消开机自启
systemctl stop NetworkManager
systemctl disable NetworkManager
systemctl status NetworkManager

3、重启网络服务
systemctl restart network

 

以上在配置虚拟机时应该就已经做好了

配置好映射文件:/etc/hosts

192.168.190.100 master
192.168.190.101 node1
192.168.190.102 node2
#配置好后使用scp /etc/hosts node1:/etc/hosts命令将hosts文件复制给node1与node2

 

免密登录(三台虚拟机都应配置一遍)

# 1、生成密钥
ssh-keygen -t rsa
# 2、配置免密登录
ssh-copy-id master
ssh-copy-id node1
ssh-copy-id node2
# 3、测试免密登录
ssh node1

 

二、搭建Hadoop集群

NameNode:接受客户端的读/写服务,收集 DataNode 汇报的 Block 列表信息

DataNode:真实数据存储的地方(block)

SecondaryNameNode:做持久化的时候用到

 

进程master(主)node1(从)node2(从)
NameNode    
SecondaryNameNode    
ResourceManager    
DataNode  
NodeManager  

1、上传解压配置环境变量

# 1、解压
tar -xvf hadoop-3.1.1.tar.gz.gz

# 2、配置环境变量
vim /etc/profile

# 3、在最后增加配置
export HADOOP_HOME=/usr/local/soft/hadoop-3.1.1
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

# 4、使环境变量剩下
source /etc/profile

 

2、修改配置文件

# 1、进入hadoop配置文件所在位置,修改hadoop配置文件
cd /usr/local/soft/hadoop-3.1.1/etc/hadoop

# 2、修改core-site.xml配置文件,在configuration中间增加配置
vim core-site.xml
# 增加配置
<configuration>
<property>
  <name>fs.defaultFS</name>
  <value>hdfs://master:9000</value>
</property>
<property>
  <name>hadoop.tmp.dir</name>
  <value>/usr/local/soft/hadoop-3.1.1/tmp</value>
</property>
<property>
  <name>fs.trash.interval</name>
  <value>1440</value>
</property>
</configuration>

# 3、修改hdfs-site.xml配置文件,在configuration中间增加配置
vim hdfs-site.xml
# 增加配置
<configuration>
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>
<property>
  <name>dfs.permissions</name>
  <value>false</value>
</property>
</configuration>

# 4、修改yarn-site.xml配置文件,在configuration中间增加配置
vim yarn-site.xml
# 增加配置
<property>
  <name>yarn.resourcemanager.hostname</name>
  <value>master</value>
</property>
<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>
<property>
  <name>yarn.log-aggregation-enable</name>
  <value>true</value>
</property>


> mapreduce.framework.name:用于执行MapReduce作业的运行时框架。

> mapreduce.jobhistory.address:Hadoop自带了一个历史服务器,可以通过历史服务器查看已经运行完的Mapreduce作业记录,比如用了多少个Map、用了多少个Reduce、作业提交时间、作业启动时间、作业完成时间等信息。默认情况下,Hadoop历史服务器是没有启动的,我们可以通过*mr-**jobhistory-daemon.sh start historyserver**命令来启动Hadoop历史服务器。我们可以通过Hadoop jar的命令来实现我们的程序jar包的运行,关于运行的日志,我们一般都需要通过启动一个服务来进行查看,就是我们的JobHistoryServer,我们可以启动一个进程,专门用于查看我们的任务提交的日志。mapreduce.jobhistory.address和mapreduce.jobhistory.webapp.address默认的值分别是0.0.0.0:10020和0.0.0.0:19888

vim mapred-site.xml
# 2、修改
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>

    <property>  
        <name>mapreduce.jobhistory.address</name>  
        <value>master:10020</value>  
    </property>  

    <property>  
        <name>mapreduce.jobhistory.webapp.address</name>  
        <value>master:19888</value>  
    </property> 



# 5、修改hadoop-env.sh配置文件
vim hadoop-env.sh
# 增加配置
export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_202.jdk/Contents/Home


# 6、修改hadoop-env.sh配置文件
vim workers
# 增加配置
node1
node2

 

方法1:在Hadoop安装目录下找到sbin文件夹,修改里面的四个文件(方法1)

1、对于start-dfs.sh和stop-dfs.sh文件,添加下列参数:

#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

 

2、对于start-yarn.sh和stop-yarn.sh文件,添加下列参数:

#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

 

方法2:修改hadoop-env.sh的文件(推荐)

export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

 

将hadoop文件夹分发到字节点中

#master与node1,node2节点都在 /usr/local/soft/路径下 或者直接写明路径
scp -r hadoop-3.1.1 node1:`pwd` scp -r hadoop-3.1.1 node2:`pwd`

 

3、初始化hdfs(master节点)

# 初始化 只在第一次启动时进行
hdfs namenode -format

 

4、启动hadoop

# 启动hadoop
start-all.sh

# 停止hadoop
# stop-all.sh

# hdfs web ui
http://master:9870

# yarn web ui
http://master:8088

 

 

排查问题

#  进入日志所在目录
cd /usr/local/soft/hadoop-3.1.1/logs

# 1、namenode启动失败
cat hadoop-root-namenode-master.log

# 2、resourcemanager启动失败
cat hadoop-root-resourcemanager-master.log

# 3、datanode启动失败
cat hadoop-root-datanode-master.log

 

格式化集群(暴力方式)

1. 关闭集群

stop-all.sh

2. 删除每个节点的hadoop根目录下的tmp目录

rm -rf tmp/

3. 重新格式化 在hadoop的bin目录下执行

hdfs namenode -format

 

 

4. 重新启动

start-all.sh

 

 

5、检查master、node1、node2上的进程

master:

node1:

node2:

 

6、访问HDFS的WEB界面

 

 

7、访问YARN的WEB界面

 

Hadoop中的常见的shell命令
推荐第一种格式 1、如何将linux本地的数据上传到HDFS中呢?tuijian hadoop fs -put 本地的文件 HDFS中的目录 hdfs dfs -put 本地的文件 HDFS中的目录
2、如何创建HDFS中的文件夹呢? 需求:想创建/shujia/bigdata17 hadoop fs -mkdir /shujia/bigdata17 hdfs dfs -mkdir /shujia/bigdata17
注意:如果要创建多级目录,加上-p参数 :hadoop fs -mkdir -p /bigdata27/hdfs/data
3、查看当前HDFS目录下的文件和文件夹 
hadoop fs -ls /shujia/bigdata17
hdfs dfs -ls /shujia/bigdata17

4、将HDFS的文件下载到Linux本地中 
hadoop fs -get HDFS中的文件目录 本地要存放文件的目录
hdfs dfs -get HDFS中的文件目录 本地要存放文件的目录

5、删除命令(如果垃圾回收站大小小于被删除文件的大小,直接被删除,不经过回收站)
hadoop fs -rm .... # 仅删除文件
hadoop fs -rmr .... # 删除文件夹

6、移动文件
hadoop fs -mv 目标文件 目的地路径

7、HDFS内部复制文件
hadoop fs -cp [-p] ... ... # 如果想复制文件夹,加上-p参数

 

 

 

进程理解

HDFS相关(NN,DN,SSN)

NameNode(NN)

功能:

1、接受客户端的读/写服务

因为NameNode知道数据文件与DataNode的对应关系

2、保存文件的时候会保存文件的元数据信息

a. 文件的归属

b. 文件的权限

c. 文件的大小,时间

d. Block信息,但是block的位置信息不会持久化,需要每次开启集群的时候DN向NN汇报。(带同学们画图讲解,引出这4个点)

面试题:为什么hadoop不适合存储小文件(1、从NN角度去分析 2、DN角度分析 3、从MR角度分析)

3、收集Block的位置信息

3.1 系统启动

a. NN关机的时候是不会存储任何的Block与DataNode的映射信息的

b. DN启动的时候会自动将自己节点上存储的Block信息汇报给NN

c. NN接收请求之后会重新生成映射关系

File ----> Block

Block---> DN

d. 如果数据块的副本数小于设置数,那么NN会将这个副本拷贝到其他节点

3.2 集群运行中

a. NN与DN保持心跳机制,三秒钟发送一次

b. 如果客户端需要读取或者上传数据的时候,NN可以知道DN的健康情况

c. 可以让客户端读取存活的DN节点

d. 如果NN与DN三秒没有心跳则认为DN出现异常,此时不会让新的数据写到这个异常的DN中,客户端访问的时候不提供异常DN节点地址

e. 如果超过十分钟没有心跳,那么NN会将当前DN节点存储的数据转移到其他的节点

4、NameNode为了效率,将所有的操作都在内存中进行

a. 执行速度快

b. NameNode不会和磁盘进行任何的数据交换

但是会存在两个问题:

1)数据的持久化

2)数据保存在内存中,断电丢失

 

DataNode(DN)

1、存放的是文件的数据信息(block块),以及验证文件完整性的校验信息(.meta)

2、数据会存放在硬盘上

a. 1m=1条元数据

b. 1G=1条元数据

c. NameNode非常排斥存储小文件(能存,但是不推荐!!面试必问)

一般小文件在存储之前需要进行压缩

3、汇报

1)启动时

汇报之前会验证Block文件是否被损坏

向NN汇报当前DN上block的信息

2)运行中

向NN保持心跳机制

4、当客户端读写数据的时候,首先会先去NN查询file与block与DN的映射,然后客户端直接与DN建立连接,然后读写数据

 

 

 

 

 

SecondaryNameNode(SNN)

1、传统的内存持久化方案

1)日志机制

a. 做任何操作之前先记录日志

b. 在数据改变之前先记录对应的日志,当NN停止的时候

c. 当我下次启动的时候,只需要重新按照以前的日志“重做一遍”即可

缺点:

a. log日志文件的大小不可控,随着时间的发展,集群启动的时间会越来越长

b. 有可能日志中存在大量的无效日志

优点:

a. 绝对不会丢失数据

2)拍摄快照

a. 我们可以将内存中的数据写出到硬盘上(序列化)

b. 启动时还可以将硬盘上的数据写回到内存中(反序列化)

缺点:

a. 关机时间过长

b. 如果是异常关机,数据还在内存中,没法写入到硬盘

c. 如果写出的频率过高,导致内存使用效率低

优点:

启动时间较短

 

2、SNN的解决方案(面试题)

1)解决思路

a. 让日志大小可控(每64M)

b. 快照需要定时保存(每隔1h)

c. 日志+快照

2)解决方案

a. 当我们启动一个集群的时候,会产生4个文件 ..../name/current/

 

b. 我们每次操作都会记录日志-->edits-inprogress- edits_00000001,随着时间的推移,日志文件会越来越大-当达到阈值的时候(64M或3600秒),会生成新的日志文件,edits_inprogress-000000001 -->edits_0000001,创建新的日志文件 edits_inprogress-0000000016。

 

 

 安全模式

安全模式是 HDFS 的一种工作状态,处于安全模式的状态下,只向客户端提供文件的只读视图,不接受对命名空间的修改;同时 NameNode 节点也不会进行数据块的复制或者删除

NameNode 启动时:

 1)首先将镜像文件( fsimage )载入内存,并执行编辑日志( edits )中的各项操作。

2)一旦在内存中成功建立文件系统元数据的映射,则创建一个新的 fsimage 文件和一个空的编辑日志。

3)NameNode 开始监听 RPC 和 Http 请求。

4)此时 NameNode 处于安全模式,只接受客户端的读请求。

5)处于这个状态是为了保护数据的安全所以只能被客户端访问读取数据

# 对安全模式的理解
# 1.工作流程
    a.启动 NameNode,NameNode 加载 fsimage 到内存,对内存数据执行 edits log 日 志中的事务操作。
    b.文件系统元数据内存镜像加载完毕,进行 fsimage 和 edits log 日志的合并,并创 建新的 fsimage 文件和一个空的 edits log 日志文件。
    c.NameNode 等待 DataNode 上传 block 列表信息,直到副本数满足最小副本条件。
    d.当满足了最小副本条件,再过 30 秒,NameNode 就会退出安全模式。最小副本条件指 整个文件系统中有 99.9%的 block 达到了最小副本数(默认值是 1,可设置)
# 在 NameNode 安全模式(safemode)
    对文件系统元数据进行只读操作
    当文件的所有 block 信息具备的情况下,对文件进行只读操作
    不允许进行文件修改(写,删除或重命名文件)
# 2.注意事项
    a.NameNode 不会持久化 block 位置信息;DataNode 保有各自存储的 block 列表信息。 正常操作时,NameNode 在内存中有一个 blocks 位置的映射信息(所有文件的所有文 件块的位置映射信息)。
    b.NameNode 在安全模式,NameNode 需要给 DataNode 时间来上传 block 列表信息到 NameNode。如果 NameNode 不等待 DataNode 上传这些信息的话,则会在 DataNode 之间进行 block 的复制,而这在大多数情况下都是非必须的(因为只需要等待 DataNode 上传就行了),还会造成资源浪费。
    c.在安全模式 NameNode 不会要求 DataNode 复制或删除 block。
    d.新格式化的 HDFS 不进入安全模式,因为 DataNode 压根就没有 block。
# 4.命令操作
# 通过命令查看 namenode 是否处于安全模式:
hdfs dfsadmin -safemode get
Safe mode is ON HDFS 的前端 webUI 页面也可以查看 NameNode 是否处于安全模式。 有时候我们希望等待安全模式退出,之后进行文件的读写操作,尤其是在脚本中,此时:
`hdfs dfsadmin -safemode wait`
# your read or write command goes here 管理员有权在任何时间让 namenode 进入或退出安全模式。进入安全模式:
`hdfs dfsadmin -safemode enter`
Safe mode is ON 这 样 做 可 以 让 namenode 一 直 处 于 安 全 模 式 , 也 可 以 设 置 `dfs.namenode.safemode.threshold-pct` 为 1 做到这一点。 离开安全模式:
`hdfs dfsadmin -safemode leave`
Safe mode is OFF

 

 

系统中的数据块的位置并不是由 NameNode 维护的,而是以块列表的形式存储在 DataNode 中。

[root@node01 ~]# rm -rf /var/yjx/hadoop/full/dfs/name/current/*

[root@node01 ~]# scp -r

root@node02:/var/yjx/hadoop/full/dfs/namesecondary/current/* /var/yjx/hadoop/full/dfs/name/current

安全模式下

a. 安全模式下,各个 DataNode 会向 NameNode 发送自身的数据块列表

b. 当 NameNode 有足够的数据块信息后,便在 30 秒后退出安全模式

c. NameNode 发现数据节点过少会启动数据块复制过程

如果 NN 收集的 Block 信息没有达到最少副本数,就会将缺失的副本 , 从有的 DN 上拷贝到其他 DN

a. dfs.replication.min=2

b. 但是默认最低副本数为 1

c. 在拷贝的过程中系统还是处于安全模式

安全模式相关命令

hadoop dfsadmin -safemode leave 强制 NameNode 退出安全模式

hadoop dfsadmin -safemode enter 进入安全模式

hadoop dfsadmin -safemode get 查看安全模式状态

hadoop dfsadmin -safemode wait 等待一直到安全模式结束

 

HDFS的权限

HDFS对权限的控制

a. 只能防止好人做错事

b. 不能防止坏人做坏事

但是告诉你是谁,他就认为你是谁!!

 

机架感知(拓扑结构)

机架感知是为了保证副本在集群中的安全性

我们需要将节点放在不同的DN节点上,节点也需要一定的考量

可靠性,可用性,带宽消耗

第一个节点: 集群内部(优先考虑和客户端相同的节点作为第一个节点)

       集群外部(选择资源丰富且不繁忙的节点作为第一个节点)

第二个节点:

       第二个节点选择与第一个节点不同机架的其他节点

第三个节点:

       与第二个相同机架相同的其他节点 第N个节点: 与前面节点不重复的其他节点

第一种模式

 

 

第二种模式

 

标签:DN,文件,HDFS,hadoop,Hadoop,集群,NameNode,节点,搭建
From: https://www.cnblogs.com/SIKE231310/p/17854611.html

相关文章

  • minikube 的搭建
    概述minikube是一个工具,能让你在本地运行Kubernetes。minikube在你的个人计算机(包括Windows、macOS和LinuxPC)上运行一个一体化(all-in-one)或多节点的本地Kubernetes集群,以便你来尝试Kubernetes或者开展每天的开发工作。前期准备CentOS7.9非root用户安装Docker......
  • Cadence IC617 开发环境搭建
    本文主要介绍虚拟机安装方式,内容主要讲述虚拟机的使用,文末会补充手动安装的注意事项。如果你熟悉Linux的使用,可以试试手动安装。如果不熟悉,建议使用现成的虚拟机。资料和资源方面,推荐eetop和Google,eetop需要10快钱注册,花钱注册就好了,以后经常用得上。注意!注意!下载和访问可......
  • Flutter开发:一 环境搭建
    目前Flutter版本3.16已经发布,开发环境搭建参考官网: https://flutter.cn/docs/get-started/install1Flutter下载和配置1.1 开发Flutter在windows环境下开发,下载 1.2下载完成后,解压 1.3添加flutterSdk环境变量 2AndroidStudio安装和配置 2.1下载Andro......
  • 中间件:Redis-x64-5.0.14.1高可用集群-哨兵(Sentinel)模式(Win10)
     原文:https://blog.csdn.net/chenyang_wei/article/details/127846656在Redis主从复制模式中,因为系统不具备自动恢复的功能,所以当主服务器(master)宕机后,需要手动把一台从服务器(slave)切换为主服务器。在这个过程中,不仅需要人为干预,而且还会造成一段时间内服务器处于不可用状态,......
  • Vite4+Typescript+Vue3+Pinia 从零搭建(4) - 代码规范
    项目代码同步至码云weiz-vue3-template要求代码规范,主要是为了提高多人协同和代码维护效率,结合到此项目,具体工作就是为项目配置eslint和prettier。editorconfig安装EditorConfigforVSCode插件,根目录下新建.editorconfig文件,增加以下配置[*.{js,jsx,ts,tsx,vue}]......
  • kubernetes集群使用容器镜像仓库Harbor
    1、容器镜像仓库Harbor部署在docker主机部署Harbor,安装过程比较简单在k8s集群中部署Harbor2、使用Harbor仓库2.1通过secret使用Harbor仓库新建私有仓库集权所有节点配置harbor仓库#cat/etc/docker/daemon.json{"exec-opts":["native.cgroupdriver=system......
  • Linux部署Redis哨兵集群 一主两从三哨兵
    目录一、哨兵集群架构介绍二、下载安装Redis2.1、选择需要安装的Redis版本2.2、下载并解压Redis2.3、编译安装Redis三、搭建Redis一主两从集群3.1、准备配置文件3.1.1、准备主节点6379配置文件3.1.2、准备从节点6380配置文件3.1.3、准备从节点6381配置文件3.2、启动Redis主从复制......
  • ubuntu20.04下搭建syzkaller环境 (避坑指南)
    1、安装golang环境,最开始使用aptinstallgolang,结果在编译syzkaller时,编译没法通过。在Makefile中最开始检测NCORES失败,直接退出。根据Makefile的逻辑,其中的NCORES,应该是前面的goruntools/syz-make/make.go语句拿到了环境信息,但是aptinstallgolang安装的golang环境,这个go文......
  • 直播平台搭建,自定义气泡效果(BubbleView)
    直播平台搭建,自定义气泡效果(BubbleView) packagecom.example.myapplication;importandroid.content.Context;importandroid.graphics.BlurMaskFilter;importandroid.graphics.Canvas;importandroid.graphics.Color;importandroid.graphics.Paint;importandroid.graphics.......
  • OpenWrt编译环境搭建
    OpenWrt编译环境搭建基于Ubuntu22.04,64bit的操作系统先clone仓库:gitclonehttps://git.openwrt.org/openwrt/openwrt.git可能会比较久,取决于网络状况。笔者是23年Q4写的,此时openwrt已经为v23了。clone成功后,会在clone的路径下有openwrt的文件夹。进入文件夹:cdope......