首页 > 其他分享 >Hadoop(六)生产集群搭建(三)

Hadoop(六)生产集群搭建(三)

时间:2024-09-13 15:24:34浏览次数:1  
标签:hadoop yarn Hadoop sh 集群 user 3.1 hadoop102 搭建

完全分布式运行模式

一、群起集群

1、配置workers

[user@hadoop102 hadoop]$ vim /opt/module/hadoop-3.1.3/etc/hadoop/workers

在文件中添加如下内容:

hadoop102
hadoop103
hadoop104

2、启动集群
(1)如果集群是第一次启动,需要在hadoop102节点格式化NameNode

[user@hadoop102 hadoop-3.1.3]$ hdfs namenode -format

(2)Web端查看HDFS的NameNode

(3)在配置了ResourceManager的节点hadoop103启动YARN

[user@hadoop103 hadoop-3.1.3]$ sbin/start-yarn.sh

(4)Web端查看YARN的ResourceManager

3、集群基本测试
(1)创建一个目录,查看web端变化

[user@hadoop102 hadoop-3.1.3]$ hadoop fs -mkdir /wcinput

(2)上传小文件

[user@hadoop102 hadoop-3.1.3]$ hadoop fs -put wcinput/word.txt /wcinput
  • 此时web端能看到上传的文件

  • 打开文件查看内容

  • 可以点击Download进行下载

(3)上传大文件到根目录

[user@hadoop102 hadoop-3.1.3]$ hadoop fs -put /opt/software/jdk-8u212-linux-x64.tar.gz /

  • 这个web端只是展示数据,实际数据存储在DataNode

(4)查看文件存储在什么位置

  • 查看HDFS在磁盘存储文件内容
[user@hadoop102 subdir0]$ cat blk_1073741828
SEVENTEEN
SEVENTEEN
HOME
HOT
HEADLINER
ROCK
WITH
YOU
SEVENTEEN
  • 查看HDFS文件存储路径
[user@hadoop102 subdir0]$ pwd
/opt/module/hadoop-3.1.3/data/dfs/data/current/BP-2039324645-192.168.10.102-1726192446950/current/finalized/subdir0/subdir0

(5)执行一个wordcount程序,查看YARN情况

  • 上传数据不涉及到YARN,YARN与资源的调度有关,当涉及MapReduce这类计算任务时才会执行
  • 集群模式运行,路径也得是集群的路径
[user@hadoop102 hadoop-3.1.3]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /wcinput /wcoutput

  • 此时也可以在HDFS web端查看运行结果文件

二、配置历史服务器

  • 为了查看程序的历史运行情况,需要配置一下历史服务器。具体配置步骤如下:

1、配置mapred-site.xml

[user@hadoop102 hadoop-3.1.3]$ cd etc/hadoop/
[user@hadoop102 hadoop]$ vim mapred-site.xml

在文件里添加:

<!-- 历史服务器端地址 -->
<property>
 <name>mapreduce.jobhistory.address</name>
 <value>hadoop102:10020</value>
</property>
<!-- 历史服务器 web 端地址 -->
<property>
 <name>mapreduce.jobhistory.webapp.address</name>
 <value>hadoop102:19888</value>
</property>

2、分发配置

[user@hadoop102 hadoop]$ xsync mapred-site.xml

3、在hadoop102启动历史服务器

[user@hadoop102 hadoop-3.1.3]$ bin/mapred  --daemon start historyserver
[user@hadoop102 hadoop-3.1.3]$ jps
16785 Jps
16710 JobHistoryServer
11386 NameNode
11515 DataNode
16252 NodeManager

4、查看JobHistory

http://hadoop102:19888/jobhistory

三、配置日志的聚集

1、日志聚集的概念
应用运行完成以后,将程序运行日志信息上传到HDFS系统上

  • 日志聚集功能好处:可以方便的查看到程序运行详情,方便开发调试
  • 开启日志聚集功能,需要重新启动NodeManager、ResourceManager和HistoryServer。

2、实现过程
(1)配置yarn-site.xml

[user@hadoop102 hadoop]$ vim yarn-site.xml

添加如下内容:

<!-- 开启日志聚集功能 -->
<property>
 <name>yarn.log-aggregation-enable</name>
 <value>true</value>
</property>
<!-- 设置日志聚集服务器地址 -->
<property> 
 <name>yarn.log.server.url</name> 
 <value>http://hadoop102:19888/jobhistory/logs</value>
</property>
<!-- 设置日志保留时间为 7 天 -->
<property>
 <name>yarn.log-aggregation.retain-seconds</name>
 <value>604800</value>
</property>

(2)分发配置

[user@hadoop102 hadoop]$ xsync yarn-site.xml

(3)关闭NodeManager、ResourceManager和HistoryServer

[user@hadoop103 hadoop-3.1.3]$ sbin/stop-yarn.sh
[user@hadoop103 hadoop-3.1.3]$ mapred --daemon stop historyserver

(4)启动NodeManager、ResourceManage和HistoryServer

[atguigu@hadoop103 ~]$ start-yarn.sh
[atguigu@hadoop102 ~]$ mapred --daemon start historyserver

(5)重新执行一次程序就能看到运行日志详情

四、集群启动/停止方式总结

1、各个模块分开启动/停止(前提是配置SSH)

  • 整体启动/停止HDFS
start-dfs.sh/stop-dfs.sh
  • 整体启动/停止YARN
start-yarn.sh/stop-yarn.sh

2、各个服务组件逐一启动/停止

  • 分别启动/停止HDFS组件
hdfs --daemon start/stop namenode/datanode/secondarynamenode
  • 启动/停止YARN
yarn --daemon start/stop resourcemanager/nodemanager

五、编写Hadoop集群常用脚本

1、Hadoop集群启停脚本(包含HDFS,Yarn,Historyserver):myhadoop.sh

[user@hadoop102 ~]$ cd /home/user/bin
[user@hadoop102 bin]$ vim myhadoop.sh
  • 输入如下内容:
#!/bin/bash
if [ $# -lt 1 ]
then
 echo "No Args Input..."
 exit ;
fi
case $1 in
"start")
 echo " =================== 启动 hadoop 集群 ==================="
 echo " --------------- 启动 hdfs ---------------"
 ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/start-dfs.sh"
 echo " --------------- 启动 yarn ---------------"
ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/start-yarn.sh"
 echo " --------------- 启动 historyserver ---------------"
 ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon start historyserver"
;;
"stop")
 echo " =================== 关闭 hadoop 集群==================="
 echo " --------------- 关闭 historyserver ---------------"
 ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon stop historyserver"
 echo " --------------- 关闭 yarn ---------------"
 ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/stop-yarn.sh"
 echo " --------------- 关闭 hdfs ---------------"
 ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/stop-dfs.sh"
;;
*)
 echo "Input Args Error..."
;;
esac
  • 赋予脚本执行权限
[user@hadoop102 bin]$ chmod 777 myhadoop.sh

2、查看三台服务器Java进程脚本:jpsall

[user@hadoop102 ~]$ cd /home/user/bin
[user@hadoop102 bin]$ vim jpsall
  • 输入如下内容:
#!/bin/bash
for host in hadoop102 hadoop103 hadoop104
do
 echo =============== $host ===============
 ssh $host jps 
done
  • 赋予脚本执行权限
[user@hadoop102 bin]$ chmod 777 jpsall

3、分发/home/atguigu/bin目录,保证自定义脚本在三台机器上都可以使用

[user@hadoop102 ~]$ xsync /home/user/bin/

六、常用端口号说明

端口名称 Hadoop2.x Hadoop3.x
NameNode内部通信端口 8020 / 9000 8020 / 9000/9820
NameNode HTTP UI 50070 9870
MapReduce 查看执行任务端口 8088 8088
历史服务器通信端口 19888 1988

七、集群时间同步

如果服务器在公网环境(能连接外网),可以不采用集群时间同步,因为服务器会定期和公网时间进行校准
1、需求
找一个机器,作为时间服务器,所有的机器与这台集群时间进行定时的同步,生产环境根据任务对时间的准确程度要求周期同步。测试环境为了尽快看到效果,采用1分钟同步一次。

2、虚拟机联网,会定期更新时间,所以可以不用进行集群时间同步

标签:hadoop,yarn,Hadoop,sh,集群,user,3.1,hadoop102,搭建
From: https://www.cnblogs.com/shihongpin/p/18411645

相关文章

  • minio分布式集群部署(三)
    一、优势分布式Minio可以让你将多块硬盘(甚至在不同的机器上)组成一个对象存储服务。由于硬盘分布在不同的节点上,分布式Minio避免了单点故障。分布式存储可靠性常用方法 分布式存储,很关键的点在于数据的可靠性,即保证数据的完整,不丢失,不损坏。只有在可靠性实现的前提下,才......
  • CDH Hive集群的create/drop慢问题,在200s 多一点处理分析
    现象:CREATETABLEtest911(SNString,PN_CODEString);Totaltimespentinthismetastorefunctionwasgreaterthan1000ms:createTable_(Table,)=200091Hive集群的create/drop操作时间基本都稳定在200s多一点。分析:HMS会实时向Sentry同步Notifications请......
  • centos7搭建DNS服务和DNS辅助服务
    主服务器准备二台linux虚拟机(一个服务器主服务器,一个为辅助服务器)[root@cs01~]#yuminstallbind-y#安装dns服务[root@cs01~]#systemctlstopfirewalld.service#关闭防火墙[root@cs01~]#setenforce0#设置宽容模式 [root@cs01~]#ls/etc/|grepnamed #查看DN......
  • 场景解决方案丨突破成本限制,中小企业如何快速搭建后台管理系统
    信息化时代下业务数据量激增,云计算、物联网、人工智能等技术的成本大幅度降低及普及,这些变化推动着市场需求发生改变,使数字化转型成为各行业的共同趋势。在这一背景下,大型企业利用其经济和技术优势巩固市场领导地位,而中小企业则在竞争压力下迫切需要寻找新的增长点,以维持竞争力并实......
  • PbootCms模板搭建网站,可能会遇到内页无法正常访问的情况
    当你遇到PbootCMS内页无法正常访问的问题时,关闭伪静态并转为兼容模式是一种简单有效的解决方案。以下是详细的步骤:步骤详解登录后台管理系统打开你的PbootCMS网站后台管理系统。使用管理员账号登录。进入设置页面在后台管理系统的左侧导航栏中找到“设置”选项,并点击......
  • 网站搭建
    第一步,服务器申请选择一:免费云服务器,免费虚拟主机如:阿贝云阿贝云提供了免费的云服务器和免费的云虚拟主机,可根据自己的实际应用情况选择。首先注册一个账户,然后需要支付0.3元做一个实名认证,如果实名认证成功了大概率会开通成功。如果失败了可能是服务器资源池不......
  • 【Spring】搭建SpringBoot + OAuth2认证授权服务
    文章目录一、环境准备二、创建SpringBoot项目1.使用SpringInitializr2.使用IDE导入项目三、配置数据源四、添加用户实体和存储五、配置SpringSecurity六、配置OAuth2七、创建控制器八、创建前端页面九、运行和测试十、总结本文将详细介绍如何使用最新版本的Spr......
  • Hadoop
    ApacheHadoop是一个开源的分布式计算框架,主要用于处理海量数据集。它具有高度的可扩展性、容错性和高效的分布式存储与计算能力。Hadoop核心由四个主要模块组成,分别是HDFS(分布式文件系统)、MapReduce(分布式计算框架)、YARN(资源管理)和HadoopCommon(公共工具和库)。1.HDFS......
  • Hadoop Pig
    Pig是ApacheHadoop生态系统中的一个高层次平台,主要用于处理大型数据集。它的核心组件是PigLatin,这是一种数据流语言,可以简化大规模并行处理的编程任务。Pig通过将复杂的数据操作转换为MapReduce任务,简化了编写Hadoop应用程序的难度。Pig的核心组成部分PigLat......
  • 搭建ipv6并发代理池
    声明本文章中所有内容仅供学习交流,抓包内容、敏感网址、数据接口均已做脱敏处理,严禁用于商业用途和非法用途,否则由此产生的一切后果均与作者无关,若有侵权,请联系我立即删除!学习目标ounter(lineipv6代理池学习前置环境配置要求linux系统。我是pve下的ubuntugolang的环境我......