首页 > 其他分享 >保姆式 Hadoop集群搭建(三)

保姆式 Hadoop集群搭建(三)

时间:2024-10-14 22:22:23浏览次数:3  
标签:profile Hadoop hadoop etc export 集群 servers root 保姆式

二、安装JDK和Hadoop

1.安装JDK

        (这步的前提是已经配置好了ssh远程登录)

1.1打开Xftp 8,上传JDK文件

1.打开左上角的“+”号,新建会话;

f5706413a7ed43ae8473a16a5198c3a5.png

2.按照步骤新建会话属性,注意“主机”=“IP”,不要用默认的哦;

4cc0204270ae468bb236719bbc0e6800.png

3.编辑完会话属性后,直接点“连接”;

69f0944f6cb94020bc85459a6f1d0804.png

4.成功远程控制的界面如下:

71b51eaeeef645799e13c244d6159670.png

5.在本地找到所需对应JDK文件;

33be929f37a04451b396f00cd50b2607.png

6.右键JDK,将它拖至hadoop01中;

1.2创建目录

分别在三台虚拟机上新建目录:

mkdir -p /export/data
mkdir -p /export/servers
mkdir -p /export/software

1.3解压并修改环境配置

1.解压jdk文件

tar -zxvf /root/jdk-8u202-linux-x64.tar.gz -C /export/servers/

2.vi进入/etc/profile修改环境配置

vi /etc/profile

        进入/etc/profile后,添加以下内容:

export JAVA_HOME=/export/servers/jdk1.8.0_202
export PATH=$JAVA_HOME/bin:$PATH

        使用source /etc/profile命令初始化系统环境变量

        可以使用java -version验证JDK是否安装成功

debd04091d7f4c6b83ea747f9bdf789f.png

1.4分发

在hadoop01上分发JDK安装目录

scp -r /export/servers/jdk1.8.0_202 root@hadoop02:/export/servers/
scp -r /export/servers/jdk1.8.0_202 root@hadoop03:/export/servers/ 
scp /etc/profile root@hadoop02:/etc/ 
scp /etc/profile root@hadoop03:/etc/ 

        (注意文件路径中间不能空格)

接下来需到hadoop2和hadoop3上使用source /etc/profile初始化系统环境变量。

2.安装hadoop

2.1上传hadoop压缩包

         按照上传jdk的方式

2.2解压并修改环境变量

1.解压hadoop压缩包

tar -zxvf /root/hadoop-3.3.1.tar.gz -C /export/servers

2.修改环境变量

vi /etc/profile

        vi进入/etc/profile文件,修改内容如下:

export HADOOP_HOME=/export/servers/hadoop-3.3.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

        使用source /etc/profile命令初始化系统环境变量

        可以使用hadoop version验证Hadoop是否安装成功

6f68978ec1714c398fb3f055600e522e.png

2.3修改Hadoop配置文件

        切换目录 cd /export/servers/hadoop-3.3.1/etc/hadoop

1.配置Hadooop运行时的环境。

vi hadoop-env.sh

        在文件末,添加以下内容:

export JAVA_HOME=/export/servers/jdk1.8.0_202
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

2.配置Hadoop:

vi core-site.xml

          进入文件以后(用shift+G到达文件末),添加以下内容:(注意:要添加在<configuration>和</configuration>之间)

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://hadoop1:9000</value>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>/export/data/hadoop-3.3.1</value>
</property>
<property>
   <name>hadoop.http.staticuser.user</name>
   <value>root</value>
</property>
<property>
    <name>hadoop.proxyuser.root.hosts</name>
    <value>*</value>
</property>
<property>
    <name>hadoop.proxyuser.root.groups</name>
    <value>*</value>
</property>
<property>
    <name>fs.trash.interval</name>
    <value>1440</value>
</property>

3.配置HDFS:

vi hdfs-site.xml

        进入文件以后,添加以下内容:(注意:要添加在<configuration>和</configuration>之间)

<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>hadoop2:9868</value>
</property>

4.配置MapReduce:

vi mapred-site.xml

        进入文件以后,添加以下内容:(注意:要添加在<configuration>和</configuration>之间)

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>
<property>
    <name>mapreduce.jobhistory.address</name>
    <value>hadoop1:10020</value>
</property>
<property>
   <name>mapreduce.jobhistory.Webapp.address</name>
    <value>hadoop1:19888</value>
</property>
<property>
    <name>yarn.app.mapreduce.am.env</name>
    <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
    <name>mapreduce.map.env</name>
    <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
    <name>mapreduce.reduce.env</name>
 <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>

5.配置YARN:

vi yarn-site.xml

         进入文件以后,添加以下内容:(注意:要添加在<configuration>和</configuration>之间)

<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>hadoop1</value>
</property>
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.nodemanager.pmem-check-enabled</name>
    <value>false</value>
</property>
<property>
    <name>yarn.nodemanager.vmem-check-enabled</name>
    <value>false</value>
</property>
<property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
</property>
<property>
    <name>yarn.log.server.url</name>
    <value>http://hadoop1:19888/jobhistory/logs</value>
</property>
<property>
    <name>yarn.log-aggregation.retain-seconds</name>
    <value>604800</value>
</property>

6.配置Hadoop从节点运行的服务器:

vi workers

        在文件末添加以下内容:

hadoop2
hadoop3

2.4分发

1.在hadoop1上执行以下操作:

#Hadoop安装目录分发至虚拟机hadoop2中存放安装程序的目录
scp -r /export/servers/hadoop-3.3.1 root@hadoop2:/export/servers/
scp -r /export/servers/hadoop-3.3.1 root@hadoop3:/export/servers/

#将系统环境变量分发至虚拟机hadoop2上
scp /etc/profile root@hadoop2:/etc
scp /etc/profile root@hadoop3:/etc

2.在hadoop2和hadoop3上,执行以下命令初始化系统环境变量

source /etc/profile

3.在hadoop2和hadoop3上,验证Hadoop版本

hadoop version

2.5格式化HDFS

(注:在格式化之前进行快照)

(注:不要格式化太多次,会对文件系统造成损伤)

hdfs namenode -format

         格式化成功后会显示“successfully formatted”

2.6启动Hadoop

        在hadoop1上启动

#第一种方式
start-all.sh

#第二种方式
start-dfs.sh
start-yarn.sh

2.7查看Hadoop运行状态

2.8通过Web UI查看Hadoop的运行状态

1.查看防火墙状态

systemctl stop firewalld

2.关闭防火墙

systemctl stop firewalld
systemctl disable firewalld

浏览器打开: http://192.168.1.132即可查看。

标签:profile,Hadoop,hadoop,etc,export,集群,servers,root,保姆式
From: https://blog.csdn.net/2301_80279730/article/details/142718150

相关文章

  • hadoop.dll文件缺失?全面指南:如何下载与修复hadoop.dll文件
    在使用Hadoop或相关大数据处理软件时,有时候可能会遇到hadoop.dll文件缺失的错误提示。这个动态链接库文件对于Hadoop及其相关应用的正常运行至关重要。一旦丢失或损坏,可能会导致软件无法启动或运行异常。那么,当hadoop.dll文件缺失时,我们该如何下载并修复它呢?以下是一份全面的指......
  • 基于Kubernetes简易集群的部署搭建
    文章目录一、环境准备二、K8s安装和集群初始化(1)安装k8s安装工具的软件包(2)集群初始化(3)部署flannel网络插件三、使用k8s集调度运行pod四、疑惑(1).kubectlgetpods-owide-A是什么意思?(2).kubectlapply-fkube-flannel.yml是什么意思?(3).k8s中node和pod......
  • ‌集群与集中式部署的主要区别,集群、分布式、集中式、伪分布式的概念与区别
    主要区别在于它们对资源的利用方式和系统架构的不同。‌集中式部署将所有计算资源和数据集中在一台或多台服务器上,而集群则是将多个服务器联合起来共同工作,以提高系统的可靠性、扩展性和性能。在集中式部署中,所有计算资源和数据都集中在一台或多台服务器上,通常是一台主机带多个......
  • Linux集群架构搭载高可用负载均衡集群
    一.Linux集群概述•根据功能划分为两大类:高可用和负载均衡•高可用集群通常为两台服务器,一台工作,另外一台作为冗余,当提供服务的机器宕机,冗余将接替继续提供服务•实现高可用的开源软件有:heartbeat、keepalived•负载均衡集群,需要有一台服务器作为分发器,它负责把用......
  • Nuxt3+PM2集群模式启动及勘误
    起因之前写过一篇Nuxt3的文章,Nuxt3环境变量配置,用到了PM2,但是里面的一些配置存在问题,最近有空又验证了一下,这里做一个勘误。问题PM2的启动配置中有一项是exec_mode,默认是fork,另一个可选值是cluster,fork是单进程模式,cluster是多进程模式,也就是常说的集群模式。最早开始......
  • Hadoop:Yarn设计原理
    一、Yarn基本架构YARN主要由ResourceManager、NodeManager、ApplicationMaster和Container组成,之间通过RPC通讯1、ResourceManager:是一个全局的资源管理器,负责整个系统的资源管理和分配。它主要由两个组件构成:调度器(Scheduler)和应用程序管理器(ApplicationsManager,ASM)2、NodeManage......
  • Hadoop单节点docker镜像
    用于个人学习构建,镜像地址如下:quanueilun/hadoop:singledockerfile,用来构建hadoop单节点镜像。FROMdragonwell-registry.cn-hangzhou.cr.aliyuncs.com/dragonwell/dragonwell:8RUNyummakecacheRUNyumupdate-yRUNyuminstall-yopenssh-servervimopenssh-cli......
  • 计算机毕业设计 基于Hadoop平台的岗位推荐系统的设计与实现 Python毕业设计 Python毕
    博主介绍:✌从事软件开发10年之余,专注于Java技术领域、Python人工智能及数据挖掘、小程序项目开发和Android项目开发等。CSDN、掘金、华为云、InfoQ、阿里云等平台优质作者✌......
  • Centos7---k8s集群 20241013
    目录一、硬件准备(虚拟主机)二、环境准备1、所有机器关闭防火墙2、所有机器关闭selinux3、所有机器关闭swap4、所有机器上添加主机名与ip的对应关系5、在所有主机上将桥接的ipv4流量传递到iptables的链三、为所有节点安装docker四、集群部署1、为所有节点修改仓库,安......
  • windows下安装部署 hadoop
     一、安装下载1.首先在hadoop官网下载一个稳定版本,选择binary包官网地址:https://hadoop.apache.org/releases.html下载下来是tar.gz文件,用winrar解压即可。2.因为这个压缩包是forlinux系统的,win下还需要安装几个dllwinutils, 下载地址:https://www.jianguoyun.com/p/Dcs2......