首页 > 其他分享 >Hadoop安装部署

Hadoop安装部署

时间:2024-11-01 13:19:32浏览次数:1  
标签:部署 安装 local Hadoop hadoop master node1 node2 soft

Hadoop安装部署

一、虚拟机配置

1、创建3台虚拟机:master、node1、node2

2、关闭防火墙

systemctl stop firewalld.service #停止firewall

systemctl disable firewalld.service #禁止firewall开机启动

查看防火墙状态
firewall-cmd --state
systemctl status firewalld.service
启动防火墙
systemctl start firewalld.service

3、修改主机名

vim /etc/hostname

#3台虚拟机分别改为master,node1,node2

#查看主机名
	hostnamectl status

4修改ip地址

vim /etc/sysconfig/network-scripts/ifcfg-ens33

TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="static"   ---改这个 改成statics
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="46bc9724-c761-4058-8cd7-97a675b41294"
DEVICE="ens33"
ONBOOT="yes"
IPADDR="192.168.65.100"   ---前3位根据自己的IP来配,后一位master,node1,node2分别为100,101,102
PREFIX="24"
GATEWAY="192.168.220.2"
DNS1="114.114.114.114"
IPV6_PRIVACY="no"

保存退出

#2、关闭NetworkManager,并取消开机自启
systemctl stop NetworkManager
systemctl disable NetworkManager
systemctl status NetworkManager
#3、重启网络服务
systemctl restart network

5、配置映射文件

vim /etc/hosts

192.168.65.100 master
192.168.65.101 node1
192.168.65.102 node2

6、配置免密

# 1、生成密钥
ssh-keygen -t rsa
# 2、配置免密登录
ssh-copy-id master
ssh-copy-id node1
ssh-copy-id node2

#每一台虚拟机都要重复以上步骤!!!!!

# 3、测试免密登录
ssh node1

7、给每台机器安装Java环境

#1、创建soft/package文件夹,将来package表示存放安装包以及解压目录
	mkdir -p /usr/local/soft/package

#2、卸载自带jdk
	rpm -qa |grep jdk ---查看自带jdk
	rpm -e 自带jdk名称 --nodeps  ---卸载
#3、上传jar包到package目录
#4、解压
	tar -zxvf jdk-8u171-linux-x64.tar.gz -C /usr/local/soft/

配置环境变量

vim /etc/profile

# 插入以下内容
export JAVA_HOME=/usr/local/soft/jdk1.8.0_171
export PATH=.:$PATH:$JAVA_HOME/bin

#保存退出
#让shell脚本生效
source /etc/profile

8、将jdk与环境变量配置文件分发给node1,node2

cd /usr/local/soft/

scp -r /usr/local/soft/jdk1.8.0_171 node1:`pwd`
scp -r /usr/local/soft/jdk1.8.0_171 node2:`pwd`
scp -r /etc/profile node2:/etc/profile

二、搭建Hadoop集群

NameNode:接受客户端的读/写服务,收集 DataNode 汇报的

Block 列表信息

DataNode:真实数据存储的地方(block)

SecondaryNameNode:做持久化的时候用到

进程 master(主) node1(从) node2(从)
NameNode
SecondaryNameNode
ResourceManager
DataNode
NodeManager

1、上传解压配置环境变量

# 1、解压
tar -xvf hadoop-3.1.2.tar.gz.gz

# 2、配置环境变量
vim /etc/profile

# 3、在最后增加配置
export HADOOP_HOME=/usr/local/soft/hadoop-3.1.2
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

# 4、使环境变量剩下
source /etc/profile

2、修改配置文件

# 1、进入hadoop配置文件所在位置,修改hadoop配置文件
cd /usr/local/soft/hadoop-3.1.2/etc/hadoop

# 2、修改core-site.xml配置文件,在configuration中间增加配置
vim core-site.xml
# 增加配置
<configuration>
<property>
  <name>fs.defaultFS</name>
  <value>hdfs://master:9000</value>
</property>
<property>
  <name>hadoop.tmp.dir</name>
  <value>/usr/local/soft/hadoop-3.1.2/tmp</value>
</property>
<property>
  <name>fs.trash.interval</name>
  <value>1440</value>
</property>
</configuration>

# 3、修改hdfs-site.xml配置文件,在configuration中间增加配置
vim hdfs-site.xml
# 增加配置
<configuration>
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>
<property>
  <name>dfs.permissions</name>
  <value>false</value>
</property>
</configuration>

# 4、修改yarn-site.xml配置文件,在configuration中间增加配置
vim yarn-site.xml
# 增加配置
<property>
  <name>yarn.resourcemanager.hostname</name>
  <value>master</value>
</property>
<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>
<property>
  <name>yarn.log-aggregation-enable</name>
  <value>true</value>
</property>


> mapreduce.framework.name:用于执行MapReduce作业的运行时框架。

> mapreduce.jobhistory.address:Hadoop自带了一个历史服务器,可以通过历史服务器查看已经运行完的Mapreduce作业记录,比如用了多少个Map、用了多少个Reduce、作业提交时间、作业启动时间、作业完成时间等信息。默认情况下,Hadoop历史服务器是没有启动的,我们可以通过*mr-**jobhistory-daemon.sh start historyserver**命令来启动Hadoop历史服务器。我们可以通过Hadoop jar的命令来实现我们的程序jar包的运行,关于运行的日志,我们一般都需要通过启动一个服务来进行查看,就是我们的JobHistoryServer,我们可以启动一个进程,专门用于查看我们的任务提交的日志。mapreduce.jobhistory.address和mapreduce.jobhistory.webapp.address默认的值分别是0.0.0.0:10020和0.0.0.0:19888

vim mapred-site.xml
# 2、修改
	<property>
    	<name>mapreduce.framework.name</name>
    	<value>yarn</value>
    </property>

    <property>  
    	<name>mapreduce.jobhistory.address</name>  
    	<value>master:10020</value>  
    </property>  

    <property>  
    	<name>mapreduce.jobhistory.webapp.address</name>  
    	<value>master:19888</value>  
	</property> 



# 5、修改hadoop-env.sh配置文件
vim hadoop-env.sh
# 增加配置
export JAVA_HOME=/usr/local/soft/jdk1.8.0_171


# 6、修改hadoop-env.sh配置文件
vim workers
# 增加配置
node1
node2

3、修改hadoop-env.sh的文件(推荐)

export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

4、将hadoop文件夹分发到子节点中

cd /usr/local/soft/

scp -r hadoop-3.1.2 node1:`pwd`
scp -r hadoop-3.1.2 node2:`pwd`

5、初始化hdfs

# 初始化
hdfs namenode -format

6、启动hadoop

# 启动hadoop
start-all.sh

# 停止hadoop
 stop-all.sh

# hdfs web ui
http://master:9870

# yarn web ui
http://master:8088

标签:部署,安装,local,Hadoop,hadoop,master,node1,node2,soft
From: https://www.cnblogs.com/qianzhiqiang798/p/18519961

相关文章

  • 一些可以简化 AI 大模型安装和配置过程的软件
    以下是一些可以简化AI大模型安装和配置过程的软件:Ollama:特点:这是一个可以在本地部署和管理开源大语言模型的框架,它极大地简化了开源大语言模型的安装和配置细节,支持多种模型,一经推出就广受好评。用户可以通过简单的命令来下载和运行大语言模型,比如使用“ollamarun[......
  • 开源 PHP 商城项目 CRMEB 安装和使用教程
    说到电商系统,很多人第一反应可能是Shopify或Magento。没错,这些平台确实功能强大,但是...它们也太强大了,不仅复杂还昂贵,对于刚起步的创业者来说简直是压力山大。但是从零开始开发一个完整的电商系统不仅耗时耗力,还需要考虑各种复杂的业务场景和技术挑战。那么,有没有一种既能满......
  • Cloudera Manager 前后端分离部署方法
    现状如果大数据团队使用ClouderaManager产品,那极有可能会遇到以下场景:有多套环境,需要维护各个环境的scmserver地址(http://10.x.x.x:7180)给每个scmserver申请域名,但域名的变更需要走流程方案采取前后端分离部署方案(niginx+域名),将cloudera-scm-server的前端静态文......
  • 2024版最新Wireshark安装使用教程(非常详细)零基础入门到精通,收藏这一篇就够了
    前言这是大白给粉丝盆友们整理的网络安全渗透测试入门阶段渗透测试工具第9篇。喜欢的朋友们,记得给大白点赞支持和收藏一下,关注我,学习黑客技术Wireshark什么是WireShark?Wireshark是一个开源抓包工具或者叫网络嗅探器,用于分析网络流量和分析数据包。其实WireShark以前......
  • 【comfyui教程】comfyui入门|超详细安装教程(汉化+管理器)
    前言大家好,我是小33上篇文章,我给大家分析了AI绘画的底层原理和comfyui的生图逻辑。今天我给大家分享的是怎么安装comfyUI。网上安装comfyui的教程有很多,但是说的有点偏复杂了,特别是安装节点的时候,其实没那么难,这篇文章我就给大家分享下如何快速安装comfyui及各个节点的......
  • Hadoop基础知识整理
    一、HDFS1.HDFS概述Hadoop分布式系统框架中,首要的基础功能就是文件系统,在Hadoop中使用FileSystem这个抽象类来表示我们的文件系统,这个抽象类下面有很多子实现类,究竟使用哪一种,需要看我们具体的实现类,在我们实际工作中,用到的最多的就是HDFS(分布式文件系统)以及LocalFileSy......
  • Hadoop-MapReduce任务三种运行开发模式
    1、local模式数据在本地,代码也在本地,使用本机的电脑的资源运行我们的MR输入和输出路径指的都是本地路径,运行时耗费的资源也是本地资源。2、local模式2数据在hdfs上,代码在本地,使用本机的电脑的资源运行我们的MRSystem.setProperty("HADOOP_USER_NAME","root");......
  • 免费SSL证书部署教程,自动续期,还支持CDN/OSS!!!
    相信有上线过自己的网站、小程序经验的同学深有体会,给服务加上SSL证书还挺麻烦的,尤其是没有运维经验的同学。本来最省事的方法是买个证书,但是一看价格,还是算了吧,动辄就是几万块一年。作为个人来说,这跟抢钱有什么区别。那没有ssl不行吗?......
  • SMART Utility中文激活安装包 SMART Utility MacOS硬盘检测下载地址
    SMARTUtility是一款专为MacOSX设计的硬盘健康状态检测工具。它利用先进的自我监测、分析与报告技术(SMART),实时监测硬盘的温度、转速、错误率等关键参数,全面评估硬盘健康状况。该软件能及时发现并预警硬盘中的潜在问题,如坏道、机械故障等,并提供详细的报告功能,帮助用户了解硬盘使......
  • PVE7.1虚拟机安装黑群晖教程
     本教程基于ProxmoxVE(PVE)7.1虚拟机环境下安装群晖,兼容这块简单说明:Intel酷睿四代以下或者志强处理器建议安装Ds3615-3617-3266等版本,四代以上可以安装918-920等版本,如果你啥都不知道,安装Ds3615就对了。安装步骤1.先删除删除local-lvm分区,具体教程PVE虚拟机删除loc......