前言
Hadoop是一个开源的、可运行与Linux集群上的分布式计算平台,用户可借助Hadoop存有基础环境的配置(虚拟机安装、Linux安装等),Hadoop集群搭建,配置和测试。
二、Linux系统安装
1.环境准备
Centos7镜像文件(mini)
Centos7下载链接:https://mirrors.tuna.tsinghua.edu.cn/centos/7.9.2009/isos/x86_64/
四、静态网络配置
1.查看网络是否连通
ping www.baidu.com
2.安装net-tools
yum upgrade
yum install net-tools
3.查看Mac地址(enter后面)
4.查看ip地址的起始和结束地址
5.修改网络配置文件
vi /etc/sysconfig/network-scripts/ifcfg-ens33
mac地址为2步骤的enter值
ip地址参照4步骤自行选择(必须在起始和结束的范围内)
子网掩码默认设置为255.255.255.0
网关的值为将ip地址中最后一段的值改为2
DNS使用谷歌提供的免费dns1:8.8.8.8
6.重启网络服务,查看是否配置成功
systemctl restart network
ping www.baidu.com
8.按照以上步骤,克隆两台虚拟机Hadoop2 Hadoop3
六、配置hosts文件和ssh免密登录
1.修改hosts配置文件(所有虚拟机都需要配置此文件)
vi /etc/hosts
2.生成密钥文件(四次回车)
ssh-keygen -t rsa
2.将本机公钥文件复制到其它虚拟机上(接收方需先开机)
在hadoop01上执行,先输入yes,后输入对应主机的密码,多台虚拟机配置操作相同
ssh-copy-id hadoop01
ssh-copy-id hadoop02
ssh-copy-id hadoop03
3.在虚拟机hadoop02,hadoop03都需要执行,保证三台主机都能够免密登录
ssh-copy-id hadoop01
ssh-copy-id hadoop02
ssh-copy-id hadoop02
3.查看是否成功免密登录
七、Hadoop集群配置
1.在所有虚拟机根目录下新建文件夹export,export文件夹中新建data、servers和software文件
mkdir -p /export/data
mkdir -p /export/servers
mkdir -p /export/software
2.准备安装包
hadoop-2.7.4.tar.gz
jdk-8u161-linux-x64.tar.gz
3.下载安装软件FinalShell
打开FinalShell后点击文件并选择新建,名称填hadoop1,主机填写hadoop1的IP地址,再点击用户身份验证,把hadoop1的账号,密码输入,就可以通过Xshell控制虚拟机,方便后续软件的传输。(重复步骤新建会话控制hadoop2,hadoop3)
4.在FinalShell先进入software文件内,然后下载rz命令,并使用rz命令进行文件上传,此时会弹出上传的窗口,选择要上传的文件,点击确定即可将本地文件上传到Linux上。
cd /export/software
yum -y install lrzsz
rz
5.安装JDK(所有虚拟机都要操作)
5.1 解压jdk
cd /export/software
tar -zxvf jdk-8u161-linux-x64.tar.gz -C /export/servers/
5.2 重命名jdk目录
cd /export/servers
mv jdk1.8.0_161 jdk
5.3 配置环境变量
vi /etc/profile
#tip:在配置文件末尾追加
export JAVA_HOME=/export/servers/jdk
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
5.4 使配置文件生效
source /etc/profile
5.5 查看是否配置成功
java -version
6.Hadoop安装(所有虚拟机都要操作)
6.1 解压hadoop
cd /export/software
tar -zxvf hadoop-2.7.4.tar.gz -C /export/servers/
6.2 打开配置文件
vi /etc/profile
6.3 配置hadoop环境变量
#tip:在文件末尾追加
export HADOOP_HOME=/export/servers/hadoop-2.7.4
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
6.4 使配置文件生效
source /etc/profile
6.5 查看是否配置成功
hadoop version
7.Hadoop集群配置
7.1 进入主节点配置目录
cd /export/servers/hadoop-2.7.4/etc/hadoop/
7.2 修改hadoop-env.sh文件
vi hadoop-env.sh
#tip:找到相应位置,添加这段话
export JAVA_HOME=/export/servers/jdk
7.3 修改core-site.xml文件
vi core-site.xml
#tip:下图中乱码部分为注释代码,可以删掉,不影响
<configuration>
<!--用于设置Hadoop的文件系统,由URI指定-->
<property>
<name>fs.defaultFS</name>
<!--用于指定namenode地址在hadoop01机器上-->
<value>hdfs://hadoop1:9000</value>
</property>
<!--配置Hadoop的临时目录,默认/tem/hadoop-${user.name}-->
<property>
<name>hadoop.tmp.dir</name>
<value>/export/servers/hadoop-2.7.4/tmp</value>
</property>
</configuration>
7.4 修改hdfs-site.xml文件
vi hdfs-site.xml
<configuration>
<!--指定HDFS的数量-->
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<!--secondary namenode 所在主机的IP和端口-->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop2:50090</value>
</property>
</configuration>
7.5 修改mapred-site.xml文件
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
<configuration>
<!--指定MapReduce运行时的框架,这里指定在YARN上,默认在local-->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
7.6 修改yarn-site.xml文件
vi yarn-site.xml
<configuration>
<!--指定YARN集群的管理者(ResourceManager)的地址-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop1</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
7.7 修改slaves文件
#tip:将文件中的localhost删除,添加主节点和子节点的主机名称
#tip:如主节点hadoop1,子节点hadoop2和hadoop3
vi slaves
7.8将主节点中配置好的文件和hadoop目录copy给子节点
#tip:这里主节点为hadoop01,子节点为hadoop02和hadoop03
scp /etc/profile hadoop2:/etc/profile
scp /etc/profile hadoop3:/etc/profile
scp -r /export/ hadoop2:/
scp -r /export/ hadoop3:/
7.9 使子节点中的配置文件生效
#tip:返回hadoop2和hadoop3节点执行下面命令
source /etc/profile
7.10 在主节点格式化文件系统(successfully formatted 格式化成功)
hdfs namenode -format
八、Hadoop集群测试
1.启动集群
1.1在主节点启动所有HDFS服务进程
start-dfs.sh
1.2 在主节点启动所有HDFS服务进程
start-yarn.sh
1.3 使用jps命令查看进程
2.关闭防火墙(所有虚拟机都要操作)
systemctl stop firewalld #关闭防火墙
systemctl disable firewalld.service #关闭防火墙开机启动
3.打开window下的C:\Windows\System32\drivers\etc打开hosts文件,在文件末添加三行代码:
192.168.121.134 hadoop01
192.68.121.135 hadoop02
192.168.121.136 hadoop03
4.通过UI界面查看Hadoop运行状态,在Windows系统下,访问http://hadoop1:50070,查看HDFS集群状态
5.在Windows系统下,访问http://hadoop1:8088,查看Yarn集群状态
标签:文件,虚拟机,环境,hadoop,Hadoop,etc,export,节点,搭建 From: https://blog.51cto.com/u_16272307/7598712