首页 > 其他分享 >Hadoop安装

Hadoop安装

时间:2022-10-15 23:34:11浏览次数:75  
标签:xml sudo Hadoop hadoop ssh site serendipity 安装

记录第一次搭建Hadoop集群。

使用版本:

  • Ubuntu:ubuntu-20.04.5-desktop-amd64.iso
  • Hadoop:hadoop-2.7.5.tar.gz

对vim 的基本命令:

  • 进入编辑状态:insert
  • 删除:delete
  • 退出编辑状态:ctrl+[
  • 进入保存状态:ctrl+]
  • 保存并退出:" :wq " 注意先输入英文状态下冒号
  • 不保存退出:" :q! " 同上

准备虚拟机

网上教程很多,可以随便参考一个,搭建自己的Ubuntu虚拟机。然后使用克隆,一共准备三台虚拟机

修改主机名

用户名@主机名

克隆的三台服务器用户名主机名都是相同的,我们需要修改其主机名,可以分别设置为master、slave01、slave02.(随意即可,我的是serendipity、slave01、slave02,方便起见,后面都采用我自己的命名方法)

sudo vim /etc/hostname

第一行就是本机主机名信息,将三台主机分别修改为对应的serendipity、slave01、slave02,进行保存。对虚拟机重启后即可生效。

ping 通三台主机

首先记录三台主机的ip地址。(可以自己设置静态ip,也可直接进行操作)

ifconfig

记录三台主机

192.168.58.129  serendipity
192.168.58.134  slave01
192.168.58.135  slave02

分别三台主机,设置节点IP映射

sudo vim /etc/hosts

本来上面一串东西,可以都删掉。

ping 测试

ping IP地址

出现下面矩形框,便是成功。分别再三台主机进行测试

ssh免密

基础准备

安装ssh

sudo apt-get install openssh-server  #安装服务,一路回车                     
sudo /etc/init.d/ssh restart  #启动服务                                      
sudo ufw disable   #关闭防火墙,不然后面会出现很多奇妙的bug

查看是否开通ssh服务

ps -e | grep ssh

如上即可:

设置免密登录

  1. 再serendipity节点生成SSH公钥

    cd ~/.ssh           # 如果没有该目录,先执行一次ssh localhost         
    rm ./id_rsa*        # 删除之前生成的公匙(如果有)                  
    ssh-keygen -t rsa   # 一直按回车就可以
    
  2. 让 serensipity可以免密ssh本机

    cat ./id_rsa.pub >> ./authorized_keys
    
  3. 完成后可以验证一下

    ssh serendipity
    

不需输入密码即为成功,输入exit返回原终端

  1. 将serendipity节点将公钥传输到slave01节点,需要密码就将密码输入即可,@前后就是你的终端显式的东西,用户名@主机名

    scp ~/.ssh/id_rsa.pub serendipity@slave01:/home/serendipity
    
  2. 再slave01节点将公钥加入授权

    mkdir ~/.ssh        # 如果不存在该文件夹需先创建,若已存在则忽略        
    cat ~/id_rsa.pub >> ~/.ssh/authorized_keys                                   
    rm ~/id_rsa.pub    # 用完就可以删掉了
    
  3. slave02也重复上述节点。主机节点可以免密登录两个节点即可

安装配置Hadoop

建议使用推荐的版本。高版本的可能配置文件与下列描述有所出入。

下载地址:http://archive.apache.org/dist/hadoop/core/hadoop-2.7.5/

jdk8

先去安装一下jdk8.

下载安装

建议再外部主机下载,虚拟机下载网络很慢。下载结束后使用Xftp 或者只用Vmware 安装VMware tools后直接拖拽入虚拟机。

将软件再一个合适的目录解压。(作为linux小白,不太懂 local 、opt的作用啥的,就自己建了一个hadoop文件夹)

进入压缩包所在文件目录内,执行解压命令

tar -zxvf hadoop-2.7.5.tar.gz

或者后等待解压完成,完成后会再同级目录下创建名为hadoop-2.7.5文件夹。

将其修改文件夹名为 hadoop。这就是hadoop安装目录

mv hadoop-2.7.5 hadoop

进入安装目录,查看安装文件,如图所示

修改配置文件,进入安装目录内的 etc 下的 hadoop 文件夹

cd etc/hadoop/

hadoop-env.sh

sudo vim hadoop-env.sh 

再文件较前地方有

export  JAVA_HOME=${JAVA_HOME}

等号后面修改为 你的 JDK 安装目录。

yarn-env.sh

sudo vim yarn-env.sh

再较前面。有个

#export JAVA_HOME=/home/y/libexec/jdk1.6.0

将# 去掉,后面改为你的java安装目录

核心组件 core-site.xml

设置namenode的地址、指定使用Hadoop时临时文件的存放路径等信息

sudo vim core-site.xml 

再configuration内部添加如下信息

	 <property>
                <name>fs.defaultFS</name>
                <value>hdfs://serendipity:9000</value> 
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/home/serendipity/hadoop/hadoopdata</value>
        </property>

其中,hdfs://serendipity:9000 中 serendipity是主机名,可以修改为自己的主机名

/home/serendipity/hadoop/hadoopdata是指定存放数据信息的文件夹,可以自己创建一个文件夹。将其全路径放在这里。

文件系统 hdfs-site.xml

配置分布式文件系统HDFS的属性,包括指定HDFS保存数据的副本数了,指定HDFS中NameNode、DataNode节点的存储位置

sudo vim hdfs-site.xml 

将下面信息加入configuration内部

 <property>
        <name>dfs.replication</name>
        <value>1</value>
</property>
<property>
        <name>dfs.namenode.datanode.registration.ip-hostname-check</name>
        <value>false</value>
</property>

dfs.replication 为执行副本数量

文件系统 yarn-site.xml

yarn是mapreduce的调度框架。

sudo vim yarn-site.xml 

将下列信息加入configuration内部,信息不用改,直接抄

     <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
</property>
<property>
        <name>yarn.resourcemanager.address</name>
        <value>serendipity:18040</value>
</property>
<property>
        <name>yarn.resourcemanager.scheduler.address</name>
        <value>serendipity:18030</value>
</property>
<property>
        <name>yarn.resourcemanager.resource-tracker.address</name>
        <value>serendipity:18025</value>
</property>
<property>
        <name>yarn.resourcemanager.admin.address</name>
        <value>serendipity:18141</value>
</property>
<property>
        <name>yarn.resourcemanager.webapp.address</name>
        <value>serendipity:18088</value>
</property>

计算框架 mapred-site.xml

使用cp命令将 mapred-site.xml.template 复制一份为 mapred-site.xml

cp mapred-site.xml.template  mapred-site.xml

打开 mapred-site.xml 文件

sudo vim mapred-site.xml

将下列信息加入configuration内部

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

slaves

配置启动的从机

sudo vim slaves 

再内部键入你需要启动的从机的主机名,我只有两个从机,slave01,slave02.所以就写了这两个

将配置的所有hadoop信息复制到从机

scp -r hadoop/hadoop  serendipity@slave01:/home/serendipity/hadoop/hadoop

不确定的话,可以将上述安装配置Hadoop的流程,再从机上全部重复一遍,都是一样的操作。

配置环境变量

打开 etc/profile文件

sudo vim /etc/profile

将下面代码追加到文件末尾

export HADOOP_HOME=/home/serendipity/hadoop/hadoop
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP/sbin

执行命令,激活配置

source /etc/profile

至此。Hadoop安装与配置完毕。

启动Hadoop集群

格式化文件系统

hdfs namenode -format

启动Hadoop集群

将路径切到hadoop安装目录

cd hadoop/hadoop

启动集群

sbin/start-all.sh

查看Hadoop是否正常启动

在serendipity 执行 jps命令

jps # 查看java进程:java process status??? 可能吧 不知道。

在slave01、slave02执行jps命令

分别如图所示,即Hadoop集群节点已正式启动

在serendipity 查看集群信息

bin/hadoop dfsadmin -report

箭头所指区域不全为0 即为正常。

使用web查看集群是否正常,在浏览器地址栏输入:http://serendipity:50070,检查namenode和datanode是否正常

全为0,即集群不是正常状态,尤其是live Nodes节点,一般有几个机器有datanode节点,这里就应该是几。

标签:xml,sudo,Hadoop,hadoop,ssh,site,serendipity,安装
From: https://www.cnblogs.com/serendipity-igao/p/16795323.html

相关文章

  • spdlog库笔记 (二):编译、安装
    目录安装编译、运行平台编译、安装直接拷贝include文件到用户的项目Windows下编译使用spdlogWindows下使用spdlog参考安装编译、运行平台Linux,FreeBSD,OpenBSD,Solaris,AI......
  • Elasticsearch 和 Kibana 安装
    Elasticsearch和Kibana安装操作系统:Windows10ElasticStack版本:8.4.3目录Elasticsearch和Kibana安装安装Elasticsearch客户端连接Elasticsearch安装Kibana......
  • jumpserver的安装部署
    一、下载jumpserver压缩包1)可以从官方下载 开源社区-FIT2CLOUD飞致云2)github下载 JumpServer(github.com)二、下载完成后1)解压到/optcd/opttar-xfjumpserve......
  • truffle安装问题-无法加载文件
      在powershell下输入以下命令set-executionpolicyremotesigned  问题解决搜索复制......
  • Nacos安装指南
    1.Windows安装开发阶段采用单机安装即可。1.1.下载安装包在Nacos的GitHub页面,提供有下载链接,可以下载编译好的Nacos服务端或者源代码:GitHub主页:https://github.com/ali......
  • pip安装pyqt5-tools的时候Preparing metadata (pyproject.toml) error
    遇到了,未解决,在这里卡主了python版本3.10.5 python3.10上安装pyqt5_染指13的博客-CSDN博客_python安装pyqt5解决办法(有人说要降级Python3.9啥的,或者降pyqt5的版本,我......
  • hadoop集群搭建与简单应用
    系统镜像:CentOS-6.5-x86_64-Li.iso虚拟机:VMwareWorkstation16Pro(16.0.0build-16894299)JDK:1.8.0_161hadoop:2.7.0创建虚拟机虚拟机安装后将系统install对mas......
  • Ubuntu 20.04 安装 Docker
    环境目前Docker支持的Ubuntu版本有:UbuntuJammy22.04(LTS)UbuntuImpish21.10UbuntuFocal20.04(LTS)UbuntuBionic18.04(LTS)当前的Ubuntu的版本为......
  • 2022-10-15 react+react-draft-wysiwyg之富文本编译器安装过程
    npminstall--savereact-draft-wysiwygnpminstall--savedraft-jsnpminstall--savedraftjs-to-htmlnpminstall--savehtml-to-draftjs需要引入以下文......
  • 自动化测试 - mac安装jenkins并安装allure插件,构建执行pytest自动化用例并产出allure
    背景:jenkins+pytest+allure,产出自动化测试结果步骤如下:一、mac安装jenkins1.方法一:(不推荐,跳过)安装tomcat下载jenkins并放到tomcat的www目录2.方法二:brew安装......