首页 > 系统相关 >CentOS7+java8+hadoop3.3.5环境搭建

CentOS7+java8+hadoop3.3.5环境搭建

时间:2023-06-27 16:55:22浏览次数:49  
标签:mapreduce xwp hadoop CentOS7 hadoop3.3 3.3 HOME java8 HADOOP

需要的配置文件

centos7的镜像

centos-7.9.2009-isos-x86_64安装包下载_开源镜像站-阿里云 (aliyun.com)

java8

Java Downloads | Oracle

hadoop3.3.5

Index of /dist/hadoop/common/hadoop-3.3.5 (apache.org)

步骤

首先第一步在本地下载好vmware和centos7的镜像

 

之后的选项根据自己的实际需求选择

创建完之后

将这个路径换为你自己镜像的路径

然后就可以进入了,完成一些初始的设定之后

开始配置java8环境

下载完后

打开命令窗口,并进入管理员模式

mkdir /usr/local/java8

tar zxvf jdk-8u371-linux-x64.tar.gz -C /usr/local/java8/

cd /usr/local/java8/jdk1.8.0_371/

vi /etc/profile

## JDK8
export JAVA_HOME=/usr/local/java8/jdk1.8.0_371
export JRE_HOME=${JAVA_HOEM}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib:$CLASSPATH
export JAVA_PATH=${JAVA_HOME}/bin:${JRE_HOME}/bin
export PATH=$PATH:${JAVA_PATH}

source /etc/profile

在执行完vi /ect/profile命令完后,按i键进入编辑模式,在末尾添加上jdk8的环境设置,然后按esc退出,再按shift+:,然后输入wq按回车保存,最后使用source命令刷新配置

出现java版本说明配置成功了

配置hadoop3.3.5伪分布式

wget  https://archive.apache.org/dist/hadoop/common/hadoop-3.3.5/hadoop-arm64-3.3.5.tar.gz

tar zxvf hadoop-3.3.5.tar.gz -C /usr/local/

cd /usr/local/hadoop-3.3.5/

vi /etc/profile

## Hadoop3.3.5

export HADOOP_HOME=/usr/local/hadoop-3.3.5

export PATH=$PATH:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin

source /etc/profile

vi etc/hadoop/hadoop-env.sh

export JAVA_HOME=/usr/local/java8/jdk1.8.0_371

export HADOOP_PID_DIR=${HADOOP_HOME}/pids

在hadoop-env.sh末尾添加上面两句话

然后是对hadoop文件的配置

vi etc/hadoop/core-site.xml

#把configuration换位如下配置

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.15.130:9000</value>#注意这里是你自己的IP地址不要照抄
    </property>
    <property>
        <name>io.file.buffer.size</name>
        <value>131072</value>
    </property>
</configuration>

vi etc/hadoop/hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/mnt/data01/hadoop</value>
    </property>
    <property>
        <name>dfs.blocksize</name>
        <value>268435456</value>
    </property>
    <property>
        <name>dfs.namenode.handler.count</name>
        <value>100</value>
    </property>

    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/mnt/data01/hdfs_dndata</value>
    </property>
</configuration>

配置hosts

hostnamectl set-hostname billsaifu #可以任意取主机名称
bash
echo "192.168.15.130  billsaifu" >> /etc/hosts#你自己的主机名和IP地址

这里可以查看你的IP地址

创建免密

useradd xwp
su - xwp -c "ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa"
su - xwp -c "cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys"
su - xwp -c "chmod 0600 ~/.ssh/authorized_keys"
chown -R xwp:xwp /usr/local/hadoop-3.3.5
mkdir /usr/local/hadoop-3.3.5/pids
chown -R xwp:xwp /usr/local/hadoop-3.3.5/pids
mkdir -p /mnt/data01/hadoop
mkdir -p /mnt/data01/hdfs_dndata
mkdir -p /mnt/data01/yarn_nmdata
chown -R xwp:xwp /mnt/data01/hadoop
chown -R xwp:xwp /mnt/data01/hdfs_dndata
chown -R xwp:xwp /mnt/data01/yarn_nmdata

启动HDFS

su - xwp
cd /usr/local/hadoop-3.3.5
bin/hdfs namenode -format
sbin/start-dfs.sh

创建执行mapreduce任务所需的HDFS目录

hdfs dfs -mkdir /user

hdfs dfs -mkdir /user/xwp

执行mapreduce任务

 hdfs dfs -mkdir input
hdfs dfs -put etc/hadoop/*.xml input
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.5.jar grep input output 'dfs[a-z.]+'
hdfs dfs -get output output
cat output/

启动YARN

vi etc/hadoop/mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.map.memory.mb</name>
        <value>1536</value>
    </property>
    <property>
        <name>mapreduce.map.java.opts</name>
        <value>-Xmx1024M</value>
    </property>
    <property>
        <name>mapreduce.reduce.memory.mb</name>
        <value>3072</value>
    </property>
    <property>
        <name>mapreduce.reduce.java.opts</name>
        <value>-Xmx2560M</value>
    </property>
    <property>
        <name>mapreduce.task.io.sort.mb</name>
        <value>512</value>
    </property>
    <property>
        <name>mapreduce.task.io.sort.factor</name>
        <value>100</value>
    </property>
    <property>
        <name>mapreduce.application.classpath</name>
        <value>$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*</value>
    </property>

    <!--property>
        <name>mapreduce.jobhistory.address</name>
        <value>hdfs://192.168.15.130:10020</value>
    </property-->
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>http://192.168.15.130:19888</value>#注意换成自己的IP地址
    </property>
</configuration>

vi etc/hadoop/yarn-site.xml

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.env-whitelist</name>
        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_HOME,PATH,LANG,TZ,HADOOP_MAPRED_HOME</value>
    </property>
    <property>
        <name>yarn.nodemanager.local-dirs</name>
        <value>/mnt/data01/yarn_nmdata</value>
    </property>
</configuration>

sbin/start-yarn.sh#开启yarn

bin/mapred --daemon start historyserver #开启JobhistoryServer

输入 hadoop version

出现对应的版本说明配置成功了

利用jps查看是否启动成功

未启动

[xwp@billsaifu hadoop-3.3.5]$ jps
8129 Jps

成功启动

[xwp@billsaifu hadoop-3.3.5]$ ./sbin/start-dfs.sh
Starting namenodes on [billsaifu]
billsaifu: Warning: Permanently added 'billsaifu,192.168.15.130' (ECDSA) to the list of known hosts.
Starting datanodes
localhost: Warning: Permanently added 'localhost' (ECDSA) to the list of known hosts.
Starting secondary namenodes [billsaifu]
[xwp@billsaifu hadoop-3.3.5]$ jps
9108 SecondaryNameNode
9259 Jps
8622 NameNode

登录相应的页面

失败是这样的

标签:mapreduce,xwp,hadoop,CentOS7,hadoop3.3,3.3,HOME,java8,HADOOP
From: https://www.cnblogs.com/liyiyang/p/17509336.html

相关文章

  • centos7安装nvm
    1.清除nvm缓存:运行以下命令清除nvm的缓存:```rm-rf~/.nvm```2.重新安装nvm:按照以下步骤重新安装nvm:-使用curl或wget下载nvm安装脚本。例如,使用curl:```curl-o-https://raw.githubusercontent.com/nvm-sh/nvm/v0.38.0/install.sh|bash```-......
  • CentOS7 部署 k8s 集群
    CentOS7部署k8s集群BUG弄潮儿 2023-06-1020:32 发表于广东BUG弄潮儿多年开发经验,专注软件开发、架构;推送微服务,分布式,Spring全家桶,Redis,Linux,Nginx等技术,欢迎一起学习、探讨。396篇原创内容公众号K8s+Istio+Golang=微服务+服务网格+云原生0x0......
  • 使用云镜像 Centos7 镜像模板命令初始化
    安装kvm镜像工具套装 CentOS-7-x86_64-GenericCloud-2111.qcow2aptinstall-ylibguestfs-toolsyuminstall-ylibguestfs-toolslibguestfs-winsupportguestfishshell脚本#!/bin/envbashset-eimage_name=CentOS-7-x86_64-GenericCloud-2111.qcow2virt-customize-......
  • centos7 升级sqlite
    软件下载地址均为其官网。一.wget升级yuminstall-ywget 二.sqlite3安装sudoyuminstallsqlite-devel查看sqlite3的版本sqlite3-version三.sqlite3升级下载源码wgethttps://www.sqlite.org/2019/sqlite-autoconf-3290000.tar.gz版本可去官网选择SQLiteHome......
  • CentOS7的系统初始化
    centos7(communityenterpriseoperationsystem):红帽公司linux的发行版(centos6、7、8)开源免费centos6官网不再更新了系统初始化:刚刚安装好的系统可以对环境进行初始化(配置优化设置静态IP永久关闭防火墙等等)GUI界面(grome)命令行界面(最小化)静态IP设置DHCP(动态IP......
  • CentOS7中ping不通外网
    在参考文档安装了一个CentOS7系统后,发现无法ping通外网,实际在用wget下载文件时却又是可以的,不知道这是为何?暂时没有追究这个问题,决定先把ping不通外网的问题解决。在按照其他方法尝试解决的时候发现一共有以下几个问题:1.没有配置DNS在/etc/sysconfig/network-scripts/ifcfg-en......
  • centos7-datax和datax-web安装以及安装中问题的解决
    一、下载这些软件(见) 系统变量设置(安装maven和jdk略)vi /etc/profileJAVA_HOME=/usr/local/jdk1.8.0_40CLASSPATH=$JAVA_HOME/lib/PATH=$PATH:$JAVA_HOME/binDATAX_HOME=/usr/local/dataxPATH=$PATH:$DATAX_HOME/bin exportMAVEN_HOME=/usr/local/apache-maven-3......
  • 在CentOS7.9上搭建以太坊私链
    为了方便了解以太坊的操作流程,故在CentOS7上搭建以太坊的私链。下面,介绍在CentOS7.9x64上部署以太坊的私链。    常用的以太坊源码是用Go语言编写的,所以要安装Go。这里选择Go1.15.6。1、搭建Go软件环境    安装方法,请参考这篇文章:https://blog.csdn.net/sanqima/art......
  • Centos7 内核限制
    一、设置所有用户最大打开文件数和网络连接数1、编辑 /etc/security/limits.conf 文件,可以使用下面的命令打开该文件:sudovim/etc/security/limits.conf2、添加以下四行:第一行和第二行分别设置所有用户的文件打开数的软限制和硬限制均为65535。第三行和第四行分别设置所......
  • Linux 虚拟机修改ip地址(CentOS7)【Linux】
    1、编辑文件vi/etc/sysconfig/network-scripts/ifcfg-ens332、输入 i 键,进入编辑模式3、编辑ip地址 4、输入 :wq  退出保存5、重启网卡servicenetworkrestart6、测试外网连接pingwww.baidu.com ......