首页 > 其他分享 >hadoop配置day01

hadoop配置day01

时间:2022-10-31 17:22:56浏览次数:27  
标签:day01 配置 hadoop HADOOP export ssh home HOME

hadoop

安装jdk

配置文件:
sudo vim /etc/profile
配置文件:
export JAVA_HOME=/home/hadoop/jvm/jdk1.8.0_341
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
重新加载配置文件:
source /etc/profile
验证是否成功:
java -version

配置ssh免密登录

安装ssh:
sudo ape-get install ssh
产生ssh key:
ssh-keygen -t rsa
查看ssh key:
ll ~/.ssh
将id_rsa.pub放许可证文件:
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
更改权限:
chmod 755~
chmod 700 ~/.ssh
chmod 600 ~/.ssh/authorized_keys
验证是否成功:
ssh -Version
用hostname查看主机名:
ssh ubuntu(主机名)
退出ssh:exit

hadoop安装

1.解压安装包
cd 到想要安装的目录:
tar -zxvf hadoop-3.1.1.tar.gz

hadoop环境变量配置准备

1.查看本机ip:
ifconfig
本机ip为:192.168.232.9
2.查看主机名:
hostname
本机主机名为:nbuntu
3.将ip地址和主机名写进/etc/hosts:
sudo vim /etc/hosts

环境变量配置

1.编辑配置文件
sudo vim ~/.bashrc
export JAVA_HOME=/home/hadoop/jvm/jdk1.8.0_341
export HADOOP_HOME=/home/hadoop01/hadoop-3.1.1
export PATH=$PATH:$HADOOP_HOME/binexport PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib :$HADOOP_COMMON_LIB_NATIVE_DIR"
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH
在 /etc/profile添加
export HADOOP_HOME=/home/hadoop01/hadoop-3.1.1
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
配置好之后,重新加载一下source /etc/profile
source ~/.bashrc
2.检查是否成功
hadoop version

修改hadoop配置文件

1.修改hadoop-env.sh
sudo vim ./hadoop-3.1.1/etc/hadoop/hadoop-env.sh
添加export JAVA_HOME=/home/hadoop/jvm/jdk1.8.0_341
2.在/home/hadoop01/hadoop-3.1.1/etc/hadoop目录下:
修改core-site.xml
sudo vim core-site.xml
添加:
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.232.9:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop01/hadoop-3.1.1/dataNode_1_dir</value>
   </property>
</configuration>
3.修改sudo vim yarn-site.xml
<property>
          <name>yarn.resourcemanager.hostname</name>
          <value>192.168.232.9</value>
</property>
<property>
          <name>yarn.nodemanager.aux-services</name>
          <value>mapreduce_shuffle</value>
</property>
4.修改mapred-site.xml
<configuration>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
</configuration>
5.修改sudo vim hdfs-site.xml
<configuration>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>file:///home/hadoop01/hadoop-3.1.1/hadoop_data/hdfs/namenode</value>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>file:///home/hadoop01/hadoop-3.1.1/hadoop_data/hdfs/datanode</value>
        </property>
        <property>
                <name>dfs.http.address</name>
                <value>192.168.232.9:50070</value>
        </property>

</configuration>
修改/etc/profile
sudo vim /etc/profile
export JAVA_HOME=/home/hadoop/jvm/jdk1.8.0_341
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export HADOOP_HOME=/home/hadoop01/hadoop-3.1.1

6.创建并格式化文件系统
mkdir -p /home/hadoop01/hadoop-3.1.1/hadoop_data/hdfs/namenode
mkdir -p /home/hadoop01/hadoop-3.1.1/hadoop_data/hdfs/datanode
mkdir -p /home/hadoop01/hadoop-3.1.1/dataNode_1_dir/datanode
格式化:
hdfs namenode -format

bug

1.如果出现找不到native本地库的情况,需要在hadoop-env.sh里面加入native的路径,然后重新格式化一下namenode,即可成功。
2.不要轻易格式化namenode,关机需要先关所有进程,避免下次丢失。
结点出不来就格式化,先删文件夹再格式化,要删干净

3.修改ip:sudo vim /etc/netplan/01-network-manager-all.yaml
network:
  ethernets:
    ens33:
      addresses: [192.168.232.1/24]
      gateway4: 192.168.232.2
      nameservers: 
          addresses: [114.114.114.114,8.8.8.8]
  version: 2
  renderer: NetworkManager
生效:sudo netplan apply

修改主机名:sudo vim /etc/hostname

然后解析主机:vim /etc/resolv.conf
nameserver 114.114.114.114
nameserver 8.8.8.8

修改完主机名需要改一下:
sudo vim /etc/hosts
127.0.0.1 localhost
ip 主机名

ping不通百度

标签:day01,配置,hadoop,HADOOP,export,ssh,home,HOME
From: https://www.cnblogs.com/qsmm/p/16845056.html

相关文章

  • docker01_配置允许任何IP的客户端连接
    阅读说明操作说明来自《每天5分钟玩转Docker容器技术》,但是具体展示内容和书中不一样,要详细了解的朋友可以翻阅书中2.3节。这里仅作为阅读笔记。 操作步骤1.找......
  • Coding上创建项目、将IDEA中的代码提交到Coding上的代码仓库、Git的下载、IDEA上配置G
    一、Git的安装以及子啊IDEA上配置Git(下载好的可以跳过)git官网:https://git-scm.com/参考这位博主的git下载教程。也是很详细()https://blog.csdn.net/orange228/article/det......
  • 单据架构—实现页面可配置化
    本篇是对以前工作中的单据架构实现做的总结,目前工作中我负责的系统也从零开始实现了这套架构功能。......
  • Spring-7-配置文件
    文章目录​​1.为什么要用配置文件​​​​2.怎么用包含配置文件​​1.为什么要用配置文件有多个applicationContext.xml可以分为服务层,dao和其他方便生成的对象便于管理2.......
  • STM32 CAN 过滤器、滤波屏蔽器配置总结
    (27条消息)STM32CAN过滤器、滤波屏蔽器配置总结_jixiangrurui的博客-CSDN博客......
  • Nginx配置godaddy证书
    在阿里云上购买的证书下载直接上传服务器配置到Nginx就可以直接使用,但是godaddy的需要自己手动生成证书:1.在网站:https://www.myssl.cn/tools/create-csr.html上生成KEY及......
  • 3主3从redis集群扩缩容配置案例
    1、环境准备#关闭防火墙systemctlstopfirewalld#查看防火墙状态systemctlstatusfirewalld#拉取redis:6.0.8镜像dockerpullredis:6.0.8  2、新建6个doc......
  • 框架的常用配置(一直更新)
     框架配置:web.xml配置:<!DOCTYPEweb-appPUBLIC"-//SunMicrosystems,Inc.//DTDWebApplication2.3//EN""http://java.sun.com/dtd/web-app_2_3.dtd"><web-app><di......
  • Linux网络配置
    一.网络地址配置1.1网络地址查看–ifconfig命令格式:ifconfig或ifconfig+网卡名主要参数信息:1.2网络配置修改临时修改IP地址ifconfig+网卡+......
  • Flume安装与配置
    Flume安装与配置1.下载安装文件下载Flume安装文件apache-flume-1.7.0-bin.tar.gz,保存到“/export/software/”目录下。下载完安装文件以后,需要对文件进行解压。sudota......