首页 > 系统相关 >centos7安装hadoop(集群模式)

centos7安装hadoop(集群模式)

时间:2024-02-26 20:33:05浏览次数:29  
标签:opt hadoop centos7 etc vm200 集群 3.3 节点

目录


节点规划

ip hostname 节点作用
192.168.1.200 vm200 NameNode,SecondaryNameNode,resourcemanager
192.168.1.201 vm201 NameNode
192.168.1.202 vm202 NameNode

安装前准备

准备jdk和hadoop的安装文件

上传到192.168.1.200的/opt目录下面

[hadoop@vm200 opt]$ ls -l
total 856372
-rw-r--r--.  1 root   root   730107476 Feb 25 23:46 hadoop-3.3.6.tar.gz
-rw-r--r--.  1 root   root   146815279 Feb 25 22:20 jdk-8u321-linux-x64.tar.gz

分别修改三台主机名字

每个节点都要执行

#三台主机上分别执行,后面vm200修改成节点规划中的hostname
hostnamectl set-hostname vm200

建立hadoop账号

每个节点都要执行

  • 添加账号并且指定密码
    #添加账号
    useradd hadoop
    
    #指定密码
    passwd hadoop
    
    
    
  • 添加hadoop账号到sudo组,vi /etc/soduers
    ## Allow root to run any commands anywhere
    root    ALL=(ALL)       ALL
    hadoop  ALL=(ALL)       ALL                      #添加这一行
    
  • 切换到hadoop账号
    #切换到hadoop 账号,一定要切换到hadoop账号,因为后面我们是对haddop账号做免密登录的
    su hadoop
    

配置三台主机的证书登录

每个节点都要执行

#在三台主机上都生成密钥对
ssh-keygen -t rsa
#在三台主机上,分别把公钥复制到另外的主机上
#我这里 namenode 和 SecondaryNameNode 是同一台机子,所以vm200 也需要对自己免密邓丽
ssh-copy-id -i vm200
ssh-copy-id -i vm201
ssh-copy-id -i vm202

解压jdk和hadoop

sudo tar -zxvf hadoop-3.3.6.tar.gz
sudo tar -zxvf jdk-8u321-linux-x64.tar.gz

配置环境变量

vi /etc/profile 在末尾追加下面部分


#JDK
export JAVA_HOME=/opt/jdk1.8.0_321
export PATH=$JAVA_HOME/bin:$PATH

#hadoop
export HADOOP_HOME=/opt/hadoop-3.3.6
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

复制jdk和配置文件到别的节点

scp -r /opt/jdk1.8.0_321 hadoop@vm201:/opt
scp -r /opt/jdk1.8.0_321 hadoop@vm202:/opt

scp -r /etc/profile hadoop@vm201:/etc
scp -r /etc/profile hadoop@vm202:/etc

使环境变量生效

所有节点执行

source /etc/profile

编辑文件修改

修改配置文件

vi /opt/hadoop-3.3.6/etc/hadoop/core-site.xml

<configuration>
 <!--指定文件系统地址 -->
 <property>
  <name>fs.defaultFS</name>
  <value>hdfs://vm200:9000</value>
 </property>
 <!--指定文件临时文件地址 -->
 <property>
  <name>hadoop.tmp.dir</name>
  <value>/opt/hadoopData/tmp</value>
 </property>
 <!--指定静态用户 -->
 <property>
   <name>hadoop.http.staticuser.user</name>
   <value>hadoop</value>
 </property>
</configuration>

vi /opt/hadoop-3.3.6/etc/hadoop/hdfs-site.xml

<configuration>
 <!--指定副本数 -->
 <property>
  <name>dfs.replication</name>
  <value>2</value>
 </property>
 <!--指定namenode数据目录 -->   
 <property>
  <name>dfs.namenode.name.dir</name>
  <value>/opt/hadoopData/dfs/name</value>
 </property>
 <!--指定datanode数据目录 -->   
 <property>
  <name>dfs.datanode.data.dir</name>
  <value>/opt/hadoopData/dfs/data</value>
 </property>
 <!--指定namenode地址 -->  
 <property>
  <name>dfs.namenode.http-address</name>
  <value>0.0.0.0:50070</value>
 </property>
    
</configuration>

vi /opt/hadoop-3.3.6/etc/hadoop/yarn-site.xml

<configuration>
<!--指定resourcemanager位置 --> 
 <property>
  <name>yarn.resourcemanager.hostname</name>
  <value>vm200</value>
 </property>
 <property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
 </property>
</configuration>

vi /opt/hadoop-3.3.6/etc/hadoop/mapred-site.xml

<configuration>
 <property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
 </property>
<!--历史任务地址 --> 
 <property>
  <name>mapreduce.jobhistory.address</name>
  <value>vm:10020</value>
 </property>
<!--历史任务web地址 --> 
 <property>
  <name>mapreduce.jobhistory.webapp.address</name>
  <value>vm200:19888</value>
 </property>
</configuration>

vi /opt/hadoop-3.3.6/etc/hadoop/workers

vm201
vm202

vi /opt/hadoop-3.3.6/etc/hadoop/hadoop-env.sh

#找到export JAVA_HOME 的地方改成 jdk位置
export JAVA_HOME=/opt/jdk1.8.0_321

创建文件目录

mkdir -p /opt/hadoopData/tmp
mkdir -p /opt/hadoopData/dfs/name
mkdir -p /opt/hadoopData/dfs/data

复制hadoop到别的节点

#复制hadoop 目录
scp -r /opt/hadoop-3.3.6 hadoop@vm201:/opt
scp -r /opt/hadoop-3.3.6 hadoop@vm202:/opt

#复制数据目录
scp -r /opt/hadoopData hadoop@vm201:/opt
scp -r /opt/hadoopData hadoop@vm202:/opt

初始化namenode

在vm200上执行

hdfs namenode -format

启动hadoop

在vm200上执行

 start-all.sh

查看节点状态

查看节点状态(vm200)

[hadoop@vm200 hadoop-3.3.6]$ jps -l
7104 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
6876 org.apache.hadoop.hdfs.server.namenode.NameNode
29133 sun.tools.jps.Jps
2143 org.apache.hadoop.yarn.server.resourcemanager.ResourceManager

查看节点状态(vm201)

[hadoop@vm201 hadoop-3.3.6]$ jps
2290 NodeManager
2147 DataNode
2740 Jps

查看节点状态(vm202)

[root@vm202 logs]# jps
2241 NodeManager
2795 Jps
2126 DataNode

hadoop管理地址:http://192.168.1.200:8088
hdfs管理地址:http://192.168.1.200:50070

标签:opt,hadoop,centos7,etc,vm200,集群,3.3,节点
From: https://www.cnblogs.com/cxygg/p/18035125

相关文章

  • [Docker] 基于CENTOS7的Docker版本升级
    0序环境信息OS:CENTOS7.9.2009DockerVersion:18.06.3-ce=>25.0.3-1.el71升级过程Step1卸载低版本dockerStep1.1检查docker版本#查看版本(方法1)dockerversion#查看版本(方法2)rpm-qa|grepdocker#查看版本(方法3)yumlistinstalled|g......
  • CentOS7安装Docker
    1.删除原有的Docker(如果有)sudoyumremovedocker\docker-client\docker-client-latest\docker-common\docker-latest\docker-latest-logrotate\......
  • 在K8S中,worke节点如何加入K8S高可用集群?
    在Kubernetes(K8S)中,将一个Worker节点加入到高可用集群的过程与加入单Master集群大体相似,但需要注意的是,高可用集群中的Master通常是通过负载均衡器暴露服务端点的,这样无论哪个Master节点宕机,Worker节点都可以连接到活跃的Master节点。以下是加入高可用Kubernetes集群的具体步骤:1.......
  • 在K8S中,SVC资源是否支持在K8S集群外部访问?
    在Kubernetes(K8S)中,Service资源可以通过特定类型支持在集群外部访问。以下是一些可以提供外部访问能力的Service类型:NodePort:NodePort服务会将服务映射到每个节点上的一个静态端口(范围默认为30000-32767)。通过这个端口,集群外部可以直接通过任意节点的IP地址和该NodePort来......
  • K8S集群固定Pod IP
    原理主要利用Calico组件的两个kubernetes注解(1)cni.projectcalico.org/ipAddrs(2)cni.projectcalico.org/ipAddrs单个Pod固定IP利用注解cni.projectcalico.org/ipAddrs示例Yaml如下apiVersion:apps/v1kind:Deploymentmetadata:name:front-endlabels:app:......
  • vmware三台centos虚拟机部署hadoop-3.2.4
    是在已经安装VMware和三台centos虚拟机的基础上进行的。1.进入root用户命令:su-,更新所有包命令sudoyumupdate2.删除已有jdk,安装Java命令sudoyuminstalljava-1.8.0-openjdk-devel3.修改主机名,在/etc/hosts文件中添加三台主机的IP地址和主机名的映射,可以用ping-c5[主......
  • ElasticSearch集群搭建
    1环境和版本1.1操作系统干干静静的centos7系统,选取的是mini的iso最小化安装CentOSLinuxrelease7.9.2009(Core)1.2ElasticSearch版本本文使用的版本是8.11.3,下载地址:https://www.elastic.co/guide/en/elasticsearch/reference/current/install-elasticsearch.html1.3......
  • Centos7 下载|安装|配置|卸载 Docker
    Centos7下载|安装|配置|卸载DockerDocker官网:http://www.docker.comDockerHub仓库官网:https://hub.docker.com/一.环境要求1.CentOSDocker支持以下版本CentOS7(64-bit)CentOS6.5(64-bit)或更高的版本2.前提条件CentOS仅发行版本中的内核支持Docker......
  • Kafka 3.6.1 Kraft模式 集群安装与部署
    1.集群规划hadoop02(192.168.58.130)hadoop03(192.168.58.131)hadoop04(192.168.58.132)kafkakafkakafka2.集群部署1.下载kafka二进制包https://kafka.apache.org/downloads2.解压mkdir/usr/kafkatar-zxvf/home/kafka_2.13-3.6.1.tgz-C/usr/kafka/3.......
  • k8s集群无法启动
    K8S集群启动失败一、问题现象问题的起因:来源于大年初二的停电上班后第一天:开始重启所有服务,就发现了k8s集群无法启动了。。[root@test~]#kubectlgetnodesTheconnectiontotheserver10.0.7.16:6443wasrefused-didyouspecifytherighthostorport?二、解决......