首页 > 系统相关 >centos7通过Ambari2.74部署Hadoop

centos7通过Ambari2.74部署Hadoop

时间:2024-09-26 12:56:42浏览次数:9  
标签:hdp01 repo ambari HDP hdfs Hadoop centos7 root Ambari2.74

一、前言

服务器:建议第一台内存不少于16G,其他可以8G

centos7通过Ambari2.74部署Hadoop_java

 软件版本:

centos7通过Ambari2.74部署Hadoop_ambari_02


链接:https://pan.baidu.com/s/17GWF0opxYl0MIm2LJNUGRg?pwd=iq4l
提取码:iq4l

 二、部署前环境准备

以下操作在所有机器上执行

1.配置host解析

vim /etc/hosts
10.0.0.138	hdp01.ambari.com	hdp01
10.0.0.139	hdp02.ambari.com	hdp02
10.0.0.140	hdp03.ambari.com	hdp03

2.调大用户文件描述符

vim /etc/security/limits.conf
* soft nofile 65535
* hard nofile 65535

# 配置需要重启才能生效
ulimit -n

3.配置时间同步(生产建议使用自建时间服务器)

yum -y install ntpdate  
ntpdate ntp.aliyun.com	
echo '*/5 * * * * ntpdate ntp.aliyun.com 2>&1'  >> /var/spool/cron/root

4.安装Java环境  

tar xf jdk-8u231-linux-x64.tar.gz -C /usr/local/
cd /usr/local/
ln -sv jdk1.8.0_231/  java

vim /etc/profile.d/java.sh
export JAVA_HOME=/usr/local/java
export CLASSPATH=$JAVA_HOME/lib/tools.jar
export PATH=$JAVA_HOME/bin:$PATH 

source /etc/profile.d/java.sh
java -version

以下操作仅在ambari-server上执行

1.ambari免密登录节点

echo -e "\n"|ssh-keygen -t rsa -N ""
# 免密除了IP,同时对主机名也要访问一下
ssh-copy-id -i 10.0.0.138
ssh-copy-id -i 10.0.0.139
ssh-copy-id -i 10.0.0.140 

echo "StrictHostKeyChecking no" >~/.ssh/config #取消第一次连接时yes确认操作

三、ambari服务部署

以下操作仅在ambari-server上执行

1.安装web服务,提供本地yum访问,此处使用Nginx

yum install nginx -y
systemctl start nginx
systemctl enable nginx
netstat -tnlp

2.部署MySQL  

安装步骤参考:

安装完成后根据提示登录并修改用户密码和权限

centos7通过Ambari2.74部署Hadoop_ambari_03

 修改root密码及登录权限

[root@hdp01 install_mysql5.7]# source ~/.bash_profile;mysql -u root --password=aJc+hjFwf6##

root@mysqldb 10:44:  [(none)]> ALTER USER 'root'@'localhost' IDENTIFIED BY 'Qwer@123';
Query OK, 0 rows affected (0.00 sec)

root@mysqldb 10:44:  [(none)]> GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'Qwer@123' WITH GRANT OPTION;
Query OK, 0 rows affected, 1 warning (0.00 sec)

3.创建ambari yum仓库

tar xf ambari-2.7.4.0-centos7.tar.gz -C /usr/share/nginx/html
tar xf HDP-3.1.4.0-centos7-rpm.tar.gz -C /usr/share/nginx/html
tar xf HDP-GPL-3.1.4.0-centos7-gpl.tar.gz -C /usr/share/nginx/html
tar xf HDP-UTILS-1.1.0.22-centos7.tar.gz -C /usr/share/nginx/html

vim /etc/yum.repos.d/ambari.repo
[ambari-repo]
name=ambari
baseurl=http://hdp01/ambari/centos7/2.7.4.0-118/
gpgcheck=0
enabled=1

[HDP-repo]
name=HDP
baseurl=http://hdp01/HDP/centos7/3.1.4.0-315/
gpgcheck=0
enabled=1

[HDP-GPL-repo]
name=HDP-GPL
baseurl=http://hdp01/HDP-GPL/centos7/3.1.4.0-315/
gpgcheck=0
enabled=1

[HDP-UTILS-repo]
name=HDP-UTILS
baseurl=http://hdp01/HDP-UTILS/centos7/1.1.0.22/
gpgcheck=0
enabled=1


yum repolist #确保四个仓库都正常显示
repo id                                                                               repo name                                                                                                            status
HDP-GPL-repo                                                                          HDP-GPL                                                                                                                   4
HDP-UTILS-repo                                                                        HDP-UTILS                                                                                                                16
HDP-repo                                                                              HDP                                                                                                                     201
ambari-repo                                                                           ambari                                                                                                                   13
......

4.安装ambari-server服务

yum install ambari-server

5.创建ambari-server服务所需的MySQL数据库

CREATE DATABASE ambari DEFAULT CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci;
CREATE USER 'ambari'@'%' IDENTIFIED BY 'bigdata';
GRANT ALL ON ambari.* TO 'ambari'@'%';
FLUSH PRIVILEGES;
use ambari;
source /var/lib/ambari-server/resources/Ambari-DDL-MySQL-CREATE.sql;
exit

6.配置MySQL Java驱动

mkdir -p /usr/share/java/  #此路径为ambari要求,不要更该
cp mysql-connector-java-8.0.18.jar /usr/share/java/

7.启动ambari配置向导

centos7通过Ambari2.74部署Hadoop_hdfs_04

centos7通过Ambari2.74部署Hadoop_java_05

8.启动ambari服务

centos7通过Ambari2.74部署Hadoop_ambari_06

四、通过ambari控制台安装Hadoop集群

1.登录控制台

centos7通过Ambari2.74部署Hadoop_java_07

2.启动安装向导

centos7通过Ambari2.74部署Hadoop_java_08

3.定义集群名称

centos7通过Ambari2.74部署Hadoop_hdfs_09

4.选择安装包

centos7通过Ambari2.74部署Hadoop_java_10

5.配置系统及HDP仓库地址

centos7通过Ambari2.74部署Hadoop_java_11

6.添加集群节点(这里只添加2台,第三台做集群扩容演示用)

centos7通过Ambari2.74部署Hadoop_ambari_12

7.执行添加操作

centos7通过Ambari2.74部署Hadoop_ambari_13

8.安装Service(大数据组件)

centos7通过Ambari2.74部署Hadoop_java_14

 下一步,会产生一些告警和提示,根据实际情况处理

centos7通过Ambari2.74部署Hadoop_java_15

 9.选择service安装的节点,保持默认即可

centos7通过Ambari2.74部署Hadoop_java_16

10.分配slave服务和client安装到哪些主机

centos7通过Ambari2.74部署Hadoop_java_17

11. 设置相关服务密码

centos7通过Ambari2.74部署Hadoop_java_18

12.创建hive数据库及设置jdbc路径

create database hive default character set utf8mb4 COLLATE utf8mb4_general_ci;
CREATE USER 'hive'@'%' IDENTIFIED BY 'bigdata';
GRANT ALL PRIVILEGES ON hive.* TO 'hive'@'%';  
FLUSH PRIVILEGES;
exit;

ambari-server setup --jdbc-db=mysql --jdbc-driver=/usr/share/java/mysql-connector-java-8.0.18.jar

13.配置hive数据库连接信息

centos7通过Ambari2.74部署Hadoop_hdfs_19

14.服务目录配置

centos7通过Ambari2.74部署Hadoop_ambari_20

15.配置各service再系统上使用哪个用户运行,默认即可

centos7通过Ambari2.74部署Hadoop_ambari_21

16.service资源及配置

centos7通过Ambari2.74部署Hadoop_hdfs_22

 

centos7通过Ambari2.74部署Hadoop_java_23

 17.view环境显示之前的配置,如果有问题可以点击左下角BACK返回修改,没有问题就可以点击"DEPLOY"部署了

centos7通过Ambari2.74部署Hadoop_java_24

18.开始部署,大概需要半小时

centos7通过Ambari2.74部署Hadoop_java_25

部署可以查看实时进度

centos7通过Ambari2.74部署Hadoop_ambari_26

有些告警,可以稍后处理

centos7通过Ambari2.74部署Hadoop_hdfs_27

19.显示摘要信息,有两个告警,没有失败的

centos7通过Ambari2.74部署Hadoop_java_28

此时整个集群就部署完毕了

20.删除SmartSense service

先停止

centos7通过Ambari2.74部署Hadoop_hdfs_29

再删除

centos7通过Ambari2.74部署Hadoop_hdfs_30

服务器上删除smartsense相关文件

[root@hdp01 ~]# find / -name smartsense |xargs rm -rf

21.查看告警和异常

centos7通过Ambari2.74部署Hadoop_hdfs_31

22.查看主机服务信息

centos7通过Ambari2.74部署Hadoop_java_32

确保组件状态都是正常

五、集群扩容

1.Hosts-> actions->Add New Hosts

centos7通过Ambari2.74部署Hadoop_hdfs_33

2.配置新节点信息,和创建集群时一样

centos7通过Ambari2.74部署Hadoop_ambari_34

centos7通过Ambari2.74部署Hadoop_ambari_35

2.选择安装的slave和client客户端

centos7通过Ambari2.74部署Hadoop_hdfs_36

 

其他步骤保持默认下一步即可

五、开启namenod、resourcemanager和HBase高可用

#注意:配置期间服务不可用

1.开启namenod HA

HDFS-> actions->enable namenode HA

前提条件,高可用需要集群最少三个节点,zookeeper集群最少三个节点,如果Hbase启动,需要关闭

centos7通过Ambari2.74部署Hadoop_hdfs_37

自定义集群ID

centos7通过Ambari2.74部署Hadoop_ambari_38

选择namenode及journalNode节点

centos7通过Ambari2.74部署Hadoop_java_39

根据提示在命令行创建检查点,否则下一步无法点击

centos7通过Ambari2.74部署Hadoop_java_40

[root@hdp01 ~]# sudo su hdfs -l -c 'hdfs dfsadmin -safemode enter'
Safe mode is ON
[root@hdp01 ~]# sudo su hdfs -l -c 'hdfs dfsadmin -saveNamespace'
Save namespace successful

完成后,等待NEXT变为可点击后点击下一步

部署完成后点击下一步

centos7通过Ambari2.74部署Hadoop_ambari_41

 按照提示在命令行执行,完成后等地NEXT可点击,点击下一步

[root@hdp01 ~]# sudo su hdfs -l -c 'hdfs namenode -initializeSharedEdits'

centos7通过Ambari2.74部署Hadoop_java_42

 启动组件,完成后下一步

centos7通过Ambari2.74部署Hadoop_ambari_43

命令行 执行初始化命令,注意两条命令不在一个机器上,完成后下一步

centos7通过Ambari2.74部署Hadoop_java_44

[root@hdp01 ~]# sudo su hdfs -l -c 'hdfs zkfc -formatZK' #这是hdp01
#这是hdp02,和上面不是一台机器,具体机器查看页面提示
[root@hdp02 ~]# sudo su hdfs -l -c 'hdfs namenode -bootstrapStandby

完成安装

centos7通过Ambari2.74部署Hadoop_java_45

安装结束,之前关闭的Hbase回自动启动,不许要手动启动,完成后部分组件需要重启,为了避免告警风暴可以先开启维护模式

centos7通过Ambari2.74部署Hadoop_hdfs_46

重启服务

centos7通过Ambari2.74部署Hadoop_hdfs_47

 确保重启正常,并关闭维护模式

centos7通过Ambari2.74部署Hadoop_java_48

2.开启resourcemanager HA

YARN-> actions->enable resourcemanager HA

centos7通过Ambari2.74部署Hadoop_java_49

 提示信息,提示操作回造成服务中断,需要计划停机时间

centos7通过Ambari2.74部署Hadoop_java_50

 选择节点,由于第三台服务较少,这里选择第三台

centos7通过Ambari2.74部署Hadoop_java_51

review配置,下一步

centos7通过Ambari2.74部署Hadoop_ambari_52

确保全部步骤正常

centos7通过Ambari2.74部署Hadoop_ambari_53

 

3.开启HBase 高可用

centos7通过Ambari2.74部署Hadoop_hdfs_54

启动对应节点上的服务

centos7通过Ambari2.74部署Hadoop_ambari_55

确认结果

centos7通过Ambari2.74部署Hadoop_java_56

至此,全部安装完毕

参考地址

安装文档:https://docs.cloudera.com/HDPDocuments/Ambari-2.7.4.0/bk_ambari-installation/content/determine_product_interop.html

ambari与HDP版本对应关系:https://supportmatrix.cloudera.com/#Hortonworks

 

 

"一劳永逸" 的话,有是有的,而 "一劳永逸" 的事却极少



标签:hdp01,repo,ambari,HDP,hdfs,Hadoop,centos7,root,Ambari2.74
From: https://blog.51cto.com/u_8901540/12118287

相关文章

  • centos7编译安装Hadoop3
    一、安装编译相关依赖此篇文档及Hadoop相关文档相关软件包统一在此百度网盘:链接:https://pan.baidu.com/s/11F4THdIfgrULMn2gNcObRA?pwd=cjllyuminstallsnappysnappy-develbzip2bzip2-devellzolzo-devellzoplibXtstlzo-develzlib-developensslopenssl-develncurse......
  • centos7二进制安装Hadoop3
    一、Hadoop简介1.1Hadoop3核心组件HDFS:分布式文件系统:解决海量数据存储YARN:集群资源管理和任务调度框架:解决资源任务调度MapReduce:分布式计算框架:解决海量数据计算1.2Hadoop集群简介Hadoop集群包括两个集群:HDFSYARN两个集群逻辑上分离(互不影响、互不依赖)物理上一......
  • Hadoop高可用集群搭建
    一、HDFSHA简介1.1 QJM简介1.QuorumJournalManager(仲裁日志管理器),是Hadoop官方推荐的HDFSHA解决方案之一2.使用zookeeper中ZKFC来实现主备切换;3.使用JournalNode(JN)集群实现editslog的共享以达到数据同步的目的1.2主备切换问题解决方案--ZKFailoverController(zkfc)ZKFailo......
  • centos7通过CDH部署Hadoop
    一、角色分配及安装环境准备资料下载地址:链接:百度网盘1.机器及机器角色规划2.关闭防火墙及SELinux3.安装依赖(server)redhat-lsb-core4.配置hosts解析192.168.1.136hadoop01192.168.1.137hadoop02192.168.1.138hadoop035.配置ClouderaManageryum仓库(server)#服务端配置y......
  • CentOS7.4安装部署openstack [Liberty版] (一)
    一、OpenStack简介OpenStack是一个由NASA(美国国家航空航天局)和Rackspace合作研发并发起的,以Apache许可证授权的自由软件和开放源代码项目。OpenStack是一个开源的云计算管理平台项目,由几个主要的组件组合起来完成具体工作。OpenStack支持几乎所有类型的云环境,项目目标是提供实施简......
  • CentOS7.4安装部署openstack [Liberty版] (二)
    继上一篇博客CentOS7.4安装部署openstack[Liberty版](一),本篇继续讲述后续部分的内容一、添加块设备存储服务1.服务简述:OpenStack块存储服务为实例提供块存储。存储的分配和消耗是由块存储驱动器,或者多后端配置的驱动器决定的。还有很多驱动程序可用:NAS/SAN,NFS,ISCSI,Ceph等等。块存......
  • Hadoop简介
    一、什么是HadoopHadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 Hadoop实现了一个分布式文件系统(HadoopDistributedFileSystem),简称HDFS。HDFS有高容错性的特点,并且设......
  • Hadoop2.6.5集群搭建
    一、 Hadoop的分布式模型Hadoop通常有三种运行模式:本地(独立)模式、伪分布式(Pseudo-distributed)模式和完全分布式(Fullydistributed)模式。安装完成后,Hadoop的默认配置即为本地模式,此时Hadoop使用本地文件系统而非分布式文件系统,而且其也不会启动任何Hadoop守护进程,Map和Reduce......
  • 【计算机毕设-大数据方向】基于Hadoop的车辆管控可视化平台的设计与实现
    ......
  • 【计算机毕设-大数据方向】基于Hadoop的新闻资讯数据分析可视化系统的设计与实现
    ......