首页 > 其他分享 >docker部署hadoop集群

docker部署hadoop集群

时间:2024-06-05 15:35:16浏览次数:27  
标签:-- hadoop hadoop2 ssh 集群 docker usr

docker部署hadoop集群: https://blog.51cto.com/865516915/2150651   一、主机规划 3台主机:1个master、2个slaver/worker ip地址使用docker默认的分配地址: master: 主机名: hadoop2、ip地址: 172.17.0.2   slaver1: 主机名: hadoop3、ip地址: 172.17.0.3 主机名: hadoop4、ip地址: 172.17.0.4 二、软件安装 1、在docker中安装centos镜像,并启动centos容器,安装ssh。--详见"docker上安装centos镜像"一文。 2、通过ssh连接到centos容器,安装jdk1.8、hadoop3.0 可以按照传统linux安装软件的方法,通过将jdk和hadoop的tar包上传到主机进行安装。 获取centos7镜像 $ docker pull centos 大概是70多M,使用阿里云等Docker加速器的话很快就能下载完,之后在镜像列表中就可以看到 查看镜像列表的命令: $ docker images 安装SSH 以centos7镜像为基础,构建一个带有SSH功能的centos $ vi Dockerfile 内容: FROM centos MAINTAINER ljh@hdd520.cn RUN yum install -y openssh-server sudo RUN sed -i 's/UsePAM yes/UsePAM no/g' /etc/ssh/sshd_config RUN yum install -y openssh-clients RUN echo "root:abc123" | chpasswd RUN echo "root ALL=(ALL) ALL" >> /etc/sudoers RUN ssh-keygen -t dsa -f /etc/ssh/ssh_host_dsa_key RUN ssh-keygen -t rsa -f /etc/ssh/ssh_host_rsa_key RUN mkdir /var/run/sshd EXPOSE 22 CMD ["/usr/sbin/sshd", "-D"] 这段内容的大意是:以 centos 镜像为基础,安装SSH的相关包,设置了root用户的密码为 abc123,并启动SSH服务 执行构建镜像的命令,新镜像命名为 centos7-ssh $ docker build -t="centos7-ssh" . 执行完成后,可以在镜像列表中看到 $ docker images 构建Hadoop镜像 上面是运行了3个centos容器,需要在每个容器中单独安装Hadoop环境,我们可以像构建SSH镜像一样,构建一个Hadoop镜像,然后运行3个Hadoop容器,这样就更简单了 $ vi Dockerfile 内容: FROM centos7-ssh ADD jdk-8u151-linux-x64.tar.gz /usr/local/ RUN mv /usr/local/jdk1.8.0_151 /usr/local/jdk1.8 ENV JAVA_HOME /usr/local/jdk1.8 ENV PATH $JAVA_HOME/bin:$PATH ADD hadoop-3.1.0.tar.gz /usr/local RUN mv /usr/local/hadoop-3.1.0 /usr/local/hadoop ENV HADOOP_HOME /usr/local/hadoop ENV PATH $HADOOP_HOME/bin:$PATH RUN yum install -y which sudo   这里是基于 centos7-ssh 这个镜像,把 JAVA 和 Hadoop 的环境都配置好了 前提:在Dockerfile所在目录下准备好 jdk-8u101-linux-x64.tar.gz 与 hadoop-2.7.3.tar.gz 执行构建命令,新镜像命名为 hadoop $ docker build -t="hadoop" . 在/etc/hosts文件中添加3台主机的主机名和ip地址对应信息 172.17.0.2      hadoop2 172.17.0.3      hadoop3 172.17.0.4      hadoop4 在docker中直接修改/etc/hosts文件,在重启容器后会被重置、覆盖。因此需要通过容器启动脚本docker run的--add-host参数将主机和ip地址的对应关系传入,容器在启动后会写入hosts文件中。如: docker run --name hadoop2--add-host hadoop2:172.17.0.2 --add-host hadoop3:172.17.0.3 --add-host hadoop4:172.17.0.4 hadoop docker exec -it hadoop2 bash $ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa $ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys $ chmod 0600 ~/.ssh/authorized_keys hadoop部署 1.在workers文件中定义工作节点 在hadoop根目录下的etc/hadoop目录下新建workers文件,并添加工作节点主机信息。 按照步骤一中的主机规划,工作节点主机为hadoop3和hadoop4两台主机。如: [root@9e4ede92e7db ~]# cat /usr/local/hadoop/etc/hadoop/workers hadoop3 hadoop4 2、修改配置文件信息 a、在hadoop-env.sh中,添加JAVA_HOME信息 [root@9e4ede92e7db ~]# cat /usr/local/hadoop/etc/hadoop/hadoop-env.sh |grep JAVA_HOME # JAVA_HOME=/usr/java/testing hdfs dfs -ls # Technically, the only required environment variable is JAVA_HOME. # export JAVA_HOME= JAVA_HOME=/usr/local/jdk1.8 b、core-site.xml configuration><property> <name>fs.default.name</name> <value>hdfs://hadoop2:9000</value> </property> <property> <name>io.file.buffer.size</name> <value>131072</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop/tmp</value> <description>Abase for other temporary directories.</description> </property> </configuration> c、hdfs-site.xml <configuration> <property> <name>dfs.namenode.secondary.http-address</name> <value>hadoop2:9001</value> <description># 通过web界面来查看HDFS状态 </description> </property> <property> <name>dfs.namenode.name.dir</name> <value>/home/hadoop/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/home/hadoop/dfs/data</value> </property> <property> <name>dfs.replication</name> <value>2</value> <description># 每个Block有2个备份</description> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> </configuration> d、yarn-site.xml <configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>hadoop2:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>hadoop2:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>hadoop2:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>hadoop2:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>hadoop2:8088</value> </property> <property> <name>yarn.nodemanager.resource.memory-mb</name> <value>1024</value> </property> <property> <name>yarn.nodemanager.resource.cpu-vcores</name> <value>1</value> </property> </configuration> e、mapred-site.xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>hadoop2:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>hadoop2:19888</value> </property> </configuration> f、为防止进坑提前做好准备 vi start-dfs.sh   vi stop-dfs.sh HDFS_DATANODE_USER=root #HADOOP_SECURE_DN_USER=hdfs HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root HDFS_DATANODE_SECURE_USER=hdfs vi start-yarn.sh   vi stop-yarn.sh YARN_RESOURCEMANAGER_USER=root HADOOP_SECURE_DN_USER=yarn YARN_NODEMANAGER_USER=root 注意: 以上步骤完成以后停止当前容器,并使用docker命令保持到一个新的镜像。使用新的镜像重新启动集群,这样集群每台机器都有相同的账户、配置和软件,无需再重新配置。如: a、停止容器 docker stop hadoop2 b、保存镜像 docker commit hadoop2 hadoop_me:v1.0 测试 1、端口映射 集群启动后,需要通过web界面观察集群的运行情况,因此需要将容器的端口映射到宿主主机的端口上,可以通过docker run命令的-p选项完成。比如: 将yarn任务调度端口映射到宿主主机8088端口上: docker run -it -p 8088:8088 hadoop_me:v1.0 2、从新镜像启动3个容器 docker run --name hadoop2 --add-host hadoop2:172.17.0.2 --add-host hadoop3:172.17.0.3 --add-host hadoop4:172.17.0.4 -d -p 5002:22 -p 9870:9870 -p 8088:8088 -p 19888:19888 hadoop_me:v1.0 docker run --name hadoop3 --add-host hadoop2:172.17.0.2 --add-host hadoop3:172.17.0.3 --add-host hadoop4:172.17.0.4 -d -p 5003:22 hadoop_me:v1.0 docker run --name hadoop4 --add-host hadoop2:172.17.0.2 --add-host hadoop3:172.17.0.3 --add-host hadoop4:172.17.0.4 -d -p 5004:22 hadoop_me:v1.0 3.格式化 进入到/usr/local/hadoop目录下 执行格式化命令 bin/hdfs namenode -format 修改hadoop2中hadoop的一个配置文件etc/hadoop/slaves 删除原来的所有内容,修改为如下 hadoop3 hadoop4 在hadoop2中执行命令 scp -rq /usr/local/hadoop hadoop3:/usr/local scp -rq /usr/local/hadoop hadoop4:/usr/local 4.在master主机上执行start-all.sh脚本启动集群 5.通过web页面访问   

 

 

 

 

 

声明:此博客为个人学习之用,如与其他作品雷同,纯属巧合,转载请指明出处!

 

 

标签:--,hadoop,hadoop2,ssh,集群,docker,usr
From: https://www.cnblogs.com/zhihuifan10/p/18233127

相关文章

  • 05 Hadoop简单使用
    目录一、hadoop安装配置二、运行hadoop三、hadoop2.x和hadoop3.x变化四、HDFS常用命令五、Java操作HDFS六、MapReduce七、压缩八、yarn常用命令一、hadoop安装配置​1、下载解压hadoop-x.x.x.tar.gztar-xzvfhadoop-x.x.x.tar.gz​2、下载解压jdktar-xzvfj......
  • docker修改镜像源
    一,更改docker的镜像源1.修改:vi/etc/docker/daemon.json文件,新增下面的内容(一般建议新增2-3个){#中国科技大学"registry-mirrors":["https://docker.mirrors.ustc.edu.cn"]#网易"registry-mirrors":["https://hub-mirror.c.163.com"]#阿里"registry......
  • docker自定义仓库
    使用官方镜像创建registry仓库容器: 下载官方registry镜像: #dockerpullregistry  在本地创建registry仓库容器: #mkdir-p/opt/data/registry#dockerrun-idt-p5000:5000--nameregistry-v/opt/data/registry/:/tmp/registryregistry//以上命令会创建一个名......
  • docker入门教程
    1.Docker简介1.1Docker和虚拟化的区别虚拟化将物理硬件资源虚拟化为多个虚拟机。每个虚拟机拥有自己的操作系统和应用程序,彼此隔离。虚拟机启动速度较慢,资源消耗较大。Docker在一台服务器或虚拟机上使用同一操作系统部署多个应用程序每个容器共享操作系统的内核,但......
  • 手动二进制部署的 kubernetes 集群证书过期处理
    现象一个二进制部署的kubernetes集群,突然发现无法连接到apiserver,执行kubectl时报错:Unabletoconnecttotheserver:x509:certificatehasexpiredorisnotyetvalid:currenttime2024-05-31T15:25:02+08:00isafter2024-05-29T08:07:53Z解决排查下来原因是......
  • Docker部署深度学习模型
    Docker部署深度学习模型基础概念DockerDocker是一个打包、分发和运行应用程序的平台,允许将你的应用程序和应用程序所依赖的整个环境打包在一起。比如我有一个目标检测的项目,我想分享给朋友,那么他首先需要在自己的电脑上配置好显卡驱动、CUDA、CuDNN,在拿到我的项目后,还需要安......
  • 06Docker-操作系统
    本文主要介绍如何使用Docker安装和使用Busybos、Debina/Ubuntu、Centos/Fedora、等操作系统。1、BusyboxBusyBox是一个集成上百个常用Linux命令和工具的软件工具箱,在单一的可执行文件中提供了精简的Unix工具集。包含了一些简单的工具,如cat、echo、grep、find、mount等。......
  • Hadoop完全分布式安装
    Hadoop完全分布式安装一.集群搭建前期准备1.三台机器防火墙都是关闭的2.确保三台机器网络配置畅通3.三台机器确保/etc/hosts⽂件配置了ip和hostname的映射关系4.确保三台机器配置了ssh免密登录认证二.前期环境搭建免密登录1.修改主机名为server1,配置hosts文件vi/e......
  • Linux上安装Docker
    本安装教程参考Docker官方文档,地址如下:https://docs.docker.com/engine/install/centos/ 1.卸载旧版首先如果系统中已经存在旧的Docker,则先卸载:yumremovedocker\docker-client\docker-client-latest\docker-common\docker-latest\docker-l......
  • Redis 结合 Docker 搭建集群,并整合SpringBoot
    软件版本Redis7.2.5Docker26.1.3 准备工作由于docker直接拉取运行了,所以需要提前准备配置文件Indexof/releases/(redis.io)下载后,把redis-7.2.5.tar.gz\redis-7.2.5.tar\redis-7.2.5\里的redis.conf复制出来 概览结构如上图所示,准备6个服务器。 配置各节点......