首页 > 其他分享 >hadoop集群搭建与简单应用

hadoop集群搭建与简单应用

时间:2022-10-15 21:44:57浏览次数:46  
标签:fs hdp hadoop etc 集群 usr local 搭建

系统镜像:CentOS-6.5-x86_64-Li.iso

虚拟机:VMware Workstation 16 Pro(16.0.0 build-16894299)

JDK:1.8.0_161

hadoop:2.7.0

创建虚拟机

虚拟机安装后将系统install

对master主机linux系统配置

  • 修改主机名

    vim /etc/sysconfig/network

    shutdown -r now

  • 配置ip地址映射

    ip地址自己去看:编辑>虚拟网络编辑器>VMnet8>NAT设置

    vim /etc/hosts

    192.168.112.128 master
    192.168.112.129 slave001
    192.168.112.130 slave002
    
  • 配置网卡

    vim /etc/sysconfig/network-scripts/ifcfg-eth0

    写入以下内容

    DEVICE=eth0
    NETMSKE=255.255.255.0
    GATEWAY=192.168.112.2
    IPADDR=192.168.112.128
    ONBOOT=yes
    BOOTPROTO=static
    

    service network restart

    ifconfig

  • 开启sshd服务与开机启动,关闭防火墙与开机启动.

    service sshd start
    chkconfig sshd on
    service iptables stop
    chkconfig iptables off
    
  • 赋予hdp,sudo权限

    useradd hdp

    passwd hdp

    vim /etc/sudoers

    ## Allow root to run any commands anywhere 
    root    ALL=(ALL)       ALL
    hdp     ALL=(ALL)       ALL
    
  • putty通过pscp传输文件或用xftp

    pscp -P 22 [要传输的文件] [用户名@主机ip地址:要传输到的目录]

  • 解压jdk,hadoop
    解压tar:tar -xvf [文件名] [-C] /usr/local

    解压tar.gz:tar -zxvf [文件名] [-C] /usr/local

    压缩:tar -zcvf 文件名.tar.gz [文件名]

  • 对jdk,hadoop设置文件拥有者,组拥有者

    chown -R hdp /usr/local/jdk1.8.0_161

    chgrp -R hdp /usr/local/jdk1.8.0_161

    chown -R hdp /usr/local/hadoop2.7.0

    chgrp -R hdp /usr/local/hadoop2.7.0

  • 配置环境变量

    vim /etc/profile

    export JAVA_HOME=/usr/local/jdk1.8.0_161
    export PATH=$PATH:$JAVA_HOME/bin
    export HADOOP_HOME=/usr/local/hadoop-2.7.0
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    

    source /etc/profile

    java,hadoop检验

克隆slave基于master

  • 修改主机名

    vim /etc/sysconfig/network

    shutdown -r now

  • 配置网卡

    将IPADDR修改一下

    vim /etc/sysconfig/network-scripts/ifcfg-eth0

配置$HADOOP_HOME/etc/hadoop/下的文件

转到hdp用户su hdp

转到配置文件目录cd $HADOOP_HOME/etc/hadoop/

创建hadoop存储文件夹mkdir $HADOOP_HOME/tmp

对下列文件进行修改(对主机名看自己情况修改)

  • hadoop-env.sh

    export JAVA_HOME=/usr/local/jdk1.8.0_161
    #JAVA_HOME写上自己jdk 的安装路径
    
  • core-site.xml

    <!-- 指定Hadoop所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
    <property>
      <name>fs.defaultFS</name>
      <value>hdfs://master:9000</value>
    </property>
    <!-- 定Hadoop运行是产生文件的存储目录。默认 -->
    <property>
      <name>hadoop.tmp.dir</name>
      <value>/usr/local/hadoop-2.7.0/tmp</value>
    </property>
    
  • hdfs-site.xml

    <!-- 指定HDFS副本的数量,不修改默认为3个 -->
    <property>
      <name>dfs.replication</name>
      <value>2</value>
    </property>
    <!-- dfs的SecondaryNameNode在哪台主机上 -->
    <property>
      <name>dfs.namenode.secondary.http-address</name>
      <value>slave001:50090</value>
    </property>
    
  • mapred-site.xml

    mv mapred-site.xml.template mapred-site.xml

    <!-- 指定MapReduce运行是框架,这里指定在yarn上,默认是local -->
    <property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
    </property>
    
  • yarn-site.xml

    <!-- 指定yarn的老大ResourceManager的地址 -->
    <property>
      <name>yarn.resourcemanager.hostname</name>
      <value>master</value>
    </property>
    <!-- NodeManager上运行的附属服务。需要配置成mapreduce_shuffle,才可以运行MapReduce程序默认值 -->
    <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
    </property>
    
  • slaves

    slave001
    slave002
    

传输hadoop配置文件到slave机

scp -r /usr/local/hadoop2.7.0/etc/hadoop hdp@slave001:/usr/local/hadoop2.7.0/etc/

启动集群

  • 初始化HDFS

    hdfs namenode -format

  • 启动hdfs,yarn

    start-all.sh等价于start-hdfs.sh,start-yarn.sh

  • 查看节点角色

    jps

  • 查看端口

    netstat -nplt

  • 浏览器查看namenode,secondarynamnode,yarn监控端

    master:50070
    slave001:50090
    master:8080
    

集群wordcount示例

  • 常用命令

    类mkdir命令:hadoop fs -mkdir 目录

    类ls命令:hadoop fs -ls 文件

    类cat命令:hadoop fs -cat 文件

    类cp命令:hadoop fs -cp 文件 文件

    类rm -r命令:hadoop fs -rm -r 文件

    类mv命令:hadoop fs -mv 文件 文件

    统计文件系统可用空间信息:hadoop fs -df -h /

    统计文件夹的大小信息:hadoop fs -du -s -h 文件

    下载hdfs文件到本地:hadoop fs -get hdfs文件

    上传本地文件到hdfs:hdfs dfs -put 本地文件 hdfs文件

  • 运行wordcount示例

    hadoop fs -mkdir /input

    hdfs dfs -put 一个具有文字信息的文件 /input/

    yarn jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.0.jar wordcount /input/ /output

    hadoop fs -ls /output

有问题或建议请在下面评论,如果我看到的话会回。

标签:fs,hdp,hadoop,etc,集群,usr,local,搭建
From: https://www.cnblogs.com/FlourishingTree/p/16795120.html

相关文章

  • 大话西游服务端开服架设服务器搭建教程​
    大话西游服务端开服架设服务器搭建教程​大话西游一款回合制角色扮演手游,游戏内包含人族、仙族、魔族、鬼族四大种族,每个种族各有4个角色可供玩家选择。相信很多玩这款游戏......
  • k8s上的 部署TiDB 集群
    k8s上的部署TiDB集群一、k8s环境准备略二、k8s上部署TiDB2.1、部署StorageClass-nfs方案sc种类很多,模拟的话此处就有较为简单的nfs类型的sc#nfs部署方案http......
  • envoy开发调试环境搭建
    image前段时间研究envoy的filter开发,在windows机器环境上面折腾了会,这里记录一下,希望能够帮助到大家少走一些坑主要是使用vscodedevContainer的方式来搭建开发调试环......
  • 用flask搭建管理平台
    flask是什么?flask可以做什么这里就不说了,百度一下即可,这篇文章主要是手把手带你使用flask搭建一个简单的注册、登陆、以及用户权限管理模块。在pycharm上创建新的flask......
  • Hadoop MapReduce
    学习MapReduce,首先要理解它的思想——分而治之,先分再合,分而治之,所谓的分而治之,意思就是将一个复杂的问题,按照一定的分解方法分解为规模较小的若干的部分,再逐个解决,分别找出......
  • HM-SCAli2【案例环境搭建】
    1.案例准备以电商项目中的商品、订单、用户为案例进行学习1.1技术选型maven:3.3.9数据库:MySQL5.7持久层:SpingDataJpa其他:SpringCloudAlibaba技术栈1.2......
  • 【翻译】Raft 共识算法:集群成员变更
    转载请注明出处:https://www.cnblogs.com/morningli/p/16770129.html之前都在集群配置是固定的(参与共识算法的server集合)假设下讨论raft。在实践中,偶尔有需要改变配置,比如......
  • Ubuntu如何搭建Gitlab
    先贴官方文档:https://packages.gitlab.com/gitlab/gitlab-ce/install 前往官方下载地址查看自己https://packages.gitlab.com/gitlab/gitlab-ce //TODO: 1、官......
  • Ubuntu如何搭建Jenkins
    前言:由于我通过aptinstall的方式安装未能成功启动,还没有查清楚原因。所以目前我只提供下载资源包的方式。另提供Jenkins通过aptget安装的官方文档:https://pkg.jenkins.......
  • 转载:ElementUI源码系列一 - 从零搭建项目架构,项目准备、项目打包、项目测试流程
    创建入口文件首先,在你的电脑里寻找一个风水宝地,创建一个文件夹,通过 npminit-y,初始化 package.json文件;创建 src文件夹,在它下面创建 src/index.js入口文件,它是我们项......