首页 > 其他分享 >一、Hadoop平台安装

一、Hadoop平台安装

时间:2023-05-18 09:48:00浏览次数:39  
标签:src local 平台 Hadoop 192.168 master usr yarn 安装

卸载自带 OpenJDK(最小化安装不用执行)
[root@master ~]# rpm -qa | grep java
[root@master ~]# rpm -e --nodeps x x x
配置免密登录
生成密钥对:[root@master ~]# ssh-keygen -t rsa(回车四次)
发送公钥:[root@master ~]# ssh-copy-id 192.168.100.10
ssh-copy-id 192.168.100.20
ssh-copy-id 192.168.100.30
关闭防火墙:
systemctl stop firewalld
systemctl disable firewalld
修改主机名:
hostnamectl set-hostname master
hostnamectl set-hostname slave1
hostnamectl set-hostname slave2
映射:
vi /etc/hosts
192.168.100.10 master
192.168.100.20 slave1
192.168.100.30 slave2
配置Java、Hadoop环境变量
[root@localhost src]# vi /etc/profile
export JAVA_HOME=/usr/local/src/jdk1.8.0_181/
export PATH=$PATH:$JAVA_HOME/bin
export HADOOP_HOME=/usr/local/src/hadoop-2.7.6/
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
发送从机:
scp -r /etc/profile slave1:/etc/
scp -r /etc/profile slave2:/etc/
配置文件:
1、vi core-site.xml


fs.defaultFS
hdfs://master:9000

io.file.buffer.size 131072 hadoop.tmp.dir file:///usr/tmp/hadoop 2、vi hadoop-env.sh export JAVA_HOME=/usr/local/src/jdk1.8.0_181/ (25行) 3、vi hdfs-site.xml dfs.replication 1 dfs.namenode.name.dir file:///hdfs/namenode dfs.datanode.data.dar file:///hdfs/datanode dfs.block.size 134217728 dfs.http.address master:50070 dfs.namenode.secondary.http-address master:9001 dfs.webhdfs.enbled true dfs.permissions false 4、cp mapred-site.xml.template mapred-site.xml vi mapred-site.xml mapreduce.framework.name yarn mapreduce.jobhistory.address master:10020 mapreduce.jobhistory.webapp.address master:19888 5、vi yarn-site.xml yarn.resourcemanager.hostname master yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.address master:8032 yarn.resourcemanager.scheduler.address master:8030 yarn.resourcemanager.resource-tracker.address master:8031 yarn.resourcemanager.admin.address master:8033 yarn.resourcemanager.webapp.address master:8088 6、vi slaves master slave1 slave2 分发Hadoop: scp -r /usr/local/src/hadoop-2.7.6 slave1:/usr/local/src/ scp -r /usr/local/src/hadoop-2.7.6 slave2:/usr/local/src/ 分发jdk: scp -r /usr/local/src/jdk1.8.0_181/ slave1:/usr/local/src/ scp -r /usr/local/src/jdk1.8.0_181/ slave2:/usr/local/src/ 刷新生效: [root@master hadoop]# hadoop namenode -format 启动服务: [root@master hadoop]# start-all.sh 配置Windows: C:\Windows\System32\drivers\etc 192.168.100.10 master 192.168.100.20 slave1 192.168.100.30 slave2

标签:src,local,平台,Hadoop,192.168,master,usr,yarn,安装
From: https://www.cnblogs.com/-liunian/p/17410957.html

相关文章

  • 三、ZooKeeper平台安装
    解压:tar-zxvfzookeeper-3.4.5.tar.gz进入:cd/usr/local/src/zookeeper-3.4.5/conf拷贝文件:cpzoo_sample.cfgzoo.cfg编辑文件:vizoo.cfgtickTime=2000initLimit=10syncLimit=5dataDir=/tmp/zookeeperclientPort=2181server.1=master:2888:3888server.2=slave1:28......
  • 二、Hive平台安装
    解压文件:tar-zxvfapache-hive-2.0.0-bin.tar.gz重命名:mv/usr/local/src/apache-hive-2.0.0-bin/usr/local/src/hive卸载MariaDB数据库:rpm-qa|grepmariadbrpm-e--nodepsmariadb-libs-5.5.56-2.el7.x86_64安装mysql数据库:rpm-ivhmysql-community-common-5.7.......
  • 五、Sqoop平台安装
    实验任务一:下载和解压Sqoop解压sqoop:tar-zxvfsqoop-1.4.7.bin__had.gz重命名:mvsqoop-1.4.7.bin__hadoop-2.6.0/sqoop实验任务二:配置Sqoop环境切换目录:cd/usr/local/src/sqoop/conf复制sqoop-env-template.sh模板:cpsqoop-env-template.shsqoop-env.sh编辑文......
  • 四、HBase平台安装
    解压:tar-zxvfhbase-1.2.1-bin.tar.gz配置文件(/usr/local/src/hbase-1.2.1/conf路径下):vihbase-env.shexportJAVA_HOME=/usr/local/src/jdk1.8.0_181/(27)配置文件:vihbase-site.xmlhbase.rootdir/usr/local/src/hbase-1.2.1/HBASEhbase.cluster.distributedtrue......
  • 六、Flume 组件安装配置
    解压:tar-zxvfapache-flume-1.7.0-bin.tar.gz重命名:mvapache-flume-1.7.0-bin/flume配置环境变量:vi/etc/profileexportFLUME_HOME=/usr/local/src/flumeexportPATH=$PATH:$FLUME_HOME/bin刷新环境变量:source/etc/profile切换目录:cd/usr/local/src/flume/conf......
  • Redis 在windows 下安装使用
    管理界面: Release2022.5·lework/RedisDesktopManager-Windows(github.com)redis服务:发布·特波拉多夫斯基/雷迪斯(github.com)验证redis服务是否安装完成,和配置密码redis-cliconfigsetrequirepass密码auth密码 ......
  • centos7 中安装 busco
     001、系统[root@PC1software]#cat/etc/redhat-releaseCentOSLinuxrelease7.9.2009(Core) 002、python版本[root@PC1software]#python3--versionPython3.11.3 003、gcc版本[root@PC1software]#gcc--versiongcc(GCC)4.8.520150623(RedHat......
  • Hadoop的核心配置文件
    1.core-site.xml:该配置文件包含了Hadoop通用配置,例如Hadoop的文件系统和I/O设置、Hadoop日志目录、Hadoop缓存设置等。2.hdfs-site.xml:该配置文件包含了Hadoop分布式文件系统(HDFS)的配置,例如HDFS的副本数、块大小、数据目录、安全设置等。3.yarn-site.xml:该配置文件包含了Hado......
  • docker 安装nginx 主机可以访问,但是外网访问不了--set:nu
    在外网确实访问不了:第一步:查看端口是否打开ss  -auput|grep":80"第二:查看防火墙是否打开firewall -cmd --state第三:是否缺少内核的转发vim/etc/sysctl.conf添加 net.ipv4.ip_forward=1查看配置是否生效 ......
  • 【hadoop】 3005-hadoop对象序列化编码
    一、hadoop序列化操作Writable接口,是根据 DataInput 和 DataOutput 实现的简单、有效的序列化对象MR的任意Key和Value必须实现Writable接口.MR的任意key必须实现WritableComparable接口二、自定义Writable,实现MapReduce程序1、需求内容日期 ......