首页 > 其他分享 >hadoop

hadoop

时间:2024-04-18 22:45:51浏览次数:25  
标签:文件 机器 启动 Hadoop hadoop start sh

创建hduser:

sude geoupad hadcup
audo uaeridd g ridoog bdussr aido caowre hdao:n02oc0
/spe/werkyyec4/xpark/ha<oop-3.3.5 sudu pazewd lduser
hdusar
i-p..
ual "i .zek/ii_roy.puba -/.a2h/01to0rinen.knya
chmnd aoo: "i.ast/autanr'aaa keya elmod oro0 wissel. beh localkes:

安装jdk
sudo yum install java 1.8.0 openjdk-devel
配置./bashrc

nxpore
HADEOP HOME-Sogx/warkapnca/parkl tec7-3.5.4
export PATH=SPAT:3MANCOP-HOmz:bin export ENTH-SPATE:EHAKUP_HOME/5ain Axpnrt HDRE NAHENOEH LHER-"hdusers exporL HOFS_DATANOCE_USEE-"lduser" export
HDPE SHEONGSRYNAMHNDH DS-8-1duaer

HxTUTL
EAINEESOUICEMANAGER_USEE="hdueer" export
YAKN NOEEMANAG-H WEPR-"nduser
AxpAML. TAYA HONF-/ux:lit/vmiA9S-
1.2.0-uperjtk frbad¬ias -± Siwbich7avai

配置hadoop文件: core-site.xml

ywcemrgueatioss
eprupertye
eranerie.defarl-Fec/nanea
svaluaahaa:2/10.11".21.19-9000</26 luer
</-roperey/aonTighvatians

hdfs-site.xml

scantaguratianz
=properlye
enameedrs.replicatipra/nanes
tioropnrye rpruperlya
Srameedis.ienanoss.name.dir.
evalueefile:jopsiwurkspace/epark/ag docs
3.3.6/acaogp-data.hafa/nanenadetevs
Eevroperye pruperty

evaluesfilc:/cpe/workspuce/spark/ht doss
3.3.6/a6aoop datashatayhatrnadesixs
civroper.y ieonfisuzaticak

mapred-site.xrml

y sasnrguratione
Y porap-rlys
6
map=educe.franzwork.nume</na

eivroper.ye r/eoniisteatse
启动hdfs

KHAICOF HONPain/adi's nemanade Corrsl
SHARCOF HONF: hit/xiArt-dlx.au SHADCOPLHOKE/ybin/starl-yarn.sb
配置无密码登录datanode

0sp */.osh/1n_ro1.pub
hduas"210.111.3.231.-inemenade 'dr

at /222626-i2rou.pub e -/.ash/r1h10*tven knya
mount /dew/sdbl/ops

启动DataNode:
在Hadoop集群中, DataNode 是由start-dts. sh 脚本自动启动的。这个脚本会在所有列在H ADOOP_HONE/etc/adeop/slaves文件中的机器上启动DatzHoca
因此:你只需要确保AODP_HOME/etc/hadonp/s Laves文件包含了所有你想要作为 DataNade行的机器的主机名或IP地址(每行一个):然后运行 start-dfs.sh脚本即可:例如:

SHACOF HONE;anirfatartaia.ar

如果你只想在单个机器上启动 DataMous,你可以直接运行 hadopa-nacmn.sh脚本,如下所示:

SHADCOF-HONe/soar/hczcop dcaman.sa.s

请注意,无论哪种方式,你都需要确保在启动DÃtaNede之前已经在相应的机器上安装了
Hadoop,并且正确配置了所有必要的Hadoop配
置文件(如 core-site.xml hnts-ta.xml
等).
start-dfs.sh和hadnap-daempa.sh start datan ode这两个命令的主要区别在于它们启动 Hadoop进程的范围和目标。

  1. start-dfs.sh: 这个脚本用于启动Hadoop分
    布式文件系统(DFS)的所有组件:包括N meNude . SecuidaryNameNude,以及在文件中列出的所有机器上的UatnNod:。换句话说,这个脚本会在整个Hadoop集群上启动DFS。
  2. hadoop-daemon.sh start datanode: 这个
    脚本只在当前机器上启动DataNone进程,它不会启动NameNote,也不会在其他机器上启动Datahadr.
    因此,如果你想在整个集群上启动Hadoop DFS.你应该使用start-dfs.sh命令,但是,
    如果你只想在单个机器上启动DataNoce (例
    如,你正在添加一个新的节点到集群]:你可以使用 haduop-ddenon.sh start daterude命令.

在Hadoop 3.x版本中,slave节点的列表不再存放在SHADOOP_HOME/etc/hadoop/slaves文件中,而是放在$HADDP_KOMF/ete/haranp/worker文件中。所以,请在workers文件中添加你想要作为DataNode运行的机器的主机名或IP地址(每行一个).
如果 workers 文件也不存在,你可以手动创建
这个文件..
然后:你可以使用 sta-t-dfs.sh 脚本启动
DataNode。例如:

SHADCOPLHOME/cbin/sてart-d±c.s
这将在 workers 文件中列出的所有机器上启
动 DataNode,

如果你只是在workers文件中添加了新的 worker节点,那么不需要重新格式化
NameNode. hdfs nanenode -fornat命令是用于初始化HDFS文件系统的,通常只在首次设置 Hadoop集群时运行一次。如果你再次运行这个命令,你将丢失所有HDFS上的数据.
所以,当你添加了新的worker节点后,你只需要÷运行 sta-t drs.sh脚本来启动或重启你的 Hadoop集群。

SHADCOPLHOKE/shin/8aart-dio.ch
这将会在所有列在 murkers 文件中的节点上启
动DataNodea
start-yarr.sh 脚本用于启动YARN (Yet
Another Resource Negotiator)的组件,包括 ResourceManager 和 NodeManager。
ResourceManager 是YARN 的主节点,负责整个集群的资源管理和任务调度。它通常在集群中的一台机器上运行。
NodeManager 是YARN的工作节点,负责管理单个机器上的资源,并跟踪它们上运行的任务。每一台作为YARN 工作节点的机器上都会运行一个 NodeManager。
starl yarr.sh脚本会在DP_10ME/etc/ha
deap/yarn-sita.x 配置文件中指定的
ResourceManager 地址上启动
ResourceManager: 它也会在SHADCAP_HDWF/at c/hatoou/warke-s文件中列出的所有机器上启动 NodeManager。
所以,如果你的 DataNode 机器也在 murker
文件中列出,那么start-yarn.sh会在这些机器上启动 NodeManager,

地址: http://10.111.21.79:9870
从你提供的yarn-site.xml 文件内容来看,该
文件并没有配置任何具体的YARN 设置。你需要在这个文件中添加ResourceManager的地址和其他相关的YARN 配置。以下是一个基础的
rn-site.xnl 配置示例:

y weoarigurations
sprupertye
*rampンでにに作.rこコ01raemincgar.r心vaiaeiohaato5a1心/vAla e/vroperly:<pruperty?

cnanpハvこにmnodeコ12gar.a'ux5 TVATaPmACreionn ahi↑↑la</va eegroarlye epruperlye
EramaかVにonanadenanegar。A'dx
∵vaiudeony,cpacha.hadoop.nep wigropartye ciconfigusatiome
在这个配置中, yarn,resourcenanager,hostnan
设置为你的 ResourceManager 主机的主机
名 yarn,nodenanager,aux-services 和 yarn.
nademanager.aux-scrvires .maareduce.shufflc.clas
用于启用 MapReduce Shuffle服务,这足运行MapReduce 作业所必需的。
保存并关闭文件后,你需要在所有使用 YARN 的主机上{包括 ResourceManager 和
NodeManager 主机)重新启动 YARN 以应用这些更改。

点费表态,让进步发生
品采筑编辑 2023-12-28 1
打打是
输入评论,@提组成员

标签:文件,机器,启动,Hadoop,hadoop,start,sh
From: https://www.cnblogs.com/wubdut/p/18144696

相关文章

  • 大数据之Hadoop(入门)
    大数据概论大数据部门业务流程分析大数据部门组织结构Hadoop生态框架Hadoop是什么Hadoop官网官网地址:http://hadoop.apache.org/releases.html下载地址:https://archive.apache.org/dist/hadoop/common/Hadoop优势Hadoop组成HDFS架构概述YARN架构概述MapRed......
  • hadoop篇——nameNode DataNode SecondaryNameNode的作用,以及如何查看操作日志
    集群下的hadoop(112主节点113,114从节点)如果112挂了,数据以及操作日志会丢失无法恢复,又称单点故障。再启动start-all.shhadoop后,主节点会产生name以及secondary两个文件 所在地址在  /root/training/hadoop-2.7.3/tmp/dfs其中name对应的是NameNode节点:接受客户端的请......
  • sqoop:错误: 找不到或无法加载主类 org.apache.hadoop.mapreduce.v2.app.MRAppMaster(已
    1报错信息错误:找不到或无法加载主类org.apache.hadoop.mapreduce.v2.app.MRAppMaster说明:操作将数据库中的数据导入到HDFS中执行sqoopimport --connectjdbc:mysql://aaa01:3306/mysql--usernameroot--passwordroot--tabletest时报了以下错误2报错截图:......
  • 解决hadoop的namenode和datanode结点启动不起来的问题
    首先介绍一下本人的情况:我的虚拟机最开始是可以启动的,后来删除了主节点,重新创建了一个主节点,并保持相同的主机名,并把从结点上的hadoop打包发到了主节点(前提已经弄好ssh和相关映射)tar-zcf~/hadoop.master.tar.gz./hadoop//将hadoop目录下的内容打包复制到~/hadoop.master.ta......
  • hadoop02
    1.配置文件hadoop的默认配置文件都在$HADOOP_HOME/share下,先读取这个默认值,再读取etc中用户配置的值,用户配置的值将覆盖默认值cd$HADOOP_HOME/sharemkdir-p/data/testfind-name"*-default.xml"-execcp{}~/data/test\;在hdfs-default.xml中查找dfs.blocksize,可以......
  • 在CentOS7上搭建hadoop集群
    hadoop官方下载地址https://hadoop.apache.org/releases.html用到的命令/root/hadoop-3.4.0/bin/hdfsnamenode-format,start-all.sh,stop-all.sh1.三台虚拟机分别设置静态ip2.设置免密登录(更改主机名、添加映射)3.配置hadoop(添加环境变量)core-site.xmlhdfs-site.......
  • Hadoop集群下的wordcount运行出错类型及解决方法
    1、启动wordcont程序显示异常:原因:2、显示服务器连接不成功:原因:虚拟机配置问题,导致yarn服务没有启动3、运行结果不正确:原因:暂未发现,求解答......
  • 大数据设计基于Hadoop技术下的校园二手交易系统的设计与实现
    一、项目介绍  在新冠疫情下,校园二手交易系统主要是用JAVA开发的。系统根据B/S架构设计,选用springboot框架开发,Hadoop技术,编码由Eclipse撰写,形成的数据储存在MySQL数据库中,服务器应用Tomcat。系统分成管理员控制模块和学生模块。管理员可以审批学生、物品分类、物品信息......
  • 大数据设计基于Hadoop全国天气可视化分析系统
    一、项目介绍  全国天气可视化分析系统主要功能模块包括系统首页、轮播图、公告消息、资源管理(天气资讯、资讯分类)系统用户(管理员、普通用户)模块管理(天气信息、降水数据),采取面对对象的开发模式进行软件的开发和硬体的架设,能很好的满足实际使用的需求,完善了对应的软体架设......
  • Hadoop3.1.3+Spark2.3.4全分布决策树
    该文档是一些配置全分布的注意事项(遇到的坑)与个人的一些指令备注,阅读文档前需要配置好网络,具体可以参考:网络配置。linux系统选择的是Centos7首先是一些小工具:小技巧1.Xshell:可以更方便地批量操控虚拟机进行全分布:这样输入任何指令都可以输入给所有虚拟机,方便全分布的配置......