首先介绍一下本人的情况:我的虚拟机最开始是可以启动的,后来删除了主节点,重新创建了一个主节点,并保持相同的主机名,并把从结点上的hadoop打包发到了主节点(前提已经弄好ssh和相关映射)
tar -zcf ~/hadoop.master.tar.gz ./hadoop //将hadoop目录下的内容打包复制到~/hadoop.master.tar.gz
scp ~/hadoop.master.tar.gz master:/home/hadoop //将打包内容复制到slave节点
注意,接下来问题来了,主节点的进程可以正常启动,但是从结点的datanode进程无法启动,使用手动启动datanode命令也无法实现
hadoop-daemon.sh start datanode
我的解决方法:
删除主节点dfs的目录下的data和name两个目录,删除后再创建,删除hadoop的logs文件
rm -rf data
rm -rf name
mkdir data
mkdir name
rm -rf logs
mkdir logs
因为从结点的dfs目录下没有name目录,所以删除从节点dfs的目录下的data目录,删除后再创建,删除hadoop的logs文件
rm -rf data
mkdir data
rm -rf logs
mkdir logs
最后对hadoop进行初始化
hdfs namenode -format
标签:logs,mkdir,hadoop,rf,datanode,namenode,data,节点
From: https://blog.csdn.net/2301_80911580/article/details/137528334