Spark的conf目录下没有slaves文件?spark3.5.3解压以后conf目录下没有slaves怎么办?spark找不到slaves怎么办,解决slaves问题
大数据的小伙伴晚上,今天在搭建spark集群的时候,发现我的我的spark解压以后/Spark/conf/目录下既然没有slaves文件,(我的spark是3.1.2版本的)我以为我是是不是解压的时候出错了。但是后面想想解压包也是官方下载不可能出错啊。
出现这个问题我就思考一下,发现conf目录下有一个workers.template。
workers是工人的意思,template是模板的意思;和slaves翻译奴隶性质有一点一样,我果断***vim***打开了,我的想法没有错果然是他。
因为这个是workers.template模板的不能直接使用
我们直接套用命令:
cp workers.template workers
这样就cp出来了一个可以使用的文件。
然后我们在里面加入三台机子的名称(我的机子是masternode1,slavenode1,slavenode2)
命令:
vim workers
在workers中添加如下:
原文链接:https://blog.csdn.net/weixin_52450014/article/details/121022225