2022/12/09下午,在本机win11上配置hadoop和spark 成功。以后要注意的几个问题:
1、安装的版本hadoop-3.2.3、spark-3.2.3-bin-hadoop3.2、jre1.8.0_192。
2、启动haddop之前,要修改hadoop-env.cmd这个文件,set JAVA_HOME= C:\Java\jdk1.8.0_192\ (目录不能有空格,后面不能有\bin)
3、Spark-shell启动,要先修改JAVA_HOME的值 C:\Progra~2\Java\jre1.8.0_192 (Progra~2 原来是 Program Files (x86) 因为还有一个Program Files ,所以Program Files (x86)排第二个,后面也不能带有\BIN\)
标签:Files,Java,HADOOP,192,Program,3.2,hadoop,SPARK,安装 From: https://www.cnblogs.com/wxzai/p/16969275.html