一、安装Spark
(一)基础环境
安装Spark之前需要安装Linux系统、Java环境(Java8或JDK1.8以上版本)和Hadoop环境。
可参考本专栏前面的博客:
大数据软件基础(3) —— 在VMware上安装Linux集群-CSDN博客
大数据存储技术(1)—— Hadoop简介及安装配置-CSDN博客
(二)安装Python3版本
1、查看当前环境下的Python版本
[root@bigdata zhc]# python --version
Python 2.7.5 版本已经不能满足当前编程环境需求,所以要安装较高版本的Python3,但Python 2.7.5 版本不能卸载。
2、连网下载Python3
[root@bigdata zhc]# yum install -y python3
如图所示,Python3安装完成。
安装的版本为Python 3.6.8。