首页 > 其他分享 >【Spark】本地环境下的搭建(单机模式)

【Spark】本地环境下的搭建(单机模式)

时间:2024-11-09 11:51:43浏览次数:3  
标签:opt bin 单机 installs 模式 Spark spark 搭建

前言

Spark有五种运行模式‌,分别是 Local 模式、Standalone 模式、YARN 模式、Mesos 模式和Kubernetes模式‌。

Local 模式(本地)

Local模式是Spark运行在本地机器上,利用本地资源进行计算。这种模式通常用于测试和调试,因为它不需要其他节点资源,适合在开发环境中使用‌。

Standalone 模式(集群)

Standalone模式是Spark自带的资源调度系统,支持完全分布式。在这种模式下,Spark有自己的Master和Worker节点,负责资源的调度和管理。Standalone模式分为Client模式和Cluster模式,Client模式下Driver运行在Master节点上,而Cluster模式下Driver运行在Worker节点上‌。

YARN 模式(集群)

YARN模式是Hadoop的资源调度框架,Spark也可以运行在YARN上。在这种模式下,Spark可以利用YARN的资源管理功能,分为Client模式和Cluster模式。YARN模式在大数据处理中非常常见,适合生产环境使用‌。

Mesos 模式(集群)

Mesos模式是Apache Mesos提供的资源管理和调度框架,Spark也可以运行在Mesos上。这种模式适合需要跨多个框架共享资源的场景‌。

Kubernetes 模式(集群)

Kubernetes模式是容器编排工具,Spark可以运行在Kubernetes上。这种模式适合微服务架构和容器化部署的环境‌。

适用场景

  • Local模式‌:适用于开发和测试,不需要其他节点资源。

  • Standalone模式‌:适用于需要内部资源调度的场景,配置和维护相对简单。

  • YARN模式‌:适用于生产环境,可以利用Hadoop集群的资源。

  • Mesos模式‌:适用于需要跨多个框架共享资源的场景。

  • Kubernetes模式‌:适用于容器化部署和微服务架构的环境。

每种模式都有其适用场景和优缺点,选择合适的运行模式可以根据具体的需求和环境来决定。

本文分享的是 Spark 在本地环境下的搭建(单机模式)!!!

需要安装 Spark 和 Anaconda 两部分。。。

一、Spark下载

官方下载地址:Apache Spark™ - Unified Engine for large-scale data analytics

本文使用的是 spark-3.1.2-bin-hadoop3.2.tgz 版本

二、安装 Spark 步骤

1. 上传安装包到  /opt/modules

cd /opt/modules

2. 解压安装包到 /opt/installs

tar -zxf spark-3.1.2-bin-hadoop3.2.tgz -C /opt/installs

3. 在 /opt/installs 目录下重命名文件夹为 spark-local

cd /opt/installs
mv spark-3.1.2-bin-hadoop3.2 spark-local

4. 创建软链接

ln -s spark-local spark

5. 配置环境变量

vi /etc/profile
# 配置内容如下
export SPARK_HOME=/opt/installs/spark
export PATH=$SPARK_HOME/bin:$PATH

通过 Anaconda 部署 Python 

Anaconda 这个软件不仅有 Python 还具有资源环境隔离功能,方便基于不同版本不同环境进行测试开发,比单纯安装 Python 功能要强大。

三、Anaconda 下载

下载链接:https://repo.anaconda.com/archive/

本文使用的是 Anaconda3-2021.05-Linux-x86_64.sh 版本

四、安装 Anaconda 步骤

1. 上传安装包到  /opt/modules

cd /opt/modules

2. 运行安装包

#添加执行权限
 chmod u+x Anaconda3-2021.05-Linux-x86_64.sh
#执行
 sh ./Anaconda3-2021.05-Linux-x86_64.sh
#过程
#第一次:【直接回车,然后按q】
 Please, press ENTER to continue
 >>>
#第二次:【输入yes】
 Do you accept the license terms? [yes|no]
 [no] >>> yes
#第三次:【输入解压路径:/opt/installs/anaconda3】
 [/root/anaconda3] >>> /opt/installs/anaconda3
#第四次:【输入yes,是否在用户的.bashrc文件中初始化Anaconda3的相关内容】
 Do you wish the installer to initialize Anaconda3
 by running conda init? [yes|no]
 [no] >>> yes

3. 刷新环境变量

source /root/.bashrc

4. 激活虚拟环境

# 打开
conda activate
# 关闭
conda deactivate

5. 配置环境变量并刷新

# 编辑环境变量
vi /etc/profile
# 添加以下内容
# Anaconda Home
export ANACONDA_HOME=/opt/installs/anaconda3
export PATH=$PATH:$ANACONDA_HOME/bin
# 刷新环境变量
source /etc/profile

6. 创建软链接

ln -s /opt/installs/anaconda3/bin/python3 /usr/bin/python3

五、测试使用

# 启动Python开发Spark的交互命令行
# --master:用于指定运行的模式 
# local[2]:使用本地模式,并且只给2CoreCPU来运行程序
/opt/installs/spark/bin/pyspark --master local[2]

六、案例:求PI

/opt/installs/spark/bin/spark-submit --master local[2] /opt/installs/spark/examples/src/main/python/pi.py 100

标签:opt,bin,单机,installs,模式,Spark,spark,搭建
From: https://blog.csdn.net/2403_86969226/article/details/143634476

相关文章

  • 手把手教你搭建Windows+YOLO11+CUDA环境,以EMA注意演示如何改进YOLO11, 训练自定义数据
    YOLOv11目标检测创新改进与实战案例专栏文章目录:YOLOv11创新改进系列及项目实战目录包含卷积,主干注意力,检测头等创新机制以及各种目标检测分割项目实战案例专栏链接:YOLOv11目标检测创新改进与实战案例文章目录YOLOv11目标检测创新改进与实战案例专栏前言本......
  • Java开发环境搭建
    JDK下载与安装下载地址卸载JDK删除java的安装目录在环境变量中删除JAVA_HOME删除path下关于java的目录指向执行java-version安装JDK安装下载的JDK安装文件配置环境变量检查安装是否成功HelloWorld新建一个Hello.java文件publicclassHello{......
  • hive的搭建
    apacheHive官网下载apache-hive-3.1.2-bin.tar.gz华为镜像站下载MySQLmysql-connector-java-8.0.29.jar/usr/local/soft/jars上传到该目录下1、解压该目录下解压到上一个目录下tar-zxvfapache-hive-3.1.2-bin.tar.gz-C../2.重命名[root@mastersoft]#mvapache-......
  • Spark
    1. (单选题,2分)在实际应用中,大数据处理不包括哪些类型?A.基于实时数据流的数据处理B.基于离线数据的处理C.复杂的批量数据处理D.基于历史数据的交互式查询正确答案: B:基于离线数据的处理;2. (单选题,2分)下列关于Spark的描述,错误的是哪一项?A.Spark最初......
  • hive-3.1.2搭建
    1、下载安装包下载hivehttps://archive.apache.org/dist/hive/下载MySQL驱动包https://mirrors.huaweicloud.com/mysql/Downloads/Connector-J/2、上传到Linux并解压tar-zxvfapache-hive-3.1.2-bin.tar.gz-C../3、重命名mvapache-hive-3.1.2-binhive-3.1......
  • Hive的搭建
    一、上传解压配置环境变量1.解压tar-zxvfapache-hive-3.1.2-bin.tar.gz-C../2.配置环境变量vim/etc/profile3、重命名mvapache-hive-3.1.2-binhive-3.1.24.使环境变量生效source/etc/profile二、修改配置文件1.拷贝一份文件cphive-default.xml.templatehi......
  • 【Unity生存游戏开发插件】STP Survival Template PRO(STP)快速搭建生存游戏的核心机制
    STPSurvivalTemplatePRO(STP)是Unity平台上专为生存类游戏开发的模板插件。它帮助开发者快速搭建生存游戏的核心机制,包含许多生存类游戏常见的功能模块,从而让开发者能集中精力于内容创作而非重复的基础架构搭建。以下是STPSurvivalTemplatePRO的主要功能和特点:1. 核心生......
  • Hive3.1.2搭建文档包含详细步骤及相关截图以及常见问题解决
    hive-3.1.2分布式搭建文档1、下载,上传,解压,配置环境变量#1、解压(解压到上级目录)tar-zxvfapache-hive-3.1.2-bin.tar.gz-C..#2、重名名mvapache-hive-3.1.2-binhive-3.1.2#3、配置环境变量vim/etc/profile#4、在最后增加配置exportHIVE_HOME=/usr/local/......
  • 智谱BigModel研习社|搭建 AI 搜索引擎 - 使用免费的Web-Search-Pro+脑图Agent智能体
    作者:Cartman文章:多智能体AI搜索引擎点击链接,更多实践案例等你探索~ #智谱BigModel研习社是专业的大模型开发者交流平台,欢迎在评论区与我们互动! 传统搜索引擎如今的问题在于输出很多不相关结果(大量垃圾信息+SEO操纵的标题党内容),大模型也面临着幻觉问题。在网......
  • 「Mac玩转仓颉内测版1」入门篇1 - Cangjie环境的搭建
    本篇详细介绍在Mac系统上快速搭建Cangjie开发环境的步骤,涵盖VSCode的下载与安装、Cangjie插件的离线安装、工具链的配置及验证。通过这些步骤,确保开发环境配置完成,为Cangjie项目开发提供稳定的基础支持。关键词Cangjie开发环境搭建VSCode安装指南Cangjie插件离线安装MacC......