首页 > 其他分享 >九、部署Spark

九、部署Spark

时间:2023-05-18 09:44:21浏览次数:39  
标签:src 部署 export usr Spark SPARK local spark

服务和组件 Hadoop 2.7.1、Zookeeper 3.4.8、Scala 2.11.8
解压:
tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz
重命名:
mv spark-2.1.1-bin-hadoop2.7 spark
配置环境变量:
vi /etc/profile
export SPARK_HOME=/usr/local/src/spark
export PATH=$PATH:$SPARK_HOME/bin:$PATH
刷新:
source /etc/profile
切换目录:
cd spark/conf/
重命名:
cp spark-env.sh.template spark-env.sh
配置文档:
vim spark-env.sh
export JAVA_HOME=/usr/local/src/jdk1.8.0_152/
export HADOOP_HOME=/usr/local/src/hadoop-2.7.1/
export SCALA_HOME=/usr/local/src/scala
export SPARK_MASTER_IP=master
export SPARK_MASTER_PORT=7077
export SPARK_DIST_CLASSPATH=$(/usr/local/src/hadoop-2.7.1/bin/hadoop classpath)
export HADOOP_CONF_DIR=/usr/local/src/hadoop-2.7.1/
export SPARK_YARN_USER_ENV="CLASSPATH=/usr/local/src/hadoop-2.7.1/etc/hadoop/"
export YARN_CONF_DIR=/usr/local/src/hadoop-2.7.1/etc/hadoop/
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER - Dspark.deploy.zookeeper.url=master:2181,slave1:2181,slave2:2181 - Dspark.deploy.zookeeper.dir=/spark"

重命名:
cp slaves.template slaves
配置文档:
vim slaves
master
slave1
slave2
分发:
scp -r /usr/local/src/spark/ slave1:/usr/local/src/
scp -r /usr/local/src/spark/ slave2:/usr/local/src/
配置slave1、slave2环境变量:
vim /etc/profile
export SPARK_HOME=/usr/local/src/spark
export PATH=$PATH:$SPARK_HOME/bin:$PATH
主节点启动spark,启动前确保Hadoop HA已启动:
cd /usr/local/src/spark/sbin
./start-all.sh
在slave1节点启动spark:
cd /usr/local/src/spark/sbin
./start-master.sh
进入网页8080:
Spark Master at spark://master:7077
在 spark-shell 上运行一个 WordCount 案例:
1.通过加载文件新建一个 RDD:
cd /usr/local/src/spark
hadoop fs -put README.md /
2.在 Yarn 集群管理器上运行 spark-shell:
cd /usr/local/src/spark/bin/
./spark-shell --master yarn --deploy-mode client
val textFile=sc.textFile("/README.md")
3.对 RDD 进行 actions 和 transformations 操作:
scala> val wordcount=textFile.flatMap(line=>line.split(",")).map(word=>(word,1)).reduceByKey(+)
scala> wordcount.collect()
scala> wordcount.collect().foreach(println)
scala>:q

标签:src,部署,export,usr,Spark,SPARK,local,spark
From: https://www.cnblogs.com/-liunian/p/17410977.html

相关文章

  • 大数据Spark “蘑菇云”行动第93课:Hive中的内置函数、UDF、UDAF实战
     大数据Spark“蘑菇云”行动第93课:Hive中的内置函数、UDF、UDAF实战selectsum_all(age)from...hive>usedefault;showtables;select*fromemployeeforhaving;一:udf编码importorg.apache.hadoop.hive.ql.exec.UDF;importorg.apache.hadoop.io.Text;pub......
  • VSAN 7 安装部署指南(一)
    本文使用三台服务器安装ESXI7.0,并在其中一台ESXI中安装vCenter7.0。本环境中最终在VMwareWorkstation虚拟机中做的嵌套虚拟化。每台虚拟机配置两块网卡,一块网卡桥接,一块NAT。三块硬盘,一块100GB作为系统盘,一块10GB作为vSAN的缓存盘,一块200GB的作为vSAN的数据盘。一、物理机如何......
  • Jmeter部署到Linux实现分发压测时,controller机器回收测试报告时卡死
    问题检查与定位:检查slave-A和slave-B两台执行机,执行机已经finished,无报错,说明执行机已完成测试任务采集到的日志批量分析后得出的结论:在完成并发测试后,vuser要进行释放,由于没有完全释放导致controller机器一直等待(像卡死),而实际上是等待,问题定位后,进行检查发现:问题1: reportge......
  • 部署带路由的React SPA 项目
    使用Nginx将/phone/*请求反向代理为/*启动项目serve-s./build-l3000项目内路由仍然是/phone/xxx不用改动,但需要在package.json中,指定静态资源根目录{..."homepage":"/phone/",...}......
  • docker 部署nacos单机版并配置mysql支持
    1.配置mysql数据库选用mysql5.7表名为nacos_config,附上建表SQLSETNAMESutf8mb4;SETFOREIGN_KEY_CHECKS=0;--------------------------------Tablestructureforconfig_info------------------------------DROPTABLEIFEXISTS`config_info`;CREATETABLE......
  • docker-compose部署sonarqube开源代码审计和分析平台
    mkdir-p/docker/sonar/postgres/postgresqlmkdir-p/docker/sonar/postgres/datamkdir-p/docker/sonar/sonarqubechmod777-R/docker/sonar/sonarqubeecho"vm.max_map_count=262144">/etc/sysctl.confsysctl-pversion:'3'servic......
  • docker 部署 RocketMQ
    1.安装nameServer1.搜索镜像dockersearchrocketmq2.拉取镜像dockerpullrocketmqinc/rocketmq 3.创建数据目录mkdir-p/usr/local/software/rocketmq/nameserver/logs/usr/local/software/rocketmq/nameserver/store4.运行docker命令dockerrun-d--r......
  • GPT大语言模型Alpaca-lora本地化部署实践【大语言模型实践一】
    模型介绍Alpaca模型是斯坦福大学研发的LLM(LargeLanguageModel,大语言)开源模型,是一个在52K指令上从LLaMA7B(Meta公司开源的7B)模型微调而来,具有70亿的模型参数(模型参数越大,模型的推理能力越强,当然随之训练模型的成本也就越高)。LoRA,英文全称Low-RankAdaptationofLargeLanguage......
  • 提高数据的安全性和可控性,数栈基于 Ranger 实现的 Spark SQL 权限控制实践之路
    在企业级应用中,数据的安全性和隐私保护是极其重要的。Spark作为数栈底层计算引擎之一,必须确保数据只能被授权的人员访问,避免出现数据泄露和滥用的情况。为了实现SparkSQL对数据的精细化管理及提高数据的安全性和可控性,数栈基于ApacheRanger实现了SparkSQL对数据处理的权......
  • 部署ChatGPT-web版
    记录1.GItHub找到所需项目(ChatGpt.Server是web版)https://github.com/239573049/ChatGpt.Desktop2.开发环境测试是否可以使用,可以使用在进行发布,放置服务器上或者本机也行3.NET7IIS发布问题解决4.打开网址进入设置填写Token(ChatGPT令牌)申请网址https://platform.openai.com......