首页 > 其他分享 >spark RDD的创建方式

spark RDD的创建方式

时间:2022-08-20 09:56:27浏览次数:53  
标签:sparkContext val 创建 RDD new spark sparkConf

  1. 从集合(内存中创建出来)RDD
    val sparkConf = new sparkConf().setMaster("local[*]").setAppName("spark")
    val sparkContext = new SparkContext(sparkConf)
    val rdd1 = sparkContext.parallelize(
      List(1,2,3,4)
    )
    val add2 = sparkContext.makeRDD(
      List(1,2,3,4)
    )
    rdd1.collect().foreach(println)
    rdd2.collect().foreach(println)
    sparkContext.stop()
    
    
  2. 从外部存储(文件)创建RDD
    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("spark")
    val sparkContext = new SparkContext(sparkConf)
    val fileRDD: RDD [ String ] = sparkContext.textFile("input")
    sparkContext.stop()
    
    
  3. 从其他的RDD创建
    主要是通过一个RDD运算后,再产生新的RDD。

标签:sparkContext,val,创建,RDD,new,spark,sparkConf
From: https://www.cnblogs.com/lambertlt/p/16607193.html

相关文章

  • Vue2.0创建vue手脚架项目报错
    问题描述vue-cli·Failedtodownloadrepovuejs-templates/webpack:getaddrinfoENOTFOUNDgithub.com 问题分析可能是GitHub被墙了,但是我用了梯子还是init失败......
  • IDEA初始化创建SpringBoot项目
    创建SpringBoot打开新建项目配置项目基本需求其中URL改成:start.springboot.io创建完成后等待依赖包下载下载完成之后点击右侧Maven中的Lifecycle-install进行更新......
  • 运维脚本----批量创建用户名及密码学习
    #批量创建大量用户#!/bin/bash#思路#useraddzhangsan#echo1234|passwd--stdinzhangsan#截取随机数的8个字符作为密码#echo$RANDOM|md5sum|cut-c1-8#echo{1..10......
  • 线程间操作无效: 从不是创建控件的线程访问它
    Winform跨线程调用控件时出错:线程间操作无效:从不是创建控件的线程访问它在窗体构造函数下添加 CheckForIllegalCrossThreadCalls=false;就可以忽略对跨线程的检测......
  • spark程序如何在不同的安装模式下运行
    1.本地spark-submit--classorg.apache.spark.examples.SparkPi--masterlocal[2]/opt/app/spark-2.3.1/examples/jars/spark-examples_2.11-2.3.1.jar1002.standa......
  • 创建deploymen的几种方式
    创建deployment方式有两种,一种是命令直接创建,一种是使用yaml文件1.直接使用命令方式:--record参数用来记录版本,也可以忽略,建议带上kubectlcreatedeploy my-dep3--......
  • String创建及一些性质
    Strings1="ab";Strings2="12";Strings3=s1+s2;Strings4="ab"+"12";Strings5="ab12";System.ou......
  • .net 学习手册之--创建自己的nuget包
    一、前言在开发过程中经常有这样的场景:一个工具性质的代码会经常被用到,在.net中一般的做法是将这些代码封装成一个类库,让后需要用到这个功能时直接引入类库的dll文件,......
  • SPARK数据倾斜,随机数方式
    1、现象spark数据倾斜,有两种表现:大部分的task,都执行的特别特别快,刷刷刷,就执行完了(你要用client模式,standaloneclient,yarnclient,本地机器主要一执行spark-submit脚本,就......
  • spark配置(yarn)
    spark关联hadoop的环境[root@node1conf]#pwd/opt/app/spark-2.3.1/conf[root@node1conf]#vispark-env.shHADOOP_CONF_DIR=/opt/app/hadoop-2.8.5/etc/hadoopYA......