首页 > 其他分享 >Spark Streaming快速入门

Spark Streaming快速入门

时间:2023-11-20 10:34:40浏览次数:40  
标签:窗口 入门 RDD Streaming Spark DStream 数据

Spark Streaming快速入门

一、简介

Spark Streaming 是构建在 Spark Core 基础之上的流处理框架(但实际上是微批次处理框架),是 Spark 非常重要的组成部分。严格意义上来讲,Spark Streaming 是一个准实时,微批次的流处理框架。
特点:Easy to use:简单易用;
     Unified batch and streaming APIs:统一的 API(统一了批处理和流处理的 API);
     Low latency and cost effective:构建低延迟流应用程序和有效的成本管理。

image-20231119122024755

  • 计算流程

数据源:实时计算的数据源头都在哪里?以各大电商网站为例,实时的用户行为日志(点击、收藏、购买等)。除此之外,比 较热门的还有一些比如说,实时的金融系统、实时的舆情监控系统,接收的都是实时的金融交易数据、实时的社会上的一 些舆论数据(微博、微信、博客及各种社交平台)

消息中间件:缓冲大数据读写,否则系统会撑不住!常用的中间件是kafka

分布式:从中间件中拉取数据,分布式架构并行处理,增加了实时计算的能力。

image-20231119160725644

二、数据模型

  • DStream

DStream把一系列时间上连续的RDD,使用离散化流进行封装,即:DStream = Seq[RDD]

image-20231119161544229

  • DStream和RDD的关系

DStream与RDD是包含关系,DStream对RDD功能进行增强,行为和RDD是基本相差不大。DStream可以从各种输入源创建,比如Flume、kafka、HDFS,创建的DStream可以通过转化操作变成新的DStream。另一种是输出操作,可以把数据写入外部系统中。

image-20231119161940632

三、工作原理

SparkStream从输入源获取源数据,把Spark Streaming的输入数据按照batch size分成一段一段的数据,每一段数据都转换spark中的RDD。然后Spark Streaming对DStream的转换操作变成spark对RDD的转换操作,最后将中间结果保存在内存中,整个流式计算根据业务的需求可以对中间的结果进行叠加或存储到外部设备。

接收器接收到数据会把数据复制到另一个执行器进程来保障容错性,数据保存在执行器进程内存中,和RDD缓存一样。驱动器程序中的StreamingContext会周期性地运行Spark作业来处理这些数据,把这些数据与之前时间区间中的RDD进行整合。

Spark Streaming 架构由三个模块组成:

Client:负责向 Spark Streaming 中灌入数据(Flume Kafka)

Worker: 从网络接收数据并存储到内存中 执行 RDD 计算

Master:记录 DStream 之间的依赖关系或者血缘关系,并负责任务调度以生成新的 RDD

image-20231119162809536

  • 输入算子(数据源)

基本数据源(内置的):通过文件系统或 Socket 连接接收的数据创建 Dstream;

自定义数据源:通过自定义接收器接收的数据流创建 Dstream.

第三方数据源:通过 Kafka,Flume 等灌入 Spark Streaming 的数据流创建 Dstream。

  • 转换算子

与Spark core中转换算子一样!DStream 上的算子操作与 RDD 类似,分为 Transformations(转换)和 Output Operations(输出)两种,

此外转换 操作中还有一些比较特殊的算子,如:updateStateByKey()、transform() 以及各种 Window 相关的算子。

  • 特殊的转换算子
transform算子:transform 允许 DStream 上执行任意的 RDD 函数,即使这些函数并没有在 DStream 的 API 中暴露出来,通过该函数可以很方便的扩展 Spark Streaming API。该函数每一批次会调度一次。在transform函数中不调用rdd参数,一个批次只执行一次(Driver 端周期性执行)。

image-20231119163630489

  • 无状态转换

 无状态转换就是把 RDD 的转换操作简单的应用到每个批次上,也就是只转换 DStream 中的每个 RDD 一次。部分无状态转换操作如下。在整个流上一样,但事实上每个 DStream 在内部是由许多 RDD(批次)组 成,且无状态转化操作是分别应用到每个 RDD 上的。

  • 有状态转换

spark将应用程序状态存储在内部或者分布式文件系统中。由于spark是一个分布式系统,因此需要保护本地状态防止在应用程序或计算机故障时数据丢失。spark定期将应用程序状态的一致性检查点写入远程且持久的存储,来保证数据有状态!

image-20231119164639576

updateStateByKey:根据RDD的key保存每个value值的状态,通过每个Key值的状态进行数据流的批处理。而且每次计算都会返回上一次的状态数据,性能要低。
mapWithState:保存每个RDD的状态,进行批处理计算,但是mapWithState算子可以设置超时时间,之前批次超时的有状态的数据会被忽略,在后面重新计算,并且不会每次返回上一次有状态的数据,要有更新操作才会返回。
以上两个算子都要开启检查点(checkpoint)否则会报错!
spark为了防止程序非正常退出导致数据丢失,引入了StreamingContext HA概念,需要将StreamingContext对象存储在持久化系统中。checkpointDriectory 目录中是不存在 StreamingContext 对象的,所以会创建。第
二次运行的时候,就不会再创建,而是从 checkpointDriectory 目录中读取并进行恢复。正常情况下,使用这种方式的
HA,只能持久状态数据到持久化的文件中,默认情况是不会持久化 StreamingContext 对象到 CheckPointDriectory 中的。

image-20231119164850312

  • 使用方式如下图:

image-20231119165325326

四、窗口操作(转换算子)

在spark流数据处理中,要计算一个时间段中的数据,我们就要引入窗口概念,对时间窗内的数据进行处理,也就是所谓的窗口计算,spark给窗口提供了滑动窗口的操作,我们对一个滑动窗口内的执行数据执行计算操作。每次掉落在窗口内多个RDD会被聚合起来执行计算操作,生成一个新的统一RDD作为窗口中的RDD。

窗口时长:计算数据的时间范围; 滑动间隔:隔多久触发一次计算。

窗口操作也属于转换操作,也就是说窗口下的算子都是转换算子;

窗口时长和滑动间隔应该是批处理的间隔时间的整数倍;

窗口默认的滑动间隔为一个批处理的间隔时间;

当窗口时长是批处理的间隔时间的整数倍,滑动间隔又小于窗口时长时,会出现重复数据。(数据有状态)

image-20231119171037863

  • 使用方式:

image-20231119171305952

常用的窗口算子:

countByWindow(shuffle): 统计滑动窗口的 DStream 中的元素的数量。:countByWindow 操作必须开启checkpoint,否则报错。

image-20231119171539483

reduceByWindow(shuffle):基于滑动窗口对源 DStream 中的元素进行聚合操作,得到一个新的 DStream。

image-20231119171611491

reduceByKeyAndWindow(shuffle):基于滑动窗口对(K,V)键值对类型的 DStream 中的值按 K 使用聚合函数 func 进行聚合操作,得到一个新的DStream。reduce 任务的数量可以通过一个可选参数进行配置。

image-20231119171818905

reduceByKeyAndWindow 算子的设计理念是:当滑动窗口的时间 Seconds(2) < Seconds(3)(窗口时长)时,
两个统计的部分会有重复,那么我们就可以不用重新获取或者计算,而是通过获取旧信息来更新新的信息,这样即节省了
空间又提升了效率

image-20231119171928989

countByValueAndWindow(shuffle):基于滑动窗口计算源 DStream 中每个 RDD 内元素出现的频次并返回 DStream[(K,Long)],其中 K 是 RDD 中元素的类型,Long 是元素频次。与 countByValue 一样,reduce 任务的数量可以通过一个可选参数进行配置。countByValueAndWindow 操作必须开启 checkpoint,否则报错

image-20231119172118512

  • 总结
在 Spark Streaming 中,数据的处理是按批进行的,而数据的采集是逐条进行的,因此在 Spark Streaming 中会先设置好批处理间隔(batch duration),当超过批处理间隔的时候就会把采集到的数据汇总起来成为一批数据交给系统去处理;

五、输出算子

输出算子简单的理解就是:生成作业并触发任务的调度和执行。输出操作允许将 DStream 中的数据推送到外部系统, 比如数据库或者文件系统。与 RDD 中的惰性执行类似,如果一个 DStream 及其派生出的 DStream 都没有被执行输出操 作,那么这些 DStream 就不会被执行。如果 StreamingContext 中没有设定输出操作,那么整个 Context 就不会被启动

  • 常用的输出的算子
saveAsObjectFiles(prefix, [suffix]):将 DSteam 的内容保存为一个序列化的对象文件(对于 HDFS,默认采用 SequenceFile 保存),使用 Java 的 Object 序列化,每一个批次生成一个文件,文件目录名以 prefix-TIME_IN_MS[.suffix] 的方式命名。prefix 表示文件目录的前缀,TIME_IN_MS 为毫秒时间戳,suffix 表示文件目录的后缀。

saveAsNewAPIHadoopFiles(prefix, [suffix]):将 DSteam 的内容保存至 Hadoop 的 HDFS,每一个批次生成一个文件,文件目录名以 prefixTIME_IN_MS[.suffix] 的方式命名。prefix 表示文件目录的前缀,TIME_IN_MS 为毫秒时间戳,suffix 表示文件目录的后
缀。

foreachRDD(func):会处理DStream中每个RDD,这个操作会输出数据到外部系统,比如保存数据或者数据库。但是如果直接把数据连接信息放进函数中进行连接,没处理一个RDD就连接一次,会导致数据库连接过多,数据库崩溃!

foreachPartition:对每个分区的RDD进行操作。正确的做法就是对每个分区进行数据库连接,配置数据库连接池进行操作,数据库传输完数据,就把连接放回池中,不会真正的关闭,防止连接次数过多。

六、Structured Streaming

Structured Streaming 是构建在 Spark SQL 之上的流处理引擎,可以让用户使用 DataSet/DataFreame API 来进行流处理.

Structured Streaming 的核心思想是把持续不断的流式数据当做一个不断追加的表来处理。这使得新的流式处理模型同 批处理模型非常相像,这意味着我们的流式计算将可以使用标准的数据表上的批处理查询,Spark 在一个无界表上以增量 查询的方式来运行。

输入表:把输入数据流当做输入表(Input Table),到达流中的每个数据项(Data Item)类似于被追加到输入表中的一行.

结果表:作用在输入表上的查询将会产生“结果表(Result Table)”,每个触发间隔(Trigger Interval,例如 1s),新行会被追加到输入表,最终会更新结果表。无论何时更新结果表,最终目的是将更改的结果行写入到外部接收器(External Sink)

image-20231119173616388

  • 输出模型

将结果行写入到外部接收器,输出模式有3种:

image-20231119173737246

  • 输出类型

Structured Streaming 也可以将数据输出到文件或者数据库,以下为 Structured Streaming 内置的输出类型:

File:将输出存储到文件中。

Kafka:将输出存储到 Kafka 中的一个或多个主题。

Foreach:对输出中的记录运行任意计算,会遍历表中的每一行,允许将流查询结果按开发者指定的逻辑输出。例如 将每条记录保存至数据库。

Console:将输出打印到控制台。

Memory:将输出存储到内存。同时支持 Append 和 Complete 输出模式。建议应用于低数据量的调试程序,因为整个 输出会被收集并存储在 Driver 端的内存中。因此,要谨慎使用它。

七、Watermark 水位线

在分布式系统,每个节点各自为政,在通过网络通信时出现网络波动,会导致时间处理时间和事件发生时间不一致,对数据的收集按照时间窗口来进行收集计算时,必须要统一标准。因为产生了两个概念:事件发生时间:数据本身时间。处理时间:数据真正被处理的时刻。处理时间相对事件发生的时间更滞后。

  • 处理时间

处理时间的概念非常简单,就是指执行处理操作的机器的系统时间。

  • 事件时间

事件时间,是指每个事件在对应的设备上发生的时间,也就是数据生成的时间.在事件时间语义下,我们对于时间的衡量,就不看任何机器的系统时间了,而是依赖于数据本身。

  • 水位线

水位线”的概念,已经知道了它其实就是用来度量事件时间的。

  • 有序流中的水位线

image-20231119183422683

  • 无序流中的水位线

image-20231119183700419

  • 水位线特点

image-20231119183812793

  • 总结

水位线是为了解决分布式并行处理数据,由于并行触发的事件时间是一样的,由于网络波动传输,导致数据进行处理无序或者不能同时被处理,就需要设置水位线,在处理时间后追加设置水位线。

迟到数据:在窗口结束时间的水位线前未处理的数据。也就是在延迟时间内未处理的数据。

延迟时间:从窗口开始时间到窗口关闭时间水位线之间的时间段,延迟时间会大于窗口结束时间。engine(引擎看到的最大事件时间) - late threshold(延迟阈值,可以设置) > T(窗口结束时间)

水位线是不断增长,时间一直向前推进,水位线不断增长。

水位线是基于数据的时间戳生成。

image-20231119185857502

八、优雅关闭

方案一

image-20231119193448358

方案二(推荐) 取代 SIGTERM 信号,可以通过另外一种方式来完成优雅地关闭。一种方式是,在 HDFS 或 ZooKeeper 中设置一个标记 文件,定期地校验该标记文件,如果该文件存在,则调用 ssc.stop(true, true) 。或者启动一个监听端口,当该端口 监听到信号时,则触发优雅关闭。

def main(args: Array[String]): Unit = {
    // ==================== 建立连接 ====================
    val conf = new SparkConf().setMaster("local[*]").setAppName("QuietStopDemo")
    // 使用 Duration 对象构建批处理的间隔时间,单位毫秒
    //val streaming = new StreamingContext(conf, Duration(2 * 1000))
    // 使用 Milliseconds、Seconds、Minutes 对象构建批处理的间隔时间
    val ssc = new StreamingContext(conf, Seconds(2))
    // 日志级别
    ssc.sparkContext.setLogLevel("ERROR")
    // ==================== 业务处理 ====================
    // 监听 localhost:9999
    val lines: ReceiverInputDStream[String] = ssc.socketTextStream("localhost", 9999)
    // 处理发送给 localhost:9999 端口的数据
    val ds: DStream[(String, Int)] = lines.flatMap(_.split("\\s+")).map(_ -> 1).reduceByKey(_ + _)
    // 打印数据,默认输出每个 RDD 的前 10 个元素
    ds.print()
    // ==================== 启动流式计算 ====================
    // 启动流式计算
    ssc.start()
    new Thread(() => {
      /*
      var whileFlag = true
      while (whileFlag) {
        var ifFlag = ... // 从第三方组件远程获取
        if (ifFlag) {
          val state: StreamingContextState = ssc.getState()
          if (state == StreamingContextState.ACTIVE) {
            ssc.stop(true, true)
            whileFlag = false
          }
        }
      }
       */
      // 伪代码如下
      var whileFlag = true
      while (whileFlag) {
        // 假如 Thread.sleep(5000) 后校验到标记存在
        Thread.sleep(5000)
        var ifFlag = true // 从第三方组件远程获取到标记为 true
        if (ifFlag) {
          val state: StreamingContextState = ssc.getState()
          if (state == StreamingContextState.ACTIVE) {
            ssc.stop(true, true)
            whileFlag = false
         }
       }
     }
   }).start()
    // 调用 awaitTermination 防止应用退出
    ssc.awaitTermination()
 }
}

九、检查点

检查点数据包含两种类型,分别是元数据检查点和数据检查点。

  • 元数据检查点

元数据检查点:配置:用于创建流应用程序的配置;

DStream 操作:定义流应用程序的 DStream 操作集;

不完整的批次:在任务队列中而尚未完成的批次

  • 数据检查点

将生成的 RDD 保存到可靠的存储系统。在一些跨多个批次组合数据的有状态转换中,这是必须的。在这种转换中,生 成的 RDD 依赖于先前批次的 RDD,这导致依赖关系链的长度随着时间而增加。  

为了避免恢复时时间的无限增加(与依赖链成正比),有状态变换的中间 RDD 周期性地检查以存储到可靠的存储系统 中,以切断依赖链。

  • 总结

检查点是为了让DStream在处理时,DStream中的一个个RDD能通过落盘,让数据有状态,因为在流中数据是无状态的,设置检查点让数据在进行RDD计算时有状态,更好的计算DStream。

检查点还能防止在进行流批处理时非正常关闭,或者系统崩溃,数据丢失的风险。

十、反压机制

 反压机制的核心就是:通过动态控制数据接收速率来适配集群数据处理的能力,反压机制是Spark默认开启的。反压机制主要解决DStream中每个RDD流处理的时间过慢,导致DStream队列阻塞造成内存OOM,维持队列与处理速率之间平衡。

注意: 反压机制真正起作用时需要至少处理一个批:由于反压机制需要根据当前批的速率,预估新批的速率,所以反压机制 真正起作用前,应至少保证处理一个批。

如何保证反压机制真正起作用前应用不会崩溃?要保证反压机制真正起作用前应用不会崩溃,需要控制每个批次最大摄入速率。

RateLimiter:RateLimiter 是一个抽象类,它并不是 Spark 本身实现的,而是借助了第三方 Google 的 GuavaRateLimiter 来实现的。它实质上就是一个限流器,也可以叫做令牌桶,如果 Executor 中 Task 每秒计算的速度大于该值则阻塞,如 果小于该值则通过,并将流数据加入缓存中进行计算。

image-20231119195852422

标签:窗口,入门,RDD,Streaming,Spark,DStream,数据
From: https://www.cnblogs.com/smallzengstudy/p/17843384.html

相关文章

  • Spark SQL快速入门
    SparkSQL快速入门1、概述sparkSQL是Apache用于处理结构化数据的模块。其中包含SQL、DataFrameAPI、DataSetAPI,意味着开发人员可以在不同的API之间来回切换,从而使数据处理更加灵活。SparkSQL(Sparkonhive)数据兼容方面SparkSQL不但兼容HIve,还可以从RDD、Parquet文......
  • 神经网络入门篇:神经网络的梯度下降(Gradient descent for neural networks)
    神经网络的梯度下降在这篇博客中,讲的是实现反向传播或者说梯度下降算法的方程组单隐层神经网络会有\(W^{[1]}\),\(b^{[1]}\),\(W^{[2]}\),\(b^{[2]}\)这些参数,还有个\(n_x\)表示输入特征的个数,\(n^{[1]}\)表示隐藏单元个数,\(n^{[2]}\)表示输出单元个数。在这个例子中,只介绍过的......
  • Istio从入门到精通——Istio 能做什么?
    Istio能做什么? 下面通过一个天气预报应用展示Istio的服务访问形式。其中有两个服务:forecast和recommendation。forecast由Node.js开发而成,recommendation由Java开发而成。这两个服务之间通过最简单的服务名进行调用,在代码中只实现最简单的业务处理,不包含额外的服务......
  • FPGA入门笔记003——计数器IP核调用与验证
    FPGA设计方式主要有三种:1、原理图(不推荐);2、VerilogHDL设计方式;3、IP核输入方式计数器IP核调用与验证步骤如下:1、添加IP核文件打开QuartusII,新建一个项目,名称为counter_ip。选择Tools->MegaWizardPlug-InManager。选择第一个选项。在搜索栏中输入COUNTER,单击LPM_COU......
  • Log4j入门使用
    ✨前言✨本篇文章主要在于,初步了解log4j,以及对它的简单使用......
  • JUnit单元测试使用教程(新手入门)
    ✨前言✨本篇文章主要在于,单元测试工具jUnit的简单认识及入门使用......
  • cgroup的入门资料
    近期在准备特性的设计文档,按照评审专家的建议,需要排查现有产品中算力资源比如CPU、内存的分配方案,确认现有的硬件款型是否具备充足的资源来启用本特性。依据前辈提供的建议,检查了产品的部署脚本,发现当前使用cgroup来实施内存的配额管理。在家里的机器上尝试cgroup时,发现需要安装......
  • 大白话说Python+Flask入门(三)
    写在前面今天状态很不好,我发现学这部分知识的时候,会出现溜号或者注意力无法集中的情况。我能想到的是,大概率是这部分知识,应该是超出了我现在的水平了,也就是说我存在知识断层了,整体感觉真的是一知半解。那有同学会问了,那你能说明白吗?我理解的肯定能呀,来往下看!Flask的使用1、......
  • 小白入门指针(五)----新手
    一日不见,如隔三秋。思念如水流,时间越久越长;想你的心情如潮水,波涛汹涌澎湃!想我了吗,朋友们,今天又是学习的一天1,二级指针我们知道一级指针,可以用来存放我们数据类型变量的地址,竟然我们已经有了一级指针,然后一级指针必然在空间中也有地址。(^_−)☆我们如何去存放一级指针的地址呢?这时......
  • 【nest入门】[bug记录]在jupyter notebook中使用conda环境(linux)
    NEST在安装引导https://nest-simulator.readthedocs.io/en/stable/installation/user.html#user-install中提供了conda的方式,如下图所示:如上图中步骤第1步,进行了condacreate--namenest36-cconda-forgenest-simulator后,在jupyter中想要切换到所创建的名为ENVNAME的con......