首页 > 其他分享 >Flink(七)CEP

Flink(七)CEP

时间:2024-09-29 15:51:23浏览次数:1  
标签:匹配 Flink 模式 start 事件 CEP 序列

CEP

概念

定义

  • 复合事件处理(Complex Event Processing,CEP)是一种基于动态环境中事件流的分析技术,事件在这里通常是有意义的状态变化,通过分析事件间的关系,利用过滤、关联、聚合等技术,根据事件间的时序关系和聚合关系制定检测规则,持续地从事件流中查询出符合要求的事件序列,最终分析得到更复杂的复合事件

特征

  • 目标:从有序的简单事件流中发现一些高阶特征
  • 输入:一个或多个简单事件构成的事件流
  • 处理:识别简单事件之间的内在联系,多个符合一定规则的简单事件构成复杂事件
  • 输出:满足规则的复杂事件

功能

  • CEP用于分析低延迟、频繁产生的不同来源的事件流,CEP可以帮助在复杂的、不相关的时间流中找出有意义的模式和复杂的关系,以接近实时或准实时的获得通知或组织一些行为
  • CEP支持在流上进行模式匹配,根据模式的条件不同,分为连续的条件或不连续的条件;模式的条件允许有时间的限制,当条件范围内没有达到满足的条件时,会导致模式匹配超时
  • 输入的流数据,尽快产生结果
  • 在2个事件流上,基于时间进行聚合类的计算
  • 提供实时/准实时的警告和通知
  • 在多样的数据源中产生关联分析模式
  • 高吞吐、低延迟的处理

主要组件

  • Event Stream、Pattern定义、Pattern检测、生成Alert
  • 开发人员要在DataStream流上定义出模式条件,之后Flink CEP引擎进行模式检测,必要时生成警告

Pattern API

  • 处理事件的规则,被叫作模式(Pattern)
  • Flink CEP提供了Pattern API用于对输入流数据进行复杂事件规则定义,用来提取符合规则的事件序列

个体模式(Individual Patterns)

  • 组成复杂规则的每一个单独的模式定义,就是个体模式
  • 个体模式包括单例模式和循环模式,单例模式只接收一个事件,而循环模式可以接收多个事件
  • 匹配那些behavior字段以 "fav" 开头并且连续出现三次的事件序列,这里的start是模式的名称,times(3)表示该模式需要连续出现三次,where方法用于添加过滤件
start.times(3).where(_.behavior.startsWith(‘fav’))

量词: 可以在一个个体模式后追加量词,也就是指定循环次数

// 匹配出现4次
start.time(4)
// 匹配出现0次或4次
start.time(4).optional
// 匹配出现2、3或4次
start.time(2,4)
// 匹配出现2、3或4次,并且尽可能多地重复匹配
start.time(2,4).greedy
// 匹配出现1次或多次
start.oneOrMore
// 匹配出现0、2或多次,并且尽可能多地重复匹配
start.timesOrMore(2).optional.greedy

条件: 每个模式都需要指定触发条件,作为模式是否接受事件进入的判断依据,通过调用.where()、.or()和.until()来指定条件

  • 简单条件:通过.where()方法对事件中的字段进行判断筛选,决定是否接收该事件
start.where(event=>event.getName.startsWith(“foo”))
  • 组合条件:将简单的条件进行合并;or()方法表示或逻辑相连,where的直接组合就相当于与and
Pattern.where(event => …/*some condition*/).or(event => /*or condition*/)
  • 终止条件:如果使用了oneOrMore或者oneOrMore.optional,建议使用.until()作为终止条件,以便清理状态
  • 迭代条件:能够对模式之前所有接收的事件进行处理;调用.where((value,ctx) => {…}),可以调用ctx.getEventForPattern(“name”)

组合模式(Combining Patterns,也叫模式序列)

  • 很多个体模式组合起来,就形成了整个的模式序列,模式序列必须以一个初始模式开始
  • 定义一个事件模式的起始点
val start = Pattern.begin(‘start’)
  • 严格近邻:所有事件按照严格的顺序出现,中间没有任何不匹配的事件,由.next()指定,例如对于模式“a next b”,事件序列“a,c,b1,b2”没有匹配
  • 宽松近邻:允许中间出现不匹配的事件,由.followedBy()指定,例如对于模式“a followedBy b”,事件序列“a,c,b1,b2”匹配为
  • 非确定性宽松近邻:进一步放宽条件,之前已经匹配过的事件也可以再次使用,由.followedByAny()指定,例如对于模式“a followedByAny b”,事件序列“a,c,b1,b2”匹配为{ab1},
  • .notNext():不想让某个事件严格紧邻前一个事件发生
  • .notFollowedBy():不想让某个事件在两个事件之间发生

注意

  • 所有模式序列必须以.begin()开始
  • 模式序列不能以.notFollowedBy()结束
  • “not”类型的模式不能被optional所修饰
  • 可以为模式指定时间约束,用来要求在多长时间内匹配有效

模式组(Group of Pattern)

  • 将一个模式序列作为条件嵌套在个体模式里,成为一组模式

模式检测

  • 指定要查找的模式序列后,就可以将其应用于输入流以检测潜在匹配,调用CEP.pattern(),给定输入流和模式,就能得到一个PatternStream
val input:DataStream[Event] = …
val pattern:Pattern[Event,_] = …
val patternStream:PatternStream[Event]=CEP.pattern(input,pattern)

匹配事件的提取

  • 应用select或者flatSelect方法,从检测到的事件序列中提取事件
  • select()方法需要输入一个select function作为参数,每个成功匹配的事件序列都会调用它
  • select()以一个Map[String,Iterable[IN]]来接收匹配到的事件序列,其中key就是每个模式的名称,而value就是所有接收到的事件的Iterable类型

超时事件的提取

  • 当一个模式通过within关键字定义了检测窗口时间时,部分事件序列可能因为超过窗口长度而被丢弃;为了能够处理这些超时的部分匹配,select和flatSelect API调用允许指定超时处理程序

标签:匹配,Flink,模式,start,事件,CEP,序列
From: https://www.cnblogs.com/shihongpin/p/18439870

相关文章

  • Flink(六)Table API和Flink SQL
    TableAPI和FlinkSQL整体介绍概念TableAPI是一套内嵌在Java和Scala语言中的查询API,它允许我们以非常直观的方式,组合来自一些关系运算符的查询,比如select、filter和joinFlinkSQL,就是直接可以在代码中写SQL,来实现一些查询(Query)操作无论输入是批输入还是流式输入,在这两套API......
  • idea启动卡在启动界面不动弹,java.net.BindException: Address already in use: bind
    早上刚想打开idea发现卡在启动界面无法动弹任务管理器关闭idea和重启机器都无法解决,搜了一下网上的教程把解决方法记录下:打开AppData\Local\JetBrains\IntelliJIdea2021.2\log查看idea.log发现详细错误如下:2024-09-2908:46:57,944[10149]ERROR-llij.ide.plugins.Plugi......
  • Flink(五)DataStream流处理算子
    DataStream流处理算子Source算子(数据读入)Flink可以使用StreamExecutionEnvironment.addSource(source)来为我们的程序添加数据来源基于本地集合的sourceDataStream<String>words=env.fromElements("hello","flink","stream");基于文件的sourcereadTextFile(path)......
  • Flink(二)搭建Maven工程实现WordCount
    开发环境编写WordCountpom文件<?xmlversion="1.0"encoding="UTF-8"?><projectxmlns="http://maven.apache.org/POM/4.0.0"xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation=&qu......
  • Flink-Yarn模式修改Task Slot的数量
    1.修改Flink配置文件(flink-conf.yaml)Flink中的TaskManager是根据slots来分配任务的,默认情况下,一个TaskManager可以有多个slots。你可以通过调整flink-conf.yaml中的以下配置来控制每个TaskManager的slot数量:taskmanager.numberOfTaskSlots:<number_of_slots......
  • Flink(二)集群安装
    集群安装Standalone模式安装解压缩[user@hadoop102software]$tar-zxvfflink-1.10.1-bin-scala_2.12.tgz-C/opt/module/修改flink/conf/flink-conf.yaml文件jobmanager.rpc.address:hadoop102修改/conf/slaves文件hadoop103hadoop104分发给其他两台虚拟......
  • .NetCore MySqlException 多线程中(There is already an open DataReader associated w
    问题描述:其实标题只是遇到问题的其中之一,遇到三种异常信息如下:Lockwaittimeoutexceeded;tryrestartingtransaction大概意思:超过锁定等待超时;尝试重新启动事务 ThereisalreadyanopenDataReaderassociatedwiththisConnectionwhichmustbeclosedfirst.大......
  • flink的发展历程
    ApacheSpark和ApacheFlink都是开源的分布式大数据处理框架,它们各自有着不同的特点和发展历程。ApacheSpark:起始时间:2009年,由加州大学伯克利分校AMPLab开发。开源时间:2010年,MateiZaharia将其开源。主要发展:2013年,成为Apache基金项目。2014年,成为Apache顶级项目。2016年......
  • laravel: 报错:Uncaught ReflectionException: Class "view" does not exist
    一,报错信息:UncaughtReflectionException:Class"view"doesnotexistin/web/api/vendor/laravel/framework/src/Illuminate/Container/Container.php:938Stacktrace:#0/web/api/vendor/laravel/framework/src/Illuminate/Container/Container.php(938):Refl......
  • Flink(一)概述
    Flink概述ApacheFlink是一个框架和分布式处理引擎,用于对无界和有界数据流进行状态计算Flink特点事件驱动(Event-driven)事件驱动型应用是一类具有状态的应用,它从一个或多个事件流提取数据,并根据到来的事件触发计算、状态更新或其他外部动作比较典型的就是以kafka为代表的消......