在 Flink 中使用表和 SQL基本上跟其他场景是一样的;不过对于表和流的转换,却稍显复杂。当我们将一个 Table 转换成 DataStream 时,有“仅插入流”(Insert-Only Streams)和“更新日志流”(Changelog Streams)两种不同的方式,具体使用哪种方式取决于表中是否存在更新(update)操作。 这种麻烦其实是不可避免的。我们知道,Table API 和 SQL 本质上都是基于关系型表的操作方式;而关系型表(Table)本身是有界的,更适合批处理的场景。所以在 MySQL、Hive这样的固定数据集中进行查询,使用 SQL 就会显得得心应手。而对于 Flink 这样的流处理框架来说,要处理的是源源不断到来的无界数据流,我们无法等到数据都到齐再做查询,每来一条数据就应该更新一次结果;这时如果一定要使用表和 SQL 进行处理,就会显得有些别扭了,需要引入一些特殊的概念。 我们可以将关系型表/SQL 与流处理做一个对比,如图 可以看到,其实关系型表和 SQL,主要就是针对批处理设计的,这和流处理有着天生的隔阂 流处理面对的数据是连续不断的,这导致了流处理中的“表”跟我们熟悉的关系型数据库中的表完全不同;而基于表执行的查询操作,也就有了新的含义。 如果我们希望把流数据转换成表的形式,那么这表中的数据就会不断增长;如果进一步基于表执行 SQL 查询,那么得到的结果就不是一成不变的,而是会随着新数据的到来持续更新。
1.动态表(Dynamic Table)
当流中有新数据到来,初始的表中会插入一行;而基于这个表定义的 SQL 查询,就应该在之前的基础上更新结果。这样得到的表就会不断地动态变化,被称为“动态表”(DynamicTables)。 动态表是Flink在Table API和SQL中的核心概念,它为流数据处理提供了表和SQL支持。我们所熟悉的表一般用来做批处理,面向的是固定的数据集,可以认为是“静态表”;而动态表则完全不同,它里面的数据会随时间变化。 其实动态表的概念,我们在传统的关系型数据库中已经有所接触。数据库中的表,其实是一系列 INSERT、UPDATE 和 DELETE 语句执行的结果;在关系型数据库中,我们一般把它称为更新日志流(changelog stream)。如果我们保存了表在某一时刻的快照(snapshot),那么接下来只要读取更新日志流,就可以得到表之后的变化过程和最终结果了。在很多高级关系型数据库(比如 Oracle、DB2)中都有“物化视图”(Materialized Views)的概念,可以用来缓存 SQL 查询的结果;它的更新其实就是不停地处理更新日志流的过程。 Flink 中的动态表,就借鉴了物化视图的思想。2.持续查询(Continuous Query)
动态表可以像静态的批处理表一样进行查询操作。由于数据在不断变化,因此基于它定义的 SQL 查询也不可能执行一次就得到最终结果。这样一来,我们对动态表的查询也就永远不会停止,一直在随着新数据的到来而继续执行。这样的查询就被称作“持续查询”(ContinuousQuery)。对动态表定义的查询操作,都是持续查询;而持续查询的结果也会是一个动态表。 由于每次数据到来都会触发查询操作,因此可以认为一次查询面对的数据集,就是当前输入动态表中收到的所有数据。这相当于是对输入动态表做了一个“快照”(snapshot),当作有限数据集进行批处理;流式数据的到来会触发连续不断的快照查询,像动画一样连贯起来,就构成了“持续查询”。 如图所示,描述了持续查询的过程。这里我们也可以清晰地看到流、动态表和持续查询的关系: 持续查询的步骤如下: (1)流(stream)被转换为动态表(dynamic table); (2)对动态表进行持续查询(continuous query),生成新的动态表; (3)生成的动态表被转换成流。 这样,只要 API 将流和动态表的转换封装起来,我们就可以直接在数据流上执行 SQL 查询,用处理表的方式来做流处理了。3.将流转换成动态表
为了能够使用 SQL 来做流处理,我们必须先把流(stream)转换成动态表。当然,之前在介绍基本 API 时,已经介绍过代码中的 DataStream 和 Table 如何转换;现在我们则要抛开具体的数据类型,从原理上理解流和动态表的转换过程。 如果把流看作一张表,那么流中每个数据的到来,都应该看作是对表的一次插入(Insert)操作,会在表的末尾添加一行数据。因为流是连续不断的,而且之前的输出结果无法改变、只能在后面追加;所以我们其实是通过一个只有插入操作(insert-only)的更新日志(changelog)流,来构建一个表。 为了更好地说明流转换成动态表的过程,我们还是用之前的例子来做分析说明。// 获取流环境 val env = StreamExecutionEnvironment.getExecutionEnvironment env.setParallelism(1) // 读取数据源 val eventStream = env .fromElements( Event("Alice", "./home", 1000L), Event("Bob", "./cart", 1000L), Event("Alice", "./prod?id=1", 5 * 1000L), Event("Cary", "./home", 60 * 1000L), Event("Bob", "./prod?id=3", 90 * 1000L), Event("Alice", "./prod?id=7", 105 * 1000L) ) // 获取表环境 val tableEnv = StreamTableEnvironment.create(env) // 将数据流转换成表 tableEnv.createTemporaryView("EventTable", eventStream, $("user"), $("url"), $("timestamp").as("ts")) // 统计每个用户的点击次数 val urlCountTable = tableEnv.sqlQuery("SELECT user, COUNT(url) as cnt FROM EventTable GROUP BY user") // 将表转换成数据流,在控制台打印输出 tableEnv.toChangelogStream(urlCountTable).print("count") // 执行程序 env.execute()
我们现在的输入数据,就是用户在网站上的点击访问行为,数据类型被包装为 POJO 类型Event。我们将它转换成一个动态表,注册为 EventTable。表中的字段定义如下: [ user: VARCHAR, // 用户名 url: VARCHAR, // 用户访问的 URL ts: BIGINT // 时间戳 ] 如图所示,当用户点击事件到来时,就对应着动态表中的一次插入(Insert)操作,每条数据就是表中的一行;随着插入更多的点击事件,得到的动态表将不断增长。
4.用SQL持续查询
4.1更新(Update)查询
我们在代码中定义了一个 SQL 查询。 val urlCountTable = tableEnv.sqlQuery("SELECT user, COUNT(url) as cnt FROM EventTable GROUP BY user") 这个查询很简单,主要是分组聚合统计每个用户的点击次数。我们把原始的动态表注册为EventTable,经过查询转换后得到 urlCountTable;这个结果动态表中包含两个字段,具体定义如下: [ user: VARCHAR, // 用户名 cnt: BIGINT // 用户访问 url 的次数 ] 如下图所示,当原始动态表不停地插入新的数据时,查询得到的 urlCountTable 会持续地进行更改。由于 count 数量可能会叠加增长,因此这里的更改操作可以是简单的插入(insert),也可以是对之前数据的更新(update)。换句话说,用来定义结果表的更新日志(changelog)流中,包含了 INSERT 和 UPDATE 两种操作。这种持续查询被称为更新查询(Update Query),更新查询得到的结果表如果想要转换成 DataStream,必须调用 toChangelogStream()方法。 具体步骤解释如下: (1)当查询启动时,原始动态表 EventTable 为空; (2)当第一行 Alice 的点击数据插入 EventTable 表时,查询开始计算结果表,urlCountTable中插入一行数据[Alice,1]。 (3)当第二行 Bob 点击数据插入 EventTable 表时,查询将更新结果表并插入新行[Bob,1]。 (4)第三行数据到来,同样是 Alice 的点击事件,这时不会插入新行,而是生成一个针对已有行的更新操作。这样,结果表中第一行[Alice,1]就更新为[Alice,2]。 (5)当第四行 Cary 的点击数据插入到 EventTable 表时,查询将第三行[Cary,1]插入到结果表中。4.2追加(Append)查询
上面的例子中,查询过程用到了分组聚合,结果表中就会产生更新操作。如果我们执行一个简单的条件查询,结果表中就会像原始表 EventTable 一样,只有插入(Insert)操作了。 val aliceVisitTable = tableEnv.sqlQuery("SELECT url, user FROM EventTable WHERE user = 'Alice'") 这样的持续查询,就被称为追加查询(Append Query),它定义的结果表的更新日志(changelog)流中只有 INSERT 操作。追加查询得到的结果表,转换成 DataStream 调用方法没有限制,可以直接用 toDataStream(),也可以像更新查询一样调用 toChangelogStream()。 这样看来,我们似乎可以总结一个规律:只要用到了聚合,在之前的结果上有叠加,就会产生更新操作,就是一个更新查询。但事实上,更新查询的判断标准是结果表中的数据是否会有 UPDATE 操作,如果聚合的结果不再改变,那么同样也不是更新查询。 什么时候聚合的结果会保持不变呢?一个典型的例子就是窗口聚合。 我们考虑开一个滚动窗口,统计每一小时内所有用户的点击次数,并在结果表中增加一个endT 字段,表示当前统计窗口的结束时间。这时结果表的字段定义如下: [ user: VARCHAR, // 用户名 endT: TIMESTAMP, // 窗口结束时间 cnt: BIGINT // 用户访问 url 的次数 ] 如下图所示,与之前的分组聚合一样,当原始动态表不停地插入新的数据时,查询得到的结果 result 会持续地进行更改。比如时间戳在 12:00:00 到 12:59:59 之间的有四条数据,其中 Alice 三次点击、Bob 一次点击;所以当水位线达到 13:00:00 时窗口关闭,输出到结果表中的就是新增两条数据[Alice, 13:00:00, 3]和[Bob, 13:00:00, 1]。同理,当下一小时的窗口关闭时,也会将统计结果追加到 result 表后面,而不会更新之前的数据。 所以我们发现,由于窗口的统计结果是一次性写入结果表的,所以结果表的更新日志流中只会包含插入 INSERT 操作,而没有更新 UPDATE 操作。所以这里的持续查询,依然是一个追加(Append)查询。结果表 result 如果转换成 DataStream,可以直接调用 toDataStream()方法。 需要注意的是,由于涉及时间窗口,我们还需要为事件时间提取时间戳和生成水位线。完整代码如下:package com.zhen.flink.table import org.apache.flink.streaming.api.scala._ import org.apache.flink.table.api.Expressions.$ import org.apache.flink.table.api.bridge.scala.StreamTableEnvironment /** * @Author FengZhen * @Date 9/30/22 4:58 PM * @Description TODO */ object AppendQueryExample { def main(args: Array[String]): Unit = { val env = StreamExecutionEnvironment.getExecutionEnvironment env.setParallelism(1) // 读取数据源,并分配时间戳、生成水位线 val eventStream = env .fromElements( Event("Alice", "./home", 1000L), Event("Bob", "./cart", 1000L), Event("Alice", "./prod?id=1", 25 * 60 * 1000L), Event("Alice", "./prod?id=4", 55 * 60 * 1000L), Event("Bob", "./prod?id=5", 3600 * 1000L + 60 * 1000L), Event("Cary", "./home", 3600 * 1000L + 30 * 60 * 1000L), Event("Cary", "./prod?id=7", 3600 * 1000L + 59 * 60 * 1000L) ) .assignAscendingTimestamps(_.timestamp) // 创建表环境 val tableEnv = StreamTableEnvironment.create(env) // 将数据流转换成表,并指定时间属性 val eventTable = tableEnv.fromDataStream( eventStream, $("user"), $("url"), $("timestamp").rowtime().as("ts") // 将 timestamp 指定为事件时间,并命名为 ts ) // 为方便在 SQL 中引用,在环境中注册表 EventTable tableEnv.createTemporaryView("EventTable", eventTable); // 设置 1 小时滚动窗口,执行 SQL 统计查询 val result = tableEnv .sqlQuery( "SELECT " + "user, " + "window_end AS endT, " + // 窗口结束时间 "COUNT(url) AS cnt " + // 统计 url 访问次数 "FROM TABLE( " + "TUMBLE( TABLE EventTable, " + // 1 小时滚动窗口 "DESCRIPTOR(ts), " + "INTERVAL '1' HOUR)) " + "GROUP BY user, window_start, window_end " ) tableEnv.toDataStream(result).print() env.execute() } }运行结果如下: +I[Alice, 1970-01-01T01:00, 3] +I[Bob, 1970-01-01T01:00, 1] +I[Cary, 1970-01-01T02:00, 2] +I[Bob, 1970-01-01T02:00, 1] 可以看到,所有输出结果都以+I 为前缀,表示都是以 INSERT 操作追加到结果表中的;这是一个追加查询,所以我们直接使用 toDataStream()转换成流是没有问题的。这里输出的 window_end 是一个 TIMESTAMP 类型;由于我们直接以一个长整型数作为事件发生的时间戳,所以可以看到对应的都是 1970 年 1 月 1 日的时间。