【Flink】浅谈Flink背压问题(1)
大家好,我们的gzh是朝阳三只大明白,满满全是干货,分享近期的学习知识以及个人总结(包括读研和IT),跪求一波关注,希望和大家一起努力、进步!!
概述
在多线程的情况下有一个典型的模,型生产者消费者模型,该模型主要由生产者、消费者和一个大小固定的队列组成。生产者向队列发送数据,消费者从队列中取出数据并处理。
针对上述模型,如果队列属于有限长度,当消费者能力<生产者能力的时候就会出现数据堆积,这样生产者的生产就会停止。现在将这个模型引入Flink算子链中,生产者和消费者的身份是相对的,一个生产者是上游的消费者,一个消费者同样也是下游的生产者。所以一个节点模型中消费者的堵塞将会向上移动,直到源头,这就是反压。
Flink数据通信模型
假如一个Flink任务(Job)中有 TaskA,TaskB,并发度都是 4,即 A1-A4,B1-B4。TaskA 与 TaskB 使用 keyby 连接。将这个 Flink Job 部署到 2 个 TM 中,每个 TM 分配 2 个 slots。那么Flink会将 放到一个 TM 中, 放到一个 TM 中,具体示例如下图所示:
同一个 TM 中的SubTask采用 【local 】方式进行数据传输。位于不同 TM 的 SubTask采用【remote】方式传输。传输示意图如下图所示:
我们从上图可以看出,以SubTaskA1为例,其数据传输步骤如下:
- TaskA1 先通过 【RecordWriter】对象将数据序列化写到一个 【Output Queue Buffer】 中(下游的并行子任务个数就是队列的个数)。
- 由【 Netty Service 】进行拉取,满足以下任意一个条件都会进行拉取;
- 【Output Queue Buffer】 写满了(默认 32KB);
- 【Output Queue Buffer】 超时了(默认 100ms);
- 遇到特殊结构,例如 Barrier,WaterMark;
- 经过网络传输之后,数据会写到 TaskB3 中的 【Input Queue】 中,然后由 【RecordReader】对象将数据反序列化后进行处理。
也就是说一个 下游TM 中的并行子任务出现消费延迟,就会阻塞 TCP-channel 进而影响整个 TM 的消费,最终向上传递,导致反压。
反压的监控
Web UI
可以直接在 Flink Web 中进行观察,Flink检测会针对任何一个 Task 做反压检测。该机制需要在 Flink Web 上手动触发,触发后TM 使用 Thread.GetStackTrace 来抽样检测 Task Thread 是否在 NetworkBuffer 中,即是否处于等待状态。根据抽样比例,来判断反压状态。Ratio 是代表抽样 n 次(默认100次)中,遇到等待次数的比例。
- OK:ratio≤0.1;
- LOW:0.01≤Ratio≤0.5;
- High:0.5≤Ratio≤1;
从 Sink→Source 进行检查,第一个反压状态处于 High 的 task 大概率是反压的根源。
该方法有一定的缺陷:
- 由于他是抽样,无法观察到历史数据;
- 影响作业流程;
- 高并发场景下,需要等待很久才能检测成功;
Flink Network Metric
在上文提到过,TM之间的通信都会使用到 InputQueue 和 OutputQueue,我们可以通过使用【InputQueueUsage】 和 【OutputQueueUsage】这两个指标来判断出现反压的位置。
Task Status | OutputQueueUsage < 1.0 | OutputQueueUsage == 1.0 |
InputQueueUsage < 1.0 | 正常 | 处于反压,其根本原因可能是该 Task 下游处理能力不足导致,持续下去,该 Task 将会向上游传递反压 |
InputQueueUsage == 1.0 | 处于反压,持续下去,该 Task 会向上游传递反压,而且该 Task 可能是反压的源头 | 处于反压,原因可能是被下游阻塞 |
现在看一个实际的例子
可以看出 FlatMap→Reduce 出现了阻塞,再看 reduce 任务的 inpoolusage 和 outpoolusage 指标,得出结论reduce任务就是反压的源头。
往期回顾
文中难免会出现一些描述不当之处(尽管我已反复检查多次),欢迎在留言区指正,相关的知识点也可进行分享,希望大家都能有所收获!!我将在下一期详细介绍反压形成的原因以及处理办法,敬请期待!!
标签:Task,1.0,浅谈,Flink,背压,反压,Queue,TM From: https://blog.51cto.com/u_15945763/6024986