首页 > 数据库 >Flink CDC 2.3 发布,持续优化性能,更多连接器支持增量快照,新增 Db2 支持

Flink CDC 2.3 发布,持续优化性能,更多连接器支持增量快照,新增 Db2 支持

时间:2022-12-31 22:31:52浏览次数:39  
标签:快照 读取 CDC Flink 连接器 2.3 版本

作者|阮航 & 徐榜江

一、Flink CDC 简介

Flink CDC[1] 是基于数据库的日志 CDC 技术,实现了全增量一体化读取的数据集成框架。配合 Flink 优秀的管道能力和丰富的上下游生态,Flink CDC 可以高效实现海量数据的实时集成。

Flink CDC 2.3 发布,持续优化性能,更多连接器支持增量快照,新增 Db2 支持_大数据

作为新一代的实时数据集成框架,Flink CDC 具有全增量一体化、无锁读取、并行读取、表结构变更自动同步、分布式架构等技术优势,同时社区提供了完整的文档支持[2]。在 Flink CDC 开源的两年多时间里,社区成长迅速,目前 Flink CDC 社区已有 76 位贡献者,7 位 Maintainer,社区钉钉用户群超过 7800 人。

二、 Flink CDC 2.3 概览

在社区用户和贡献者们的共同努力下, Flink CDC 2.3 正式发布了:

​​github.com/ververica/f…​​

Flink CDC 2.3 发布,持续优化性能,更多连接器支持增量快照,新增 Db2 支持_flink_02

2.3 版本共有 49 位社区贡献者参与贡献,累计解决 126 个 issue,合并了 133 个 PR,贡献者们累计贡献了 170+ 提交。 从代码分布上看,MySQL CDC,MongoDB CDC, Oracle CDC,增量快照框架(flink-cdc-base)模块以及文档模块均为用户带来了很多特性和改进。

面对如此多的改进和特性,本文通过下图带你 3 分钟快速了解 Flink CDC 2.3 版本的重大改进和核心特性。

Flink CDC 2.3 发布,持续优化性能,更多连接器支持增量快照,新增 Db2 支持_Flink_03

  • 新增 Db2 CDC 连接器, 解锁读取 Db2 数据库,支持全量和增量一体化同步。
  • MongoDB CDC,Oracle CDC 两大连接器均接入了增量快照框架,从而提供了无锁读取,并发读取和断点续传的能力。
  • MySQL CDC 连接器在 2.3 版本里进行了诸多性能优化和稳定性大改进,极大提升了生产稳定性和性能。
  • Flink CDC 2.2 版本兼容了 Flink 1.13 和 Flink 1.14, Flink CDC 2.3 在此基础上继续兼容了 Flink 1.15 & 1.16 大版本,从而兼容了 Flink 的四个大版本。这意味着 CDC 的 SQL connector 可以跑在不同的 Flink 集群上而无需任何修改,如果是 DataStream 用户也可以参考 SQL Connector 的打包方式,实现跨版本兼容。
  • OceanBase CDC 连接器支持将全部数据库类型对接到 Flink SQL,也就是说 OceanBase 所有类型的字段均支持同步。
  • MySQL CDC 和 OceanBase CDC 连接器提供中文文档,这可以更好地帮助到中文用户。

三、详解核心特性和重要改进

Flink CDC 2.3 版本带来了诸多重要的改进和特性,本文挑选最重要的四个进行深入解读。

Flink CDC 2.3 发布,持续优化性能,更多连接器支持增量快照,新增 Db2 支持_github_04

3.1 新增Db2 CDC 连接器

Db2 是 IBM 开发的关系型数据库管理系统[3]。Db2 CDC 连接器可以捕获 Db2 数据库中表的行级变更,其实现原理是基于 ASN Capture/Apply agents 提供的 SQL 复制能力 ,将数据库中开启 capture mode 的表的变更存到指定的 change table 中。Db2 CDC 连接器首先通过 JDBC 读取表中的历史数据,再从 change table 中获取增量变更数据,从而实现全增量同步。

3.2 MongoDB CDC,Oracle CDC 连接器支持增量快照算法

在 Flink CDC 2.3 版本中,MongoDB CDC 连接器和 Oracle CDC 连接器都对接到了 Flink CDC 增量快照框架上,实现了增量快照算法,从而提供无锁读取,并行读取和断点续传的功能。

Flink CDC 2.3 发布,持续优化性能,更多连接器支持增量快照,新增 Db2 支持_github_05

至此,Flink CDC 支持增量快照算法的数据源不断扩大,在接下来的版本中,社区也在规划让更多的连接器对接到增量快照框架上。

3.3 MySQL CDC 连接器优化

作为社区最受用户关注的 MySQL CDC 连接器,2.3 版本中社区引入了诸多高级特性,极大地提升了性能和稳定性,具体包括:

3.3.1 支持指定位点启动

MySQL CDC 连接器支持从指定的位点启动作业。可以通过 timestamp,binlog offset 或 binlog gtid 的方式指定作业启动时的 binlog 具体位置,还支持设置为 earliest-offset 从最早的 binlog 位点启动作业。

3.3.2 分片算法优化

2.3 版本对全量阶段分片算法进行优化。将目前的同步分片改为异步进行,支持用户指定主键中某一列作为分片的切分列,并且分片过程支持 checkpoint,提升了全量读取阶段时因为同步分片阻塞导致的性能问题。

3.3.3 稳定性提升

MySQL CDC 连接器支持全部字符集对接到 Flink SQL,解锁更多用户场景,支持宽容默认值提升作业对不规范 DDL 的容忍度,支持自动获取数据库的时区从而解决时区问题。

3.3.4 性能提升

2.3 版本 MySQL CDC 重点优化了内存和读取性能,通过 JM 里的 meta 复用和 TM 中流式读取等改进降低了 JM 和 TM 的内存使用;同时通过优化 binlog 解析逻辑提升了 binlog 读取性能。

3.4 其他改进

  • Flink CDC 2.3 版本兼容了 Flink 1.13,1.14,1.15 和 1.16 四个大版本,极大地降低用户 Connector 的升级和运维成本。
  • OceanBase CDC 修复了时区问题,支持全类型对接到 Flink SQL,并提供了更多的配置项,支持更灵活的配置。如新增加 table-list 配置项,支持访问多张 OceanBase 数据表等。
  • MongoDB CDC 支持了更多的数据类型,优化了捕获表的筛选过程。
  • TiDB CDC 修复了全增量切换时数据丢失问题,支持读取时 region 切换。
  • Postgres CDC 支持 geometry 类型,开放了更多配置项,支持配置 changelog mode 来过滤发送的数据。
  • SqlServer CDC 支持了更多的版本,并对文档[4]进行完善。
  • MySQL CDC 和 OceanBase CDC 连接器提供了中文文档[5][6],此外还对 OceanBase CDC 连接器提供了视频教程[7]。

四、未来规划

Flink CDC 开源社区的发展,得益于贡献者们的无私贡献和 Maintainer 成员的开源布道,更离不开广大 Flink CDC 用户群体的积极反馈和宣传布道,Flink CDC 社区将会继续做好开源社区建设。当前 Flink CDC 社区正在做 2.4 版本的规划[8],也欢迎所有用户和贡献者参与反馈,在接下来的 2.4 版本,社区主要方向计划从下述四个方面展开:

  • 数据源完善

支持更多的数据源,推动更多的 CDC 连接器接入增量快照框架,支持无锁读取、并发读取、断点续传等特性。

  • 可观测性提升

提供限流功能,以降低全量阶段对数据库产生的查询压力;提供更丰富的监控指标,可以获取到任务进度相关指标监控任务状态。

  • 性能提升

全量阶段支持使用 Batch 模式同步全量阶段数据,提升全量阶段性能;全量读取阶段结束后自动释放空闲 reader 资源等。

  • 易用性提升

提升连接器的易用性,比如简化开箱即用的配置参数,提供 Datastream API 程序示例等。

致谢:

感谢所有为 Flink CDC 2.3 版本做出贡献的覃立辉、莫贤彬、rookiegao、He Wang 等 49 位社区贡献者,特别感谢社区的四位 Maintainer 成员阮航、孙家宝、龚中强和任庆盛为 2.3 版本发布所做的杰出工作。

阿里云实时计算 Flink 版提供更多企业级 Flink CDC 能力[9],包括了分库分表合并、表结构变更同步、整库同步等重要功能,更好的支持了阿里云实时数仓 ODPS-Hologres 等产品,同时使用可无缝构建实时数据仓库。欢迎感兴趣的用户移步阿里云产品官网体验使用。

贡献者列表:

01410172,Amber Moe,Dezhi Cai,Enoch,Hang Ruan,He Wang,JiaJia,Jiabao Sun,Junwang Zhao,Kyle Dong,Leonard Xu,Matrix42,Paul Lin,Qingsheng Ren,Qishang Zhong,Rinka,Sergey Nuyanzin,Tigran Manasyan,camelus,dujie,ehui,empcl,fbad,gongzhongqiang,hehuiyuan,hele.kc,hsldymq,jiabao.sun,legendtkl,leixin,leozlliang,lidoudou1993,lincoln lee,lxxawfl,lzshlzsh,molsion,molsionmo,pacino,rookiegao,skylines,sunny,vanliu,wangminchao,wangxiaojing,xieyi888,yurunchuan,zhmin,阿洋,莫贤彬

附录

[1] ​​github.com/ververica/f…​​

[2] ​​ververica.github.io/flink-cdc-c…​​

[3] ​​www.ibm.com/products/db…​​

[4] ​​ververica.github.io/flink-cdc-c…​​

[5] ​​ververica.github.io/flink-cdc-c…​​

[6] ​​ververica.github.io/flink-cdc-c…​​

[7] ​​ververica.github.io/flink-cdc-c…​​

[8] ​​github.com/ververica/f…​​

[9] ​​www.alibabacloud.com/help/zh/rea…​​

标签:快照,读取,CDC,Flink,连接器,2.3,版本
From: https://blog.51cto.com/u_14286418/5982443

相关文章

  • flink 实现 postgre-CDC
    一、前置工作1.修改postgresql配置文件  /data/pgsql/13/data/postgresql.conf相关配置:#更改wal日志方式为logicalwal_level=logical#minimal,replica,or......
  • cdc cdma ECM
    CDCCommunicationsDeviceClass连接设备配置CDMACodeDivisionMultipleAccess码分多址接入ECMEthernetNetworkingControlModel以太网控制模型GPSGlobalPo......
  • 6. 对testlv创建快照,并尝试基于快照备份数据,验正快照的功能
     [root@192~]#lvcreate-L2G-s-ntestsnap-pr/dev/testvg/testlv#创建大小为2G、权限为只读的快照逻辑卷 Logicalvolume"testsnap"created.[root@19......
  • 重磅!涛思数据发布 TDengine PI 连接器
    ​​TDengine​​提供的混合解决方案,可以让企业既能保留传统的PI系统,又能轻松获得现代云平台提供的所有好处。涛思数据宣布发布TDenginePI连接器。在很多制造业企业中,......
  • TDengine PI 连接器发布——几次点击,让 PI System 数据轻松上云
    “TDengine提供的混合解决方案,可以让企业既能保留传统的PI系统,又能轻松获得现代云平台提供的所有好处”涛思数据宣布发布TDenginePI连接器。......
  • 大数据-业务数据采集-FlinkCDC 读取 MySQL 数据存入 Kafka
    目录作用app产生各层数据的flink任务bean数据对象common公共常量utils工具类app.ods.FlinkCDC.javapackagecom.atguigu.app.ods;import......
  • 大数据-业务数据采集-FlinkCDC
    CDCCDC是ChangeDataCapture(变更数据获取)的简称。核心思想是,监测并捕获数据库的变动(包括数据或数据表的插入、更新以及删除等),将这些变更按发生的顺序完整记录下来,写......
  • cdc-inferred clock
    1、为什么会有inferredclock我们在cdc运行之前会通过netlistclock定义顶层的clockports,之后cdc会基于我们定义的clockports分析clocktree。但是由于设计的复杂性,例......
  • DCDC直流隔离升压12V24V48V转600V800V1100V2500V3000V高压稳压输出电源模块
    特点●效率高达 80%●2*2英寸标准封装●单双电压输出●价格低●大于600V高压,稳压输出●工作温度:-40℃~+85℃●阻燃封装,满足UL94-V0要求●温度特性好●可直接......
  • lvm逻辑卷及卷快照操作
    一、逻辑卷操作创建一个至少有两个PV组成的大小为20G的名为testvg的VG,要求PE大小为16M,而后在卷组中创建大小为5G的逻辑卷testlv;挂载至/users目录 1.添加2块20G硬盘/d......