首页 > 数据库 >flink-cdc同步mysql数据到hive

flink-cdc同步mysql数据到hive

时间:2022-10-08 14:04:28浏览次数:88  
标签:cdc int flink hive kafka catalog sql



什么是CDC?

CDC是(Change Data Capture 变更数据获取)的简称。核心思想是,监测并捕获数据库的变动(包括数据 或 数据表的插入INSERT、更新UPDATE、删除DELETE等),将这些变更按发生的顺序完整记录下来,写入到消息中间件中以供其他服务进行订阅及消费。


flink-cdc同步mysql数据到hive_mysql

Flink_CDC

1. 环境准备

  • mysql
  • Hive
  • flink 1.13.5 on yarn

说明:如果没有安装hadoop,那么可以不用yarn,直接用flink standalone环境吧。

2. 下载下列依赖包

下面两个地址下载flink的依赖包,放在lib目录下面。

  1. 【flink-sql-connector-hive-2.2.0_2.11-1.13.5.jar】https://repo.maven.apache.org/maven2/org/apache/flink/flink-sql-connector-hive-2.2.0_2.11/1.13.5/flink-sql-connector-hive-2.2.0_2.11-1.13.5.jar

如果你的Flink是其它版本,可以来【这里】https://repo.maven.apache.org/maven2/org/apache/flink下载。

说明:我hive版本是2.1.1,为啥这里我选择版本号是2.2.0呢,这是官方文档给出的版本对应关系:

Metastore version

Maven dependency

SQL Client JAR

1.0.0 - 1.2.2

​flink-sql-connector-hive-1.2.2​

Download

2.0.0 - 2.2.0

​flink-sql-connector-hive-2.2.0​

Download

2.3.0 - 2.3.6

​flink-sql-connector-hive-2.3.6​

Download

3.0.0 - 3.1.2

​flink-sql-connector-hive-3.1.2​

Download

官方文档地址在:https://nightlies.apache.org/flink/flink-docs-release-1.13/zh/docs/connectors/table/hive/overview/,可以自行查看。

3. 启动flink-sql client

  1. 先在yarn上面启动一个application,进入flink13.5目录,执行:
bin/yarn-session.sh -d -s 2 -jm 1024 -tm 2048 -qu root.sparkstreaming -nm flink-cdc-hive
  1. 进入flink sql命令行
bin/sql-client.sh embedded -s flink-cdc-hive


flink-cdc同步mysql数据到hive_数据库_02

img

4. 操作Hive

1) 首选创建一个catalog

CREATE CATALOG hive_catalog WITH (
'type' = 'hive',
'hive-conf-dir' = '/etc/hive/conf.cloudera.hive'
);

这里需要注意:hive-conf-dir是你的hive配置文件地址,里面需要有hive-site.xml这个主要的配置文件,你可以从hive节点复制那几个配置文件到本台机器上面。

2) 查询

此时我们应该做一些常规DDL操作,验证配置是否有问题:

use catalog hive_catalog;
show databases;

随便查询一张表

use test
show tables;
select * from people;

可能会报错:


flink-cdc同步mysql数据到hive_hive_03

把hadoop-mapreduce-client-core-3.0.0.jar放到flink的Lib目录下,这是我的,实际要根据你的hadoop版本对应选择。

注意:很关键,把这个jar包放到Lib下面后,需要重启application,然后重新用yarn-session启动一个application,因为我发现好像有缓存,把这个application kill 掉,重启才行:


flink-cdc同步mysql数据到hive_mysql_04

然后,数据可以查询了,查询结果:


flink-cdc同步mysql数据到hive_hadoop_05

5. mysql数据同步到hive

mysql数据无法直接在flink sql导入hive,需要分成两步:

  1. mysql数据同步kafka;
  2. kafka数据同步hive;

至于mysql数据增量同步到kafka,前面有文章分析,这里不在概述;重点介绍kafka数据同步到hive。

1) 建表跟kafka关联绑定:

前面mysql同步到kafka,在flink sql里面建表,connector='upsert-kafka',这里有区别:

CREATE TABLE product_view_mysql_kafka_parser(
`id` int,
`user_id` int,
`product_id` int,
`server_id` int,
`duration` int,
`times` string,
`time` timestamp
) WITH (
'connector' = 'kafka',
'topic' = 'flink-cdc-kafka',
'properties.bootstrap.servers' = 'kafka-001:9092',
'scan.startup.mode' = 'earliest-offset',
'format' = 'json'
);

2) 建一张hive表

创建hive需要指定​​SET table.sql-dialect=hive;​​,否则flink sql 命令行无法识别这个建表语法。为什么需要这样,可以看看这个文档Hive 方言。

-- 创建一个catalag用户hive操作
CREATE CATALOG hive_catalog WITH (
'type' = 'hive',
'hive-conf-dir' = '/etc/hive/conf.cloudera.hive'
);
use catalog hive_catalog;

-- 可以看到我们的hive里面有哪些数据库
show databases;
use test;
show tables;

上面我们可以现在看看hive里面有哪些数据库,有哪些表;接下来创建一张hive表:

CREATE TABLE product_view_kafka_hive_cdc (
`id` int,
`user_id` int,
`product_id` int,
`server_id` int,
`duration` int,
`times` string,
`time` timestamp
) STORED AS parquet TBLPROPERTIES (
'sink.partition-commit.trigger'='partition-time',
'sink.partition-commit.delay'='0S',
'sink.partition-commit.policy.kind'='metastore,success-file',
'auto-compaction'='true',
'compaction.file-size'='128MB'
);

然后做数据同步:

insert into hive_catalog.test.product_view_kafka_hive_cdc
select *
from
default_catalog.default_database.product_view_mysql_kafka_parser;

注意:这里指定表名,我用的是catalog.database.table,这种格式,因为这是两个不同的库,需要明确指定catalog - database - table。

网上还有其它方案,关于mysql实时增量同步到hive:


flink-cdc同步mysql数据到hive_数据库_06

网上看到一篇写的实时数仓架构方案,觉得还可以:


flink-cdc同步mysql数据到hive_数据库_07

参考资料

​https://nightlies.apache.org/flink/flink-docs-release-1.13/zh/docs/connectors/table/hive/hive_dialect/​

标签:cdc,int,flink,hive,kafka,catalog,sql
From: https://blog.51cto.com/u_15288309/5737459

相关文章

  • druid-spring-boot-starter整合hive与hadoop的排除类
    hive-jdbc和jetty冲突,所以在hive-jdbc中对jetty进行排除就OK<exclusions> <exclusion> <groupId>org.eclipse.jetty.aggregate</groupId> <artifactId>*</artifactI......
  • hive使用
    在一个有138MB的csv文件(580万行数据)里统计每天每家公司的利润等等信息。。。。。用mysql多半会爆掉,mysql一张表最多可处理的数据量为千万级的(每秒数据库并发量在几千,也......
  • hive测试——HIVE数据分析02
    题目:4、处理结果入库:(在虚拟机安装mysql)  将上述统计分析的结果数据保存到mySQL数据库中。 #text3_1入库#1.添加驱动,在hive的lib目录下,如果有则不需要添加add......
  • 140-《大数据架构师》Flink state状态详解_ev
          keyedstate是一个task维护多个state,operator是维护一个state           ......
  • hive(2/4)
    Hive1.2.1学习(二) 1、Hive分区在大数据中,最常见的一种思想就是分治,我们可以把大的文件切割划分成一个个的小的文件,这样每次操作一个个小的文件就会很容易了,同样的道理,在......
  • hive优化(4/4)
    Hive学习(四)Hive优化1.1hive的随机抓取策略理论上来说,Hive中的所有sql都需要进行mapreduce,但是hive的抓取策略帮我们省略掉了这个过程,把切片split的过程提前帮我们做......
  • hive初步学习
    hive初步学习 hive语法其实跟mysql差不多开启程序以后输入hive就可以进去了showdatabases;//查看所有的数据库use数据库名showtable//查看对应数据库的表......
  • hive元起动报错:Exception in thread "main" java.lang.NoSuchMethodError: com.google
    错误原因:1.系统找不到这个类所在的jar包2.jar包的版本不一样系统不知道使用哪个。 hive启动报错的原因是后者解决办法:1、com.google.common.base.Preconditions.che......
  • flink基础
    导入flink依赖  把业务逻辑单独分割出来  webUI界面测试flink本地任务    数据传输策略        打包插件    执行流程图......
  • hive数据导出到linux本地
    方法1(hive下执行):insertoverwritelocaldirectory'Linux本地目录'rowformatdelimitedfieldsterminatedby '\t' select*from表名where......;eg:inserto......