首页 > 其他分享 >kafka业务数据到ODS层处理小记

kafka业务数据到ODS层处理小记

时间:2023-04-21 09:45:18浏览次数:46  
标签:批次 ODS kafka 数据 主键 小记

kafka业务数据到ODS层处理小记

1:kafka消息partition分区,应以表主键为key

2:kafka消息落地后,同一批次数据中取主键+offset最大的一条,再删除基础数据中此批次数据,最后将此批次数据按数据处理类型(delete、insert、update),先insert、update,再delete。

标签:批次,ODS,kafka,数据,主键,小记
From: https://www.cnblogs.com/qsds/p/17339195.html

相关文章

  • kafka
    首先配置好zookeeper修改kafka配置文件config/server.properties文件中broker.id=0port=9092host.name=192.168.112.91log.dirs=/usr/local/src/kafka/kafka-logszookeeper.connect=master:2181,slave1:2181,slave2:2181启动kafka./bin/kafka-server-start.sh-daemonc......
  • 论文解析 -- A Survey of AIOps Methods for Failure Management
    此篇Survey是ASystematicMappingStudyinAIOps的后续研究对于AIOPS中占比较高的FailureManagement进行进一步的研究   Comparedtotraditionalapproaches,AIOpsis:•fast,becauseitreactsindependentlyandautomaticallytoreal-timeproblems,with......
  • kafka、zookeeper配置运行的坑
    1、Windows安装zookeeper的时候,zookeeper.properties里dataDir=D:\\kafka_2.13-2.8.1\\data\\zookeeper路径要用双斜杠,否则报错2、idea里,application.yml里,bootstrap-servers:192.168.10.3:2181,192.168.10.50:2181,192.168.10.6:2181注意,冒号后面要有一个空格,否则报错......
  • kafka
    安装kafka首先安装jdk,zookeeper,kafka将压缩包放进linux目录/opt/mySoftware下,并依次执行下面的命令tar-zxvfjdk-8u361-linux-x64.tar.gztar-zxvfzookeeper-3.4.12.tar.gztar-zxvfkafka_2.11-2.0.0.tgz解压后会生成文件夹jdk1.8.0_361``kafka_2.11-2.0.0zookeep......
  • SchemaRegestry组件原生的类和方法无法实现flink消费kafka的数据动态调整schema的情况
    0、前提知识储备Conflurent公司的SchemaRegestry组件的基本了解和使用一、背景:0.组件版本flink:1.141.链路调整情况原先链路:oracle-->OGG-->kafka-->flink-->数据库\湖\仓实现链路:oracle-->OGG-->kafka(搭配conflurent公司的SchemaRegestry组件使用)-->flink-->数据库\湖\仓2......
  • 提高kafka消费速度之从源码去了解Spring-kafka的concurrency参数
    网上看到这篇文章,觉得很不错,这里转载记录一下。转自:提高kafka消费速度之从源码去了解Spring-kafka的concurrency参数-简书第一部分、引言    在spring应用中,如果我们需要订阅kafka消息,通常情况下我们不会直接使用kafka-client,而是使用了更方便的一层封装spring-kafk......
  • cocoapods Xcode 14.3 Archive Command PhaseScriptExecution failed with a nonzero
    Xcode升级到14.3进行  Archive CommandPhaseScriptExecutionfailedwithanonzeroexitcode解决方法Xcode搜索 source="$(readlink-f"${source}")"将 source="$(readlink-f"${source}")"改为 source="$(readlink-f"......
  • Kafka的研究&实战
    一、Kafka简介Kafka是一个高吞吐量的分布式的发布--订阅消息系统,可以处理大量的数据,并将消息从一个端点传递到另一个端点。同时Kafka还能将消息保存在磁盘上并在集群内复制以防数据丢失。二、Kafka的优势可靠性:Kafka是分布式、分区、复制和容错的。扩展性:可结合Zookeeper实现动态扩......
  • Go接入kafka
    需要借助的库github.com/Shopify/sarama//kafka主要的库*github.com/bsm/sarama-cluster//kafka消费组生产者packageproducerimport( "fmt" "github.com/HappyTeemo7569/teemoKit/tlog" "github.com/Shopify/sarama" "kafkaDemo/define"......
  • 面试题百日百刷-kafka篇(四)
    锁屏面试题百日百刷,每个工作日坚持更新面试题。****请看到最后就能获取你想要的,接下来的是今日的面试题:1.为什么kafka可以实现高吞吐?单节点kafka的吞吐量也比其他消息队列大,为什么?Kafka是分布式消息系统,需要处理海量的消息,Kafka的设计是把所有的消息都写入速度低容量大的硬盘,......