参考:https://chengyanan.blog.csdn.net/article/details/112391375
虽然Flink消费kafka有着完善的checkpoint机制,可以使得程序停止后再次能从上一次的消费位点继续消费,但是有时候flink的checkpoint也会失败,或者checkpoint管理起来不够灵活,我们想自己维护kafka 的offset信息。
但是Flink封装的FlinkKafkaConsumer
并不能直接的获取kafka 消息的offset
现在有两种实现方法,原理都是一样的,第二种就是知道这里可以改就行了,真正使用的时候还是第一种。
原理:将kafka消息的offset和partition信息整合到kafka消息中。
第一种最简单:
自定义MyKafkaDeserializationSchema
,实现KafkaDeserializationSchema
接口即可:
这里因为我的kafka消息已经是json串了,所以我把消息的offset 和 partition 信息直接插入到json里了。
如果 kafka中消息不是json串,那就可以自己组织数据结构,将 offset 和 partition 信息 插入到value信息中。
package com.qsds.flink.demo; /** * 创建时间:2022年10月12日 下午2:32:11 * 项目名称:flink * 文件名称:MyKafkaDeserializationSchema.java * 类说明: */ import java.nio.charset.Charset; import org.apache.flink.api.common.typeinfo.BasicTypeInfo; import org.apache.flink.api.common.typeinfo.TypeInformation; import org.apache.flink.streaming.connectors.kafka.KafkaDeserializationSchema; import org.apache.kafka.clients.consumer.ConsumerRecord; import com.alibaba.fastjson.JSONObject; public class MyKafkaDeserializationSchema implements KafkaDeserializationSchema<String> { public static final Charset UTF_8 = Charset.forName("UTF-8"); @Override public boolean isEndOfStream(String s) { return false; } @Override public String deserialize(ConsumerRecord<byte[], byte[]> consumerRecord) throws Exception { String value = new String(consumerRecord.value(), UTF_8.name()); long offset = consumerRecord.offset(); int partition = consumerRecord.partition(); JSONObject jsonObject = JSONObject.parseObject(value); jsonObject.put("partition",partition); jsonObject.put("offset",offset); System.out.println("======================"); System.out.println(jsonObject.toString()); System.out.println("======================"); return jsonObject.toString(); } @Override public TypeInformation<String> getProducedType() { return BasicTypeInfo.STRING_TYPE_INFO; } }
标签:Flink,flink,partition,offset,import,kafka,public From: https://www.cnblogs.com/qsds/p/16784650.html