首页 > 其他分享 >Flink消费kafka获取kafka消息的offset

Flink消费kafka获取kafka消息的offset

时间:2022-10-12 15:36:23浏览次数:45  
标签:Flink flink partition offset import kafka public

参考:https://chengyanan.blog.csdn.net/article/details/112391375

虽然Flink消费kafka有着完善的checkpoint机制,可以使得程序停止后再次能从上一次的消费位点继续消费,但是有时候flink的checkpoint也会失败,或者checkpoint管理起来不够灵活,我们想自己维护kafka 的offset信息。
但是Flink封装的FlinkKafkaConsumer并不能直接的获取kafka 消息的offset
现在有两种实现方法,原理都是一样的,第二种就是知道这里可以改就行了,真正使用的时候还是第一种。

原理:将kafka消息的offset和partition信息整合到kafka消息中。

第一种最简单:
自定义MyKafkaDeserializationSchema,实现KafkaDeserializationSchema接口即可:
这里因为我的kafka消息已经是json串了,所以我把消息的offset 和 partition 信息直接插入到json里了。
如果 kafka中消息不是json串,那就可以自己组织数据结构,将 offset 和 partition 信息 插入到value信息中。

package com.qsds.flink.demo;
/**  

* 创建时间:2022年10月12日 下午2:32:11  
* 项目名称:flink  
* 文件名称:MyKafkaDeserializationSchema.java  
* 类说明:  
*/

import java.nio.charset.Charset;

import org.apache.flink.api.common.typeinfo.BasicTypeInfo;
import org.apache.flink.api.common.typeinfo.TypeInformation;
import org.apache.flink.streaming.connectors.kafka.KafkaDeserializationSchema;
import org.apache.kafka.clients.consumer.ConsumerRecord;

import com.alibaba.fastjson.JSONObject;

public class MyKafkaDeserializationSchema implements KafkaDeserializationSchema<String> {

    public static final Charset UTF_8 = Charset.forName("UTF-8");

    @Override
    public boolean isEndOfStream(String s) {
        return false;
    }

    @Override
    public String deserialize(ConsumerRecord<byte[], byte[]> consumerRecord) throws Exception {
        String value = new String(consumerRecord.value(), UTF_8.name());
        long offset = consumerRecord.offset();
        int partition = consumerRecord.partition();
        JSONObject jsonObject = JSONObject.parseObject(value);
        jsonObject.put("partition",partition);
        jsonObject.put("offset",offset);
        
        System.out.println("======================");
        System.out.println(jsonObject.toString());
        System.out.println("======================");
        return jsonObject.toString();
    }

    @Override
    public TypeInformation<String> getProducedType() {
        return BasicTypeInfo.STRING_TYPE_INFO;
    }
}

 

标签:Flink,flink,partition,offset,import,kafka,public
From: https://www.cnblogs.com/qsds/p/16784650.html

相关文章