前言:
Kafka 作为一个 MQ 它肯定会有消息丢失的场景,那我们如何做到让 Kafka 的消息不丢失呢?本篇我们来剖析一下 Kafka 如何做到消息不丢失。
Kafka 系列文章传送门
Kafka 客户端工具使用分享【offsetexplorer】
Kafka 如何保证消息不丢失?
Kafka 有生产者、Broker、Consumer,这三个环节都可能有消息丢失的情况发生,下面我们就从这三个方面来分析 Kafka 是如何保证消息不丢失的。
生产者:
生产者发送消息到 Kafka 集群的时候,可能会因为网络等其他原因导致发送失败,因此我们可以需要一个机制告诉我们消息是否发送成功,如果没有发送成功就一直发送,直到消息发送成功为止,我们常用的 send(msg) 方法其实是异步发送,发送完消息后会立即返回,我们并不知道消息是否发送成功,为了保证消息一定能够发送成功,建议使用同步发送 send(msg).get() 方法或者带有回调的 send(msg,callback) 方法。
同时我们可以对生产者增加一些配置来保证消息不丢失,配置如下:
#0:表示消息发送后立即返回 无需等待 Leader 的任何确认 1:表示消息写入了 Leader 副本 -1: 表示需要等到消息写入到所有 ISR 同步副本中
spring.kafka.producer.acks = 1
#生产消息发送的重试次数
spring.kafka.producer.retries = 3
spring.kafka.producer.acks 各个值的含义如下:
- acks =0:表示生产者不需要等待任何 Broker 确认收到消息的回复,就可以继续发送下一条消息,性能最高,但是最容易丢消息,可以用在对性能要求很高,但对数据丢失不敏感的情况可以用这种。
- acks =1:需要保证 Leader 已经成功将消息写入本地 文件,但是不需要等待所有 ISR副本(同步副本)是否成功写入,就可以继续发送下一条消息,这种情况下,如果 ISR副本(同步副本)没有成功备份数据,而此时 Leader又挂掉,则消息会丢失。
- acks =-1:需要 Leader 及其所有的 ISR副本(同步副本)都成功写入日志,才可以继续发送下一条消息,这种策略会保证只要有一个副本存活就不会丢失数据,最大程度的保证了消息不会丢失。
Broker:
Broker 合理的使用持久化机制,ISR 副本同步机制可以最大程度的保证消息不丢失。
- 持久化存储:Kafka 使用持久化来存储消息,让消息在写入 Kafka 的时候被写入磁盘,这种方式可以防止消息因为节点宕机而丢失。
- ISR 副本复制机制:Kafka 使用 ISR 副本同步机制来保证消息不丢失,ISR 副本同步机制可以让一个分区有多个副本,且副本可以分布在不同的节点上,当某个节点宕机后,其他节点可以继续提供服务,保证消息不丢失。
消费者:
做为消费者只需要保证能够正确的消费消息,并正确的提交消息 offset 即可,Kafka 会记录每个消费者的偏移量,消费者每次消费消息的时候,都会将偏移量向后移动,当消费者挂掉或者 Kafka 宕机的时候,Kafka 会将该消费者的所消费的分区偏移量保存下来,当故障恢复后,消费者可以继续从上一次的偏移量开始消费,为了保证消息不丢失,我们使用手动提交偏移量即可,避免拉取了消息后,业务逻辑没有处理完的时候消费者挂掉了,但是提交了偏移量,导致消息丢失。
Consumer 需要关闭自动提交并开启手动提交,具体配置如下:
#消息 ACK 模式 有7种
spring.kafka.listener.ack-mode = manual
#是否开启手动提交 默认自动提交
spring.kafka.consumer.enable-auto-commit = false
Kafka 消息手动 ACK 案例演示
在演示 Kafka 手动 ACK 之前我们先了解一下 Kafka 的几种 ACK 的含义,也就是 AckMode 的枚举值的含义。
public static enum AckMode {
RECORD,
BATCH,
TIME,
COUNT,
COUNT_TIME,
MANUAL,
MANUAL_IMMEDIATE;
private AckMode() {
}
}
- RECORD:每一条记录被消费者消费之后提交。
- BATCH:当每一批 poll() 的消息被消费者处理之后提交,频率取决于 poll 的调用频率,是 Kafka 的默认提交方式,BATCH 模式适用于需要提高处理效率的场景,例如批量处理大量消息以减少网络传输和系统调用的开销。
- TIME:当每一批 poll()的数据被消费者处理之后,距离上次提交时间大于TIME时提交,如果当前时间有消息正在处理,则等当前消息处理完成在提交。
- COUNT:当每一批 poll()的数据被消费者监处理之后,被处理消息数量大于等于 COUNT 时提交,如果当前时间有消息正在处理,则等当前消息处理完成在提交。
- COUNT_TIME:TIME 或 COUNT 满足其中一个就提交。
- MANUAL:当每一批 poll()的数据被消费者监处理之后,手动调用 Acknowledgment.acknowledge() 先将 offset 存放到 map 本地缓存,在下一次 poll 之前从缓存拿出来批量提交。
- MANUAL_IMMEDIATE:当每一批 poll()的数据被消费者监处理之后,手动调用 Acknowledgment.acknowledge()后立即提交。
Kafka Producer
Kafka Producer 的代码同样很简单,这里我们使用了前面分享的同步、异步发送的的代码,具体如下:
package com.order.service.kafka.producer;
import lombok.extern.slf4j.Slf4j;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.kafka.support.SendResult;
import org.springframework.stereotype.Component;
import org.springframework.util.concurrent.ListenableFuture;
import org.springframework.util.concurrent.ListenableFutureCallback;
import java.text.SimpleDateFormat;
import java.util.Date;
/**
* @ClassName: SyncKafkaProducer
* @Author: Author
* @Date: 2024/10/22 19:22
* @Description: 同步发送消息
*/
@Slf4j
@Component
public class SyncKafkaProducer {
@Autowired
private KafkaTemplate<String, String> kafkaTemplate;
//同步发送消息
public void sendSyncMessage(String message) {
SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
String dateStr = sdf.format(new Date());
//同步发送消息
try {
kafkaTemplate.send("sync-topic", message).get();
} catch (Exception e) {
e.printStackTrace();
}
log.info("完成消息发送,当前时间:{}", dateStr);
}
//异步发送消息
public void sendAsyncMessage(String message) {
try {
//同步发送消息
ListenableFuture<SendResult<String, String>> listenableFuture = kafkaTemplate.send("sync-topic", message);
listenableFuture.addCallback(new ListenableFutureCallback<SendResult<String, String>>() {
@Override
public void onFailure(Throwable throwable) {
log.error("消费发送失败");
}
@Override
public void onSuccess(SendResult<String, String> stringStringSendResult) {
log.info("消息发送成功");
}
});
} catch (Exception e) {
e.printStackTrace();
}
}
}
Consumer 代码演示
Consumer 我们还是使用 @KafkaListener 来完成消息监听,在 Consumer 代码中,我们刻意模拟了除0异常。
package com.order.service.kafka.consumer;
import lombok.extern.slf4j.Slf4j;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.kafka.support.Acknowledgment;
import org.springframework.stereotype.Component;
/**
* @ClassName: ManualAckKafkaConsumer
* @Author: Author
* @Date: 2024/10/22 19:22
* @Description: 手动 ACK 消息消费
*/
@Slf4j
@Component
public class ManualAckKafkaConsumer {
@KafkaListener(id = "my-kafka-manual-consumer",
groupId = "my-kafka-consumer-manual-groupId-01",
topics = "sync-topic",
containerFactory = "myContainerFactory")
public void listen(String message, Acknowledgment acknowledgment) {
log.info("Manual ACK 消息消费成功,消息内容:{}", message);
int a = 1 / 0;
//手动提交 ACK
acknowledgment.acknowledge();
}
}
结果验证
2024-10-28 17:41:01.568 INFO 17764 --- [-consumer-0-C-1] c.o.s.k.consumer.ManualAckKafkaConsumer : Manual ACK 消息消费成功,消息内容:我是一条同步消息
结果符合预期,测试的是如果没有关闭除0 异常,客户端会不停的消费这条消息,因此我们在消息消费失败的时候也要注意做出合理处理,例如加入死信队列,避免消息一直在被消费而占用系统资源。
总结:本篇简单分享了 Kafka 如何保证消息不丢失,并分享了对应的手动 ACK 的代码案例,需要注意的是 Kafka 无法做到消息 100% 不丢失,至于 Kafka 为什么没办法做到消息 100% 不丢失,后面会做分享,欢迎持续关注。
如有不正确的地方欢迎各位指出纠正。
标签:ACK,kafka,发送,丢失,import,Kafka,消息 From: https://blog.csdn.net/weixin_42118323/article/details/143301010