作者简介:大家好,我是smart哥,前中兴通讯、美团架构师,现某互联网公司CTO
联系qq:184480602,加我进群,大家一起学习,一起进步,一起对抗互联网寒冬
学习必须往深处挖,挖的越深,基础越扎实!
阶段1、深入多线程
阶段2、深入多线程设计模式
阶段3、深入juc源码解析
码哥源码部分
码哥讲源码-原理源码篇【2024年最新大厂关于线程池使用的场景题】
码哥讲源码-原理源码篇【揭秘join方法的唤醒本质上决定于jvm的底层析构函数】
码哥源码-原理源码篇【Doug Lea为什么要将成员变量赋值给局部变量后再操作?】
码哥讲源码【谁再说Spring不支持多线程事务,你给我抽他!】
打脸系列【020-3小时讲解MESI协议和volatile之间的关系,那些将x86下的验证结果当作最终结果的水货们请闭嘴】
在使用消息队列中的过程中,很可能会出现消息丢失的情况。本章我们就来分析哪些场景下可能出现消息丢失,然后继续以RabbitMQ和Kafka为例,介绍这两种消息队列是如何保证消息不丢失的。
一、丢失场景
一般来说,消息丢失无非就是发生在三个阶段: 生产者投递消息 、 消息队列存储消息 、 消费者消费消息 。
生产者投递消息:
生产者在写消息的过程中,由于网络等原因,导致消息队列没接收到消息,从而出现消息丢失的现象。
消息队列存储消息:
消息队列接受到消息后,一般先暂存到内存中,然后再持久化,如果在持久化前消息队列自身挂掉了,就可能导致消息丢失。
消费者消费消息:
消费者消费到了消息,但是还没来得及处理完成,然后就自己挂掉了,而消息队列则认为消费者已经处理完了。
二、RabbitMQ
我们先来看下RabbitMQ是如何应对上述三种消息丢失的场景的。
2.1 生产者投递消息丢失
RabbitMQ有两种方式可以保证生产者对消息的100%成功投递:事务机制、Confirm机制。
事务机制
- 生产者发送数据之前开启Rabbitmq事务
channel.txSelect
,然后发送消息; - 如果消息没有被接收到,生产者会收到异常报错,此时可以回滚事务
channel.txRollback
,然后重新发送; - 如果消息被接受,则可以提交事务
channel.txCommit
。
channel.txSelect(); //开启事务
try{
// 发送消息
}catch(Exception ex){
channel.txRollback(); //回滚事务
// 重新发送消息
}
channel.txCommit(); //提交事务
缺点:
RabbitMQ的事务机制是同步的,会导致吞吐量大幅下降。
Confirm机制
生产者可以开启confitm模式:
- 每次写消息时会给消息分配一个唯一id;
- 如果RabbitMQ收到了该消息,会回调生产者的
ack
接口,表示接受成功; - 如果RabbitMQ接受消息失败,会回调生产者的
nack
接口,表示接受或处理失败,生产者在nack方法内进行重试发送;
//开启confirm模式
channel.confirm();
// 发送消息,然后就不管了
send();
/**
* 消息成功被接受后回调
*/
public void ack(String messageId){
}
/**
* 消息接受失败时回调
*/
public void nack(String messageId){
send();
}
如果因为网络原因,这两个方法都没有被回调,生产者可以自己维护消息id的状态,对一些超时的消息,根据状态进行重发。
事务机制和confirm机制最大的不同在于:事务机制是同步的,会导致生产者线程阻塞。而Confirm机制是异步的,采用回调来确认消息是否发送成功,所以生产环境一般都用Confirm机制保证生产者对消息的100%可靠投递。
2.2 MQ故障丢失
因MQ故障而导致消息丢失的解决方案就是 持久化 。在RabbitMQ中开启持久化的方式如下:
- 创建queue时,将其设置为持久化,这样RabbitMQ会持久化queue的元数据;
- 生产者发送消息时,消息的
deliveryMode
设置为2,此时RabbitMQ就会将消息持久化到磁盘上去。
经过这样的设置,当RabbitMQ接受到消息然后持久化完成后,即使MQ挂了,重启后也可以从磁盘恢复queue和消息。但是还要注意一种情况:RabbitMQ接收到了消息,但是还没来得及持久化到磁盘,自己就挂了。此时,会导致MQ内存里的一点点数据丢失,但是这个概率是很小的。
我们可以配合生产者的confirm机制来解决上述问题。由于开启持久化后,只有消息被持久化到磁盘,才会回调生产者的ack接口,所以生产者在收不到ack的情况下,可以进行重发,这样哪怕持久化到磁盘前MQ自身挂了,也可以保证恢复后收到重发的消息。
2.3 消息投递后丢失
这种情况是因为消费者自身问题或网络问题造成的。RabbitMQ有一个消费者的autoAck机制,当消费者消费成功后,会自动通知RabbitMQ已经消费成功,此时如果消费者自身出现异常,就会导致消息丢失。
解决方案如下:
- 关闭RabbitMQ的消费者autoAck机制;
- 消费者消费完消息,自身逻辑处理成功后,再进行手动ack确认。(这种情况下,消费者必须要保证自身接口的幂等性)
三、Kafka
3.1 生产者投递消息丢失
Kafka可以通过一些配置来保证生产者对消息的100%可靠投递。
我们之前在《分布式框架之高性能:消息队列的可用性》一章中提到过,Kafka只有Leader节点会接受消息的读/写。Leader接受到生产发送来的消息后,只要当其它所有follower都同步成功,才会响应给生产者,否则生产者会不断重试,直到收到成功响应。
可以通过配置
ack=all
,来确保所有follower都进行消息同步。
3.2 MQ故障丢失
这种情况通常出现在Leader选举时:
- 某个partiton的Leader正在和其它Follower同步消息;
- 这个partiton所在的Broker突然挂了,部分Follower还没同步完成;
- 新选举的Leader刚好是之前没同步完成的,此时它就缺少了一些数据。
Kafka可以通过配置来解决这个问题,具体配置如下:
- topic设置
replication.factor
参数:值必须大于1,该参数用于配置每个topic的partition的副本数,即每份数据一共存在replication.factor+1
份拷贝; - kafka服务端设置
min.insync.replicas
参数:值必须大于1,这个是要求一个leader至少感知到有一个follower还跟自己保持联系,这样才能确保leader挂了还有一个follower候补; - producer端设置
acks=all
:这个是要求每条数据,必须是写入所有replica之后,才能认为是写成功了; - producer端设置
retries=MAX
:这个是要求生成者确保消息发送成功,一旦失败,就无限重试。
3.3 消息投递后丢失
我们之前在《分布式框架之高性能:消息队列的可用性》一章中提到过,消费者消费完消息后,会将消息的offset告知Kafka,表示这条消息已经被成功消费。
默认情况下,消费者会自动提交offset,如果此时消费者挂了,那么Kafka依然会认为消费者已经成功消费了该消息,从而出现消息丢失。
所以,Kafka对“消息投递后丢失”这一场景的问题处理方式和RabbitMQ类似,一般 消费者需要关闭自动提交offset ,等处理完消息后自己手动提交offset,就可以保证消息不会丢。但依然一样可能会出现重复消费问题,比如消费者刚处理完,还没提交offset结果自己挂了或因为网络原因Kafka没收到通知。所以消费者端仍然需要保证接口的幂等性。
四、总结
本章,我们介绍了在使用消息队列过程中出现消息丢失的几种场景,并以RabbitMQ和Kafka为例介绍了解决方案。总体来说,要保证消息不丢失,就是以下几种思路:
- 要保证消息投递的100%成功,基本思路就是消息队列的ack机制,以及生产者的最大努力投递;
- 要保证MQ故障消息不丢失,基本思路就是MQ自身做好持久化,或数据同步机制;
- 要保证消费者的100%消费成功,基本思路就是消费者的手动确认,以及消费者自身接口的幂等性保证。