网站单个页面做301,汽车营销策划方案,广州做网站做得比较好,免费建站网站 百度一下消息可靠性
生产者重试机制
首先第一种情况#xff0c;就是生产者发送消息时#xff0c;出现了网络故障#xff0c;导致与MQ的连接中断。
为了解决这个问题#xff0c;SpringAMQP提供的消息发送时的重试机制。即#xff1a;当RabbitTemplate与MQ连接超时后#xff0c;…消息可靠性
生产者重试机制
首先第一种情况就是生产者发送消息时出现了网络故障导致与MQ的连接中断。
为了解决这个问题SpringAMQP提供的消息发送时的重试机制。即当RabbitTemplate与MQ连接超时后多次重试。
修改publisher模块的application.yaml文件添加下面的内容 spring:rabbitmq:connection-timeout: 1s # 设置MQ的连接超时时间template:retry:enabled: true # 开启超时重试机制initial-interval: 1000ms # 失败后的初始等待时间multiplier: 1 # 失败后下次的等待时长倍数下次等待时长 initial-interval * multipliermax-attempts: 3 # 最大重试次数注意当网络不稳定的时候利用重试机制可以有效提高消息发送的成功率。不过SpringAMQP提供的重试机制是阻塞式的重试也就是说多次重试等待的过程中当前线程是被阻塞的。 如果对于业务性能有要求建议禁用重试机制。如果一定要使用请合理配置等待时长和重试次数当然也可以考虑使用异步线程来执行发送消息的代码。 :::
生产者确认机制
一般情况下只要生产者与MQ之间的网路连接顺畅基本不会出现发送消息丢失的情况因此大多数情况下我们无需考虑这种问题。 不过在少数情况下也会出现消息发送到MQ之后丢失的现象比如
MQ内部处理消息的进程发生了异常生产者发送消息到达MQ后未找到Exchange生产者发送消息到达MQ的Exchange后未找到合适的Queue因此无法路由
针对上述情况RabbitMQ提供了生产者消息确认机制包括Publisher Confirm和Publisher Return两种。在开启确认机制的情况下当生产者发送消息给MQ后MQ会根据消息处理的情况返回不同的回执。
当消息投递到MQ但是路由失败时通过Publisher Return返回异常信息同时返回ack的确认信息代表投递成功临时消息投递到了MQ并且入队成功返回ACK告知投递成功持久消息投递到了MQ并且入队完成持久化返回ACK 告知投递成功其它情况都会返回NACK告知投递失败
其中ack和nack属于Publisher Confirm机制ack是投递成功nack是投递失败。而return则属于Publisher Return机制。 默认两种机制都是关闭状态需要通过配置文件来开启。
在publisher模块的application.yaml中添加配置
spring:rabbitmq:publisher-confirm-type: correlated # 开启publisher confirm机制并设置confirm类型publisher-returns: true # 开启publisher return机制这里publisher-confirm-type有三种模式可选
none关闭confirm机制simple同步阻塞等待MQ的回执correlatedMQ异步回调返回回执
一般我们推荐使用correlated回调机制。
定义ReturnCallback
每个RabbitTemplate只能配置一个ReturnCallback因此我们可以在配置类中统一设置。我们在publisher模块定义一个配置类
内容如下
package com.itheima.publisher.config;import lombok.AllArgsConstructor;
import lombok.extern.slf4j.Slf4j;
import org.springframework.amqp.core.ReturnedMessage;
import org.springframework.amqp.rabbit.core.RabbitTemplate;
import org.springframework.context.annotation.Configuration;import javax.annotation.PostConstruct;Slf4j
AllArgsConstructor
Configuration
public class MqConfig {private final RabbitTemplate rabbitTemplate;PostConstructpublic void init(){rabbitTemplate.setReturnsCallback(new RabbitTemplate.ReturnsCallback() {Overridepublic void returnedMessage(ReturnedMessage returned) {log.error(触发return callback,);log.debug(exchange: {}, returned.getExchange());log.debug(routingKey: {}, returned.getRoutingKey());log.debug(message: {}, returned.getMessage());log.debug(replyCode: {}, returned.getReplyCode());log.debug(replyText: {}, returned.getReplyText());}});}
}定义ConfirmCallback
由于每个消息发送时的处理逻辑不一定相同因此ConfirmCallback需要在每次发消息时定义。具体来说是在调用RabbitTemplate中的convertAndSend方法时多传递一个参数
这里的CorrelationData中包含两个核心的东西
id消息的唯一标示MQ对不同的消息的回执以此做判断避免混淆SettableListenableFuture回执结果的Future对象
将来MQ的回执就会通过这个Future来返回我们可以提前给CorrelationData中的Future添加回调函数来处理消息回执
我们新建一个测试向系统自带的交换机发送消息并且添加ConfirmCallback
Test
void testPublisherConfirm() {// 1.创建CorrelationDataCorrelationData cd new CorrelationData();// 2.给Future添加ConfirmCallbackcd.getFuture().addCallback(new ListenableFutureCallbackCorrelationData.Confirm() {Overridepublic void onFailure(Throwable ex) {// 2.1.Future发生异常时的处理逻辑基本不会触发log.error(send message fail, ex);}Overridepublic void onSuccess(CorrelationData.Confirm result) {// 2.2.Future接收到回执的处理逻辑参数中的result就是回执内容if(result.isAck()){ // result.isAck()boolean类型true代表ack回执false 代表 nack回执log.debug(发送消息成功收到 ack!);}else{ // result.getReason()String类型返回nack时的异常描述log.error(发送消息失败收到 nack, reason : {}, result.getReason());}}});// 3.发送消息rabbitTemplate.convertAndSend(hmall.direct, q, hello, cd);
}执行结果如下
可以看到由于传递的RoutingKey是错误的路由失败后触发了return callback同时也收到了ack。 当我们修改为正确的RoutingKey以后就不会触发return callback了只收到ack。 而如果连交换机都是错误的则只会收到nack。
注意 开启生产者确认比较消耗MQ性能一般不建议开启。而且大家思考一下触发确认的几种情况
路由失败一般是因为RoutingKey错误导致往往是编程导致交换机名称错误同样是编程错误导致MQ内部故障这种需要处理但概率往往较低。因此只有对消息可靠性要求非常高的业务才需要开启而且仅仅需要开启ConfirmCallback处理nack就可以了。
数据持久化
为了提升性能默认情况下MQ的数据都是在内存存储的临时数据重启后就会消失。为了保证数据的可靠性必须配置数据持久化包括
交换机持久化队列持久化消息持久化
我们以控制台界面为例来说明。
交换机持久化
在控制台的Exchanges页面添加交换机时可以配置交换机的Durability参数
设置为Durable就是持久化模式Transient就是临时模式。
队列持久化
在控制台的Queues页面添加队列时同样可以配置队列的Durability参数
除了持久化以外。
消息持久化
在控制台发送消息的时候可以添加很多参数而消息的持久化是要配置一个properties
说明在开启持久化机制以后如果同时还开启了生产者确认那么MQ会在消息持久化以后才发送ACK回执进一步确保消息的可靠性。 不过出于性能考虑为了减少IO次数发送到MQ的消息并不是逐条持久化到数据库的而是每隔一段时间批量持久化。一般间隔在100毫秒左右这就会导致ACK有一定的延迟因此建议生产者确认全部采用异步方式。
LazyQueue
在默认情况下RabbitMQ会将接收到的信息保存在内存中以降低消息收发的延迟。但在某些特殊情况下这会导致消息积压比如
消费者宕机或出现网络故障消息发送量激增超过了消费者处理速度消费者处理业务发生阻塞
一旦出现消息堆积问题RabbitMQ的内存占用就会越来越高直到触发内存预警上限。此时RabbitMQ会将内存消息刷到磁盘上这个行为成为PageOut. PageOut会耗费一段时间并且会阻塞队列进程。因此在这个过程中RabbitMQ不会再处理新的消息生产者的所有请求都会被阻塞。
为了解决这个问题从RabbitMQ的3.6.0版本开始就增加了Lazy Queues的模式也就是惰性队列。惰性队列的特征如下
接收到消息后直接存入磁盘而非内存消费者要消费消息时才会从磁盘中读取并加载到内存也就是懒加载支持数百万条的消息存储
而在3.12版本之后LazyQueue已经成为所有队列的默认格式。因此官方推荐升级MQ为3.12版本或者所有队列都设置为LazyQueue模式。
控制台配置Lazy模式
在添加队列的时候添加x-queue-modlazy参数即可设置队列为Lazy模式
代码配置Lazy模式
在利用SpringAMQP声明队列的时候添加x-queue-modlazy参数也可设置队列为Lazy模式
Bean
public Queue lazyQueue(){return QueueBuilder.durable(lazy.queue).lazy() // 开启Lazy模式.build();
}这里是通过QueueBuilder的lazy()函数配置Lazy模式。 当然我们也可以基于注解来声明队列并设置为Lazy模式
RabbitListener(queuesToDeclare Queue(name lazy.queue,durable true,arguments Argument(name x-queue-mode, value lazy)
))
public void listenLazyQueue(String msg){log.info(接收到 lazy.queue的消息{}, msg);
}更新已有队列为lazy模式
对于已经存在的队列也可以配置为lazy模式但是要通过设置policy实现。 可以基于命令行设置policy
rabbitmqctl set_policy Lazy ^lazy-queue$ {queue-mode:lazy} --apply-to queues 命令解读
rabbitmqctl RabbitMQ的命令行工具set_policy 添加一个策略Lazy 策略名称可以自定义^lazy-queue$ 用正则表达式匹配队列的名字{queue-mode:lazy} 设置队列模式为lazy模式--apply-to queues策略的作用对象是所有的队列
当然也可以在控制台配置policy进入在控制台的Admin页面点击Policies即可添加配置
消费者的可靠性
当RabbitMQ向消费者投递消息以后需要知道消费者的处理状态如何。因为消息投递给消费者并不代表就一定被正确消费了可能出现的故障有很多比如
消息投递的过程中出现了网络故障消费者接收到消息后突然宕机消费者接收到消息后因处理不当导致异常
一旦发生上述情况消息也会丢失。因此RabbitMQ必须知道消费者的处理状态一旦消息处理失败才能重新投递消息。 但问题来了RabbitMQ如何得知消费者的处理状态呢
本章我们就一起研究一下消费者处理消息时的可靠性解决方案。
消费者确认机制
为了确认消费者是否成功处理消息RabbitMQ提供了消费者确认机制Consumer Acknowledgement。即当消费者处理消息结束后应该向RabbitMQ发送一个回执告知RabbitMQ自己消息处理状态。回执有三种可选值
ack成功处理消息RabbitMQ从队列中删除该消息nack消息处理失败RabbitMQ需要再次投递消息reject消息处理失败并拒绝该消息RabbitMQ从队列中删除该消息
一般reject方式用的较少除非是消息格式有问题那就是开发问题了。因此大多数情况下我们需要将消息处理的代码通过try catch机制捕获消息处理成功时返回ack处理失败时返回nack.
由于消息回执的处理代码比较统一因此SpringAMQP帮我们实现了消息确认。并允许我们通过配置文件设置ACK处理方式有三种模式
**none**不处理。即消息投递给消费者后立刻ack消息会立刻从MQ删除。非常不安全不建议使用**manual**手动模式。需要自己在业务代码中调用api发送ack或reject存在业务入侵但更灵活**auto**自动模式。SpringAMQP利用AOP对我们的消息处理逻辑做了环绕增强当业务正常执行时则自动返回ack. 当业务出现异常时根据异常判断返回不同结果 如果是业务异常会自动返回nack如果是消息处理或校验异常自动返回reject;
通过下面的配置可以修改SpringAMQP的ACK处理方式
spring:rabbitmq:listener:simple:acknowledge-mode: none # 不做处理修改consumer服务的SpringRabbitListener类中的方法模拟一个消息处理的异常
RabbitListener(queues simple.queue)
public void listenSimpleQueueMessage(String msg) throws InterruptedException {log.info(spring 消费者接收到消息【 msg 】);if (true) {throw new MessageConversionException(故意的);}log.info(消息处理完成);
}测试可以发现当消息处理发生异常时消息依然被RabbitMQ删除了。
我们再次把确认机制修改为auto
spring:rabbitmq:listener:simple:acknowledge-mode: auto # 自动ack在异常位置打断点再次发送消息程序卡在断点时可以发现此时消息状态为unacked未确定状态
放行以后由于抛出的是消息转换异常因此Spring会自动返回reject所以消息依然会被删除
我们将异常改为RuntimeException类型
RabbitListener(queues simple.queue)
public void listenSimpleQueueMessage(String msg) throws InterruptedException {log.info(spring 消费者接收到消息【 msg 】);if (true) {throw new RuntimeException(故意的);}log.info(消息处理完成);
}在异常位置打断点然后再次发送消息测试程序卡在断点时可以发现此时消息状态为unacked未确定状态以后由于抛出的是业务异常所以Spring返回ack最终消息恢复至Ready状态并且没有被RabbitMQ删除 当我们把配置改为auto时消息处理失败后会回到RabbitMQ并重新投递到消费者。
失败重试机制
当消费者出现异常后消息会不断requeue重入队到队列再重新发送给消费者。如果消费者再次执行依然出错消息会再次requeue到队列再次投递直到消息处理成功为止。 极端情况就是消费者一直无法执行成功那么消息requeue就会无限循环导致mq的消息处理飙升带来不必要的压力
当然上述极端情况发生的概率还是非常低的不过不怕一万就怕万一。为了应对上述情况Spring又提供了消费者失败重试机制在消费者出现异常时利用本地重试而不是无限制的requeue到mq队列。
修改consumer服务的application.yml文件添加内容
spring:rabbitmq:listener:simple:retry:enabled: true # 开启消费者失败重试initial-interval: 1000ms # 初识的失败等待时长为1秒multiplier: 1 # 失败的等待时长倍数下次等待时长 multiplier * last-intervalmax-attempts: 3 # 最大重试次数stateless: true # true无状态false有状态。如果业务中包含事务这里改为false重启consumer服务重复之前的测试。可以发现
消费者在失败后消息没有重新回到MQ无限重新投递而是在本地重试了3次本地重试3次以后抛出了AmqpRejectAndDontRequeueException异常。查看RabbitMQ控制台发现消息被删除了说明最后SpringAMQP返回的是reject
结论
开启本地重试时消息处理过程中抛出异常不会requeue到队列而是在消费者本地重试重试达到最大次数后Spring会返回reject消息会被丢弃
失败处理策略
在之前的测试中本地测试达到最大重试次数后消息会被丢弃。这在某些对于消息可靠性要求较高的业务场景下显然不太合适了。 因此Spring允许我们自定义重试次数耗尽后的消息处理策略这个策略是由MessageRecovery接口来定义的它有3个不同实现
RejectAndDontRequeueRecoverer重试耗尽后直接reject丢弃消息。默认就是这种方式ImmediateRequeueMessageRecoverer重试耗尽后返回nack消息重新入队RepublishMessageRecoverer重试耗尽后将失败消息投递到指定的交换机
比较优雅的一种处理方案是RepublishMessageRecoverer失败后将消息投递到一个指定的专门存放异常消息的队列后续由人工集中处理。
1在consumer服务中定义处理失败消息的交换机和队列
Bean
public DirectExchange errorMessageExchange(){return new DirectExchange(error.direct);
}
Bean
public Queue errorQueue(){return new Queue(error.queue, true);
}
Bean
public Binding errorBinding(Queue errorQueue, DirectExchange errorMessageExchange){return BindingBuilder.bind(errorQueue).to(errorMessageExchange).with(error);
}2定义一个RepublishMessageRecoverer关联队列和交换机
Bean
public MessageRecoverer republishMessageRecoverer(RabbitTemplate rabbitTemplate){return new RepublishMessageRecoverer(rabbitTemplate, error.direct, error);
}完整代码如下
package com.itheima.consumer.config;import org.springframework.amqp.core.Binding;
import org.springframework.amqp.core.BindingBuilder;
import org.springframework.amqp.core.DirectExchange;
import org.springframework.amqp.core.Queue;
import org.springframework.amqp.rabbit.core.RabbitTemplate;
import org.springframework.amqp.rabbit.retry.MessageRecoverer;
import org.springframework.amqp.rabbit.retry.RepublishMessageRecoverer;
import org.springframework.context.annotation.Bean;Configuration
ConditionalOnProperty(name spring.rabbitmq.listener.simple.retry.enabled, havingValue true)
public class ErrorMessageConfig {Beanpublic DirectExchange errorMessageExchange(){return new DirectExchange(error.direct);}Beanpublic Queue errorQueue(){return new Queue(error.queue, true);}Beanpublic Binding errorBinding(Queue errorQueue, DirectExchange errorMessageExchange){return BindingBuilder.bind(errorQueue).to(errorMessageExchange).with(error);}Beanpublic MessageRecoverer republishMessageRecoverer(RabbitTemplate rabbitTemplate){return new RepublishMessageRecoverer(rabbitTemplate, error.direct, error);}
}业务幂等性
幂等是一个数学概念用函数表达式来描述是这样的f(x) f(f(x))例如求绝对值函数。 在程序开发中则是指同一个业务执行一次或多次对业务状态的影响是一致的。例如
根据id删除数据查询数据新增数据
但数据的更新往往不是幂等的如果重复执行可能造成不一样的后果。比如
取消订单恢复库存的业务。如果多次恢复就会出现库存重复增加的情况退款业务。重复退款对商家而言会有经济损失。
所以我们要尽可能避免业务被重复执行。 然而在实际业务场景中由于意外经常会出现业务被重复执行的情况例如
页面卡顿时频繁刷新导致表单重复提交服务间调用的重试MQ消息的重复投递
我们在用户支付成功后会发送MQ消息到交易服务修改订单状态为已支付就可能出现消息重复投递的情况。如果消费者不做判断很有可能导致消息被消费多次出现业务故障。 举例
假如用户刚刚支付完成并且投递消息到交易服务交易服务更改订单为已支付状态。由于某种原因例如网络故障导致生产者没有得到确认隔了一段时间后重新投递给交易服务。但是在新投递的消息被消费之前用户选择了退款将订单状态改为了已退款状态。退款完成后新投递的消息才被消费那么订单状态会被再次改为已支付。业务异常。
因此我们必须想办法保证消息处理的幂等性。这里给出两种方案
唯一消息ID业务状态判断
唯一消息ID
这个思路非常简单
每一条消息都生成一个唯一的id与消息一起投递给消费者。消费者接收到消息后处理自己的业务业务处理成功后将消息ID保存到数据库如果下次又收到相同消息去数据库查询判断是否存在存在则为重复消息放弃处理。
我们该如何给消息添加唯一ID呢 其实很简单SpringAMQP的MessageConverter自带了MessageID的功能我们只要开启这个功能即可。 以Jackson的消息转换器为例
Bean
public MessageConverter messageConverter(){// 1.定义消息转换器Jackson2JsonMessageConverter jjmc new Jackson2JsonMessageConverter();// 2.配置自动创建消息id用于识别不同消息也可以在业务中基于ID判断是否是重复消息jjmc.setCreateMessageIds(true);return jjmc;
}业务判断
业务判断就是基于业务本身的逻辑或状态来判断是否是重复的请求或消息不同的业务场景判断的思路也不一样。 处理消息的业务逻辑是把订单状态从未支付修改为已支付。因此我们就可以在执行业务时判断订单状态是否是未支付如果不是则证明订单已经被处理过无需重复处理。
相比较而言消息ID的方案需要改造原有的数据库所以我更推荐使用业务判断的方案。
以支付修改订单的业务为例我们需要修改OrderServiceImpl中的markOrderPaySuccess方法 Overridepublic void markOrderPaySuccess(Long orderId) {// 1.查询订单Order old getById(orderId);// 2.判断订单状态if (old null || old.getStatus() ! 1) {// 订单不存在或者订单状态不是1放弃处理return;}// 3.尝试更新订单Order order new Order();order.setId(orderId);order.setStatus(2);order.setPayTime(LocalDateTime.now());updateById(order);}上述代码逻辑上符合了幂等判断的需求但是由于判断和更新是两步动作因此在极小概率下可能存在线程安全问题。
我们可以合并上述操作为这样
Override
public void markOrderPaySuccess(Long orderId) {// UPDATE order SET status ? , pay_time ? WHERE id ? AND status 1lambdaUpdate().set(Order::getStatus, 2).set(Order::getPayTime, LocalDateTime.now()).eq(Order::getId, orderId).eq(Order::getStatus, 1).update();
}注意看上述代码等同于这样的SQL语句
UPDATE order SET status ? , pay_time ? WHERE id ? AND status 1我们在where条件中除了判断id以外还加上了status必须为1的条件。如果条件不符说明订单已支付则SQL匹配不到数据根本不会执行。
兜底方案
其实思想很简单既然MQ通知不一定发送到交易服务那么交易服务就必须自己主动去查询支付状态。这样即便支付服务的MQ通知失败我们依然能通过主动查询来保证订单状态的一致。 流程如下
图中黄色线圈起来的部分就是MQ通知失败后的兜底处理方案由交易服务自己主动去查询支付状态。
不过需要注意的是交易服务并不知道用户会在什么时候支付如果查询的时机不正确比如查询的时候用户正在支付中可能查询到的支付状态也不正确。 那么问题来了我们到底该在什么时间主动查询支付状态呢
这个时间是无法确定的因此通常我们采取的措施就是利用定时任务定期查询.
首先支付服务会正在用户支付成功以后利用MQ消息通知交易服务完成订单状态同步。其次为了保证MQ消息的可靠性我们采用了生产者确认机制、消费者确认、消费者失败重试等策略确保消息投递的可靠性最后我们还在交易服务设置了定时任务定期查询订单支付状态。这样即便MQ通知失败还可以利用定时任务作为兜底方案确保订单支付状态的最终一致性。
延迟消息
在电商的支付业务中对于一些库存有限的商品为了更好的用户体验通常都会在用户下单时立刻扣减商品库存。例如电影院购票、高铁购票下单后就会锁定座位资源其他人无法重复购买。
但是这样就存在一个问题假如用户下单后一直不付款就会一直占有库存资源导致其他客户无法正常交易最终导致商户利益受损
因此电商中通常的做法就是对于超过一定时间未支付的订单应该立刻取消订单并释放占用的库存。
例如订单支付超时时间为30分钟则我们应该在用户下单后的第30分钟检查订单支付状态如果发现未支付应该立刻取消订单释放库存。
但问题来了如何才能准确的实现在下单后第30分钟去检查支付状态呢
像这种在一段时间以后才执行的任务我们称之为延迟任务而要实现延迟任务最简单的方案就是利用MQ的延迟消息了。
在RabbitMQ中实现延迟消息也有两种方案
死信交换机TTL延迟消息插件
这一章我们就一起研究下这两种方案的实现方式以及优缺点。
死信交换机和延迟消息
死信交换机
当一个队列中的消息满足下列情况之一时可以成为死信dead letter
消费者使用basic.reject或 basic.nack声明消费失败并且消息的requeue参数设置为false消息是一个过期消息超时无人消费要投递的队列消息满了无法投递
如果一个队列中的消息已经成为死信并且这个队列通过**dead-letter-exchange**属性指定了一个交换机那么队列中的死信就会投递到这个交换机中而这个交换机就称为死信交换机Dead Letter Exchange。而此时加入有队列与死信交换机绑定则最终死信就会被投递到这个队列中。
死信交换机有什么作用呢
收集那些因处理失败而被拒绝的消息收集那些因队列满了而被拒绝的消息收集因TTL有效期到期的消息
延迟消息
前面两种作用场景可以看做是把死信交换机当做一种消息处理的最终兜底方案与消费者重试时讲的RepublishMessageRecoverer作用类似。
而最后一种场景大家设想一下这样的场景 如图有一组绑定的交换机ttl.fanout和队列ttl.queue。但是ttl.queue没有消费者监听而是设定了死信交换机hmall.direct而队列direct.queue1则与死信交换机绑定RoutingKey是blue
假如我们现在发送一条消息到ttl.fanoutRoutingKey为blue并设置消息的有效期为5000毫秒
注意尽管这里的ttl.fanout不需要RoutingKey但是当消息变为死信并投递到死信交换机时会沿用之前的RoutingKey这样hmall.direct才能正确路由消息。
消息肯定会被投递到ttl.queue之后由于没有消费者因此消息无人消费。5秒之后消息的有效期到期成为死信
死信被再次投递到死信交换机hmall.direct并沿用之前的RoutingKey也就是blue
由于direct.queue1与hmall.direct绑定的key是blue因此最终消息被成功路由到direct.queue1如果此时有消费者与direct.queue1绑定 也就能成功消费消息了。但此时已经是5秒钟以后了
也就是说publisher发送了一条消息但最终consumer在5秒后才收到消息。我们成功实现了延迟消息。
总结
注意 RabbitMQ的消息过期是基于追溯方式来实现的也就是说当一个消息的TTL到期以后不一定会被移除或投递到死信交换机而是在消息恰好处于队首时才会被处理。 当队列中消息堆积很多的时候过期消息可能不会被按时处理因此你设置的TTL时间不一定准确。 :::
DelayExchange插件
基于死信队列虽然可以实现延迟消息但是太麻烦了。因此RabbitMQ社区提供了一个延迟消息插件来实现相同的效果。 官方文档说明 Scheduling Messages with RabbitMQ | RabbitMQ - Blog
下载
插件下载地址 GitHub - rabbitmq/rabbitmq-delayed-message-exchange: Delayed Messaging for RabbitMQ
安装
因为我们是基于Docker安装所以需要先查看RabbitMQ的插件目录对应的数据卷。
docker volume inspect mq-plugins结果如下
[{CreatedAt: 2024-06-19T09:22:5908:00,Driver: local,Labels: null,Mountpoint: /var/lib/docker/volumes/mq-plugins/_data,Name: mq-plugins,Options: null,Scope: local}
]
插件目录被挂载到了/var/lib/docker/volumes/mq-plugins/_data这个目录我们上传插件到该目录下。
接下来执行命令安装插件
docker exec -it mq rabbitmq-plugins enable rabbitmq_delayed_message_exchange运行结果如下
声明延迟交换机
基于注解方式
RabbitListener(bindings QueueBinding(value Queue(name delay.queue, durable true),exchange Exchange(name delay.direct, delayed true),key delay
))
public void listenDelayMessage(String msg){log.info(接收到delay.queue的延迟消息{}, msg);
}基于Bean的方式
package com.itheima.consumer.config;import lombok.extern.slf4j.Slf4j;
import org.springframework.amqp.core.*;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;Slf4j
Configuration
public class DelayExchangeConfig {Beanpublic DirectExchange delayExchange(){return ExchangeBuilder.directExchange(delay.direct) // 指定交换机类型和名称.delayed() // 设置delay的属性为true.durable(true) // 持久化.build();}Beanpublic Queue delayedQueue(){return new Queue(delay.queue);}Beanpublic Binding delayQueueBinding(){return BindingBuilder.bind(delayedQueue()).to(delayExchange()).with(delay);}
}
发送延迟消息
发送消息时必须通过x-delay属性设定延迟时间
Test
void testPublisherDelayMessage() {// 1.创建消息String message hello, delayed message;// 2.发送消息利用消息后置处理器添加消息头rabbitTemplate.convertAndSend(delay.direct, delay, message, new MessagePostProcessor() {Overridepublic Message postProcessMessage(Message message) throws AmqpException {// 添加延迟消息属性message.getMessageProperties().setDelay(5000);return message;}});
}:::warning 注意 延迟消息插件内部会维护一个本地数据库表同时使用Elang Timers功能实现计时。如果消息的延迟时间设置较长可能会导致堆积的延迟消息非常多会带来较大的CPU开销同时延迟消息的时间会存在误差。 因此不建议设置延迟时间过长的延迟消息。