RocketMq遇到过的线上问题-消息积压

2023-10-08 12:52

本文主要是介绍RocketMq遇到过的线上问题-消息积压,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在这里插入图片描述

在顺序消费消息的场景中,消息落后量(积压量)在上午8点后慢慢增加,最终在饭点达到了报警阈值…

为什么消息会积压?

当然是消费消息的速度赶不上消息生产的速度了啊,这里面又包含了三层信息,生产者太快、消费者太慢、生产者即太快消费者又太慢。于是乎开启“胡思乱想”模式得到了以下三个猜想

猜想一: 频繁的数据改动导致生产者短时间内生产消息过多,消费者来不及消费

猜想二: 生产者正常,但消费者消费消息出了点问题,导致消费过慢。如消费线程夯住,或者消费逻辑抛异常了,导致消费线程卡住,或逻辑不断的重试。新的消息需要继续消费,老的消息还要不断重试,消费者表示它比较累,它鸭梨山大,它觉得就像我们这届年轻人一样,承担了过多……

猜想三: 约等于猜想一加猜想二同时存在

问题发生后,需要先了解下这个生产者和消费者的相关信息

生产者是商品价格、状态等信息发生变更时即发MQ

消费者是统计商品的最大价格和最小价格等数据,因此需要顺序消费消息

简单聊聊顺序消息啊,顺序消息,即先发的消息先消费,后发的消息后消费,因此这里可以拆成三个维度的顺序性:

消息发送的顺序性
消息存储的顺序性
消息消费的顺序性

在这里插入图片描述
RocketMq的顺序消息采用的方案是分区有序,即保证单个队列的消费是顺序的,举个例子:

张三的订单-3经历了创建订单,支付订单、订单发货三个流程,李四的订单-4也是如此,现在要对它们顺序消费(不然先收到订单发货的消息,过一段时间才收到订单创建的消息你懵不懵啊)

1、从消息发送的角度来看
RcoketMq要保证订单-3的消息是顺序的,订单4的消息是顺序的,而订单3和订单4之间并不要求有序,如下图,RocketMq采用的方案是将订单3的消息都放在了队列1,订单4的消息都放在了队列2

在这里插入图片描述
2、从消息存储的角度来看
RocketMq采用了队列文件来存储消息,即先进先出,这里不做过多说明

3、 从消息消费的角度来看
对于顺序消息,RocketMq采用单线程来消费一个队列的消息,在上图中只有两个队列的情况下,顺序消息消费的最大并发度就只有2了,如下图:
在这里插入图片描述
总结一下,对于顺序消息,rocketMq的做法是:

消息发送的时候,对于需要保持顺序的消息需要发送到一个队列中

消息消费的时候,用单线程来消费一个队列中的消息

OK,下面就到了精彩的猜想验证环节~

1、猜想一验证
生产者是否发送了过多的消息,从MQ的监控就可得知,如下图:
在这里插入图片描述
可以发现,发送的消息量确实增加了,而且是这种锯齿状,明显是某种JOB任务

(此时已经开始意淫揪到某个小伙伴,把锅盖到他的头上,问他为什么发这么多消息)

但仔细一看,最高QPS也才105左右,而且从服务监控可以看到,消费逻辑耗时30ms左右,这样的话单线程每秒大概可以消费30个消息(因为顺序消息就是单线程消费),16个队列的话每秒大概可以同时消费480个消息(共4台消费者机器),完全没压力啊(此时感觉锅又到了我的头上,沉重无比)

因此猜想一PASS

2、 猜想二验证
猜想二指的是生产者消息发送正常,消费慢是由消费者引起的。根据猜想一可知,生产者发送的消息和平时相比已经增加了不少,因此猜想二PASS

3、 猜想三验证
生产者发送消息变多依然是事实,现在的关注点是:为什么消费者消费这么慢?

消费者消费慢有可能是因为消费逻辑出异常,消费不断重试导致的,这个很好验证,去看下消费者的错误日志即可,一片风平浪静。。

还有可能是消费线程夯住?这个可以通过消费者消费进度来验证,如果进度Consumer offset一直不变化的话,可以证明消费线程有卡住的可能性,然鹅,这里的消费进度也一直在变化,所以也不是此原因导致的。(下图是我随便找的一个例子的数据,和案例无关,案例发生较久远,下图的数据当时没保存。。)

Consumer offset指的是消费进度,消费越多,此值越大,Diff可以理解为消息积压数
在这里插入图片描述
所以现在的问题很明确了,就是消费慢,咋滴吧?

正在一筹莫展时,关注到一个震惊的数据!

队列0的数据比其他队列高了几个数量级,如下图

在这里插入图片描述
这就有意思了,敢情所有的消息基本都路由到队列0去了,而顺序消息是单线程消费,QPS也就30左右,所以就不断的积压呗

上面说顺序消息的时候,聊了下发送的顺序性,rocketmq会将要保证顺序的消息路由到一个队列,这个路由的算法是我们自定义的,如下:

int queueIndex = infoId%queueSize;

其中infoId是商品ID,采用雪花算法生成

queueSize为队列数量,这里为16

雪花算法在分库分表流量倾斜问题的排查与解决 已经详细介绍过,这里不再赘述,只列举雪花算法的二进制位组成,如下:

64ID = (42(毫秒)+8(业务编码)+5(机器ID)+9(重复累加))

需要注意的是后9位为毫秒内重复累加位,举个例子,在1毫秒内如果创建两个商品,那后9位分别是0和1。而创建商品是个相对低频的操作,毫秒内创建多个商品更是少之又少,因此大部分商品ID后9位基本是0

而路由算法是infoId % queueSize,在queueSize为2的幂次方的情况下,其算法等同于infoId &(queueSize-1),也就是infoId & 15,其二进制位运算如下图:

这里可以参考HashMap的桶定位算法,因为与运算的性能高于取余运算,
因此Hashmap将容量定义为2的n次幂,这样取余运算就可以转换为与运算,
即:hash%length==hash&(length-1)

在这里插入图片描述
可见二进制15的末四位为1,其余均为0,在只有后四位参与运算的情况下,商品ID末9位基本均为0,这也就导致了大部分数据路由到了0队列上

至此,真相大白

解决方案
将infoId再Hash一次,打破雪花算法的后9位规律,然后再做取余运算

int hash = hash(infoId);
int queueIndex = hash % queueSize;

极端情况下是有的,因为改变了队列的路由算法,在上线前后可能会导致同一个ID路由到不同的队列中,从而破坏了其顺序性

七、改造效果
下图可见消费QPS完全跟得上发送QPS

在这里插入图片描述
下图显示消费积压量也正常了

在这里插入图片描述

知识扩展
本部分内容属于扩展内容,可看可不看

  1. RocketMQ基础
    本部分不会大而全的讲述RocketMq的所有知识,而是有侧重的只关注和该问题相关的部分内容 在没有知识背景或问题背景关联的情况下,大而全的知识看完只会让你,额 ,很虚

  2. Rocketmq的架构
    在这里插入图片描述

RocketMQ 是一个分布式消息中间件,其整体架构可以分为以下几个部分:Producer:消息生产者,将消息发送到 RocketMQ 中。NameServer:命名服务,提供轻量级的服务发现和路由,维护 Broker 的状态信息。Broker:消息中转角色,存储、接收和转发消息,每个 Broker 可以存储多个 Topic 的消息。Consumer:消息消费者,从 Broker 消费消息。

举一个例子将上述的架构串一下:

比如有一个电商网站,需要使用 RocketMQ 来处理订单消息。订单消息由订单服务产生并发送到 RocketMQ 中,短信服务通过订阅 RocketMQ 中的订单主题,实现对订单消息的处理。如下图

在这里插入图片描述
具体的流程如下:

订单服务向NameServer获取订单主题所在的Broker的信息订单服务向该Broker发送订单消息。Broker(消息代理)将消息存储在自己的磁盘上,并返回确认消息给订单服务。短信服务向NameServer获取订单主题所在的Broker信息,并在初始化时订阅了订单主题当有新的订单消息产生时,Broker 会将消息推送给短信服务短信服务收到消息并进行处理。处理完成后,向 Broker 发送确认消息。
  1. Rocketmq的顺序消息
    顺序消息需要保证消息的全链路有序,在RocketMq中,即消息顺序发送,顺序存储,以及顺序消费
    在这里插入图片描述
    在顺序消息中,有两种常见的排序方式:全局有序和分区有序。

全局有序是指在整个消息系统中,所有的消息都按照特定的顺序进行排序。也就是说,对于所有的消息,无论它们来自哪个生产者,都按照同一种排序规则进行排序。

分区有序是指在消息系统中,将消息划分为多个分区,每个分区内的消息都按照特定的顺序进行排序,但不同分区之间的消息不保证有序。

举个例子来说,假设有一个电商系统,需要处理用户下单的消息。每个用户都有一个唯一的ID,为了保证处理订单的有序性,我们可以将消息系统中的订单消息按照用户ID进行分区,每个分区内的订单消息都按照订单创建时间进行排序,这样就能保证同一个用户的订单消息按照创建时间的先后顺序进行处理,而不同用户的订单消息则可能会以不同的顺序进行处理。这就是分区有序的例子。

另外,如果我们将整个消息系统中的所有订单消息都按照订单创建时间进行排序,这就是全局有序的例子。

总结时刻

首先明确消息积压的问题就是消息消费的速度赶不上消息生产的速度,但这里面依然有多种原因导致的,比如消费者线程消费线程夯住,producer消息路由不均衡,producer短时间内生产消息过多等等,对于不同的情况,有不同的判断方式。

RocketMq的顺序消息是分区有序,发送消息的时候采用路由算法将某个ID的消息路由到一个队列中,然后消费的时候采用单线程消费来保证单个队列消费的有序性

这篇关于RocketMq遇到过的线上问题-消息积压的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/165419

相关文章

解决pandas无法读取csv文件数据的问题

《解决pandas无法读取csv文件数据的问题》本文讲述作者用Pandas读取CSV文件时因参数设置不当导致数据错位,通过调整delimiter和on_bad_lines参数最终解决问题,并强调正确参... 目录一、前言二、问题复现1. 问题2. 通过 on_bad_lines=‘warn’ 跳过异常数据3

解决RocketMQ的幂等性问题

《解决RocketMQ的幂等性问题》重复消费因调用链路长、消息发送超时或消费者故障导致,通过生产者消息查询、Redis缓存及消费者唯一主键可以确保幂等性,避免重复处理,本文主要介绍了解决RocketM... 目录造成重复消费的原因解决方法生产者端消费者端代码实现造成重复消费的原因当系统的调用链路比较长的时

深度解析Nginx日志分析与499状态码问题解决

《深度解析Nginx日志分析与499状态码问题解决》在Web服务器运维和性能优化过程中,Nginx日志是排查问题的重要依据,本文将围绕Nginx日志分析、499状态码的成因、排查方法及解决方案展开讨论... 目录前言1. Nginx日志基础1.1 Nginx日志存放位置1.2 Nginx日志格式2. 499

kkFileView启动报错:报错2003端口占用的问题及解决

《kkFileView启动报错:报错2003端口占用的问题及解决》kkFileView启动报错因office组件2003端口未关闭,解决:查杀占用端口的进程,终止Java进程,使用shutdown.s... 目录原因解决总结kkFileViewjavascript启动报错启动office组件失败,请检查of

SpringBoot 异常处理/自定义格式校验的问题实例详解

《SpringBoot异常处理/自定义格式校验的问题实例详解》文章探讨SpringBoot中自定义注解校验问题,区分参数级与类级约束触发的异常类型,建议通过@RestControllerAdvice... 目录1. 问题简要描述2. 异常触发1) 参数级别约束2) 类级别约束3. 异常处理1) 字段级别约束

Python错误AttributeError: 'NoneType' object has no attribute问题的彻底解决方法

《Python错误AttributeError:NoneTypeobjecthasnoattribute问题的彻底解决方法》在Python项目开发和调试过程中,经常会碰到这样一个异常信息... 目录问题背景与概述错误解读:AttributeError: 'NoneType' object has no at

Spring的RedisTemplate的json反序列泛型丢失问题解决

《Spring的RedisTemplate的json反序列泛型丢失问题解决》本文主要介绍了SpringRedisTemplate中使用JSON序列化时泛型信息丢失的问题及其提出三种解决方案,可以根据性... 目录背景解决方案方案一方案二方案三总结背景在使用RedisTemplate操作redis时我们针对

RabbitMQ消息总线方式刷新配置服务全过程

《RabbitMQ消息总线方式刷新配置服务全过程》SpringCloudBus通过消息总线与MQ实现微服务配置统一刷新,结合GitWebhooks自动触发更新,避免手动重启,提升效率与可靠性,适用于配... 目录前言介绍环境准备代码示例测试验证总结前言介绍在微服务架构中,为了更方便的向微服务实例广播消息,

Kotlin Map映射转换问题小结

《KotlinMap映射转换问题小结》文章介绍了Kotlin集合转换的多种方法,包括map(一对一转换)、mapIndexed(带索引)、mapNotNull(过滤null)、mapKeys/map... 目录Kotlin 集合转换:map、mapIndexed、mapNotNull、mapKeys、map

nginx中端口无权限的问题解决

《nginx中端口无权限的问题解决》当Nginx日志报错bind()to80failed(13:Permissiondenied)时,这通常是由于权限不足导致Nginx无法绑定到80端口,下面就来... 目录一、问题原因分析二、解决方案1. 以 root 权限运行 Nginx(不推荐)2. 为 Nginx