RocketMQ HA机制(主从同步)

本人花费半年的时间总结的《Java面试指南》已拿腾讯等大厂offer,已开源在github ,欢迎star!

本文GitHub https://github.com/OUYANGSIHAI/JavaInterview 已收录,这是我花了6个月总结的一线大厂Java面试总结,本人已拿大厂offer,欢迎star

原文链接:blog.ouyangsihai.cn >> RocketMQ HA机制(主从同步)

温馨提示:建议参考代码RocketMQ4.4版本,4.5版本引入了多副本机制,实现了主从自动切换,本文并不关心主从切换功能。

初识主从同步

主从同步基本实现过程如下图所示:

RocketMQ 的主从同步机制如下:
A. 首先启动Master并在指定端口监听;
B. 客户端启动,主动连接Master,建立TCP连接;
C. 客户端以每隔5s的间隔时间向服务端拉取消息,如果是第一次拉取的话,先获取本地commitlog文件中最大的偏移量,以该偏移量向服务端拉取消息;
D. 服务端解析请求,并返回一批数据给客户端;
E. 客户端收到一批消息后,将消息写入本地commitlog文件中,然后向Master汇报拉取进度,并更新下一次待拉取偏移量;
F. 然后重复第3步;

RocketMQ主从同步一个重要的特征:主从同步不具备主从切换功能,即当主节点宕机后,从不会接管消息发送,但可以提供消息读取。

温馨提示:本文并不会详细分析RocketMQ主从同步的实现细节,如大家对其感兴趣,可以查阅笔者所著的《RocketMQ技术内幕》或查看笔者博文:https://blog.csdn.net/prestigeding/article/details/79600792

提出问题

  • 主,从服务器都在运行过程中,消息消费者是从主拉取消息还是从从拉取?
  • RocketMQ主从同步架构中,如果主服务器宕机,从服务器会接管消息消费,此时消息消费进度如何保持,当主服务器恢复后,消息消费者是从主拉取消息还是从从服务器拉取,主从服务器之间的消息消费进度如何同步?
  • RocketMQ主从同步架构中,如果主服务器宕机,从服务器会接管消息消费,此时消息消费进度如何保持,当主服务器恢复后,消息消费者是从主拉取消息还是从从服务器拉取,主从服务器之间的消息消费进度如何同步?

    接下来带着上述问题,一起来探究其实现原理。

    原理探究

    3.1 RocketMQ主从读写分离机制

    RocketMQ的主从同步,在默认情况下RocketMQ会优先选择从主服务器进行拉取消息,并不是通常意义的上的读写分离,那什么时候会从拉取呢?

    温馨提示:本节同样不会详细整个流程,只会点出其关键点,如果想详细了解消息拉取、消息消费等核心流程,建议大家查阅笔者所著的《RocketMQ技术内幕》。

    在RocketMQ中判断是从主拉取,还是从从拉取的核心代码如下:
    DefaultMessageStore#getMessage

    
    1long diff = maxOffsetPy - maxPhyOffsetPulling;  // @1
    2long memory = (long) (StoreUtil.TOTAL_PHYSICAL_MEMORY_SIZE
    3                            * (this.messageStoreConfig.getAccessMessageInMemoryMaxRatio() / 100.0));  // @2
    4getResult.setSuggestPullingFromSlave(diff  memory);   // @3
    

    代码@1:首先介绍一下几个局部变量的含义:

  • maxOffsetPy 当前最大的物理偏移量。返回的偏移量为已存入到操作系统的PageCache中的内容。

  • maxPhyOffsetPulling 本次消息拉取最大物理偏移量,按照消息顺序拉取的基本原则,可以基本预测下次开始拉取的物理偏移量将大于该值,并且就在其附近。

  • diff maxOffsetPy与maxPhyOffsetPulling之间的间隔,getMessage通常用于消息消费时,即这个间隔可以理解为目前未处理的消息总大小。

  • maxPhyOffsetPulling
    本次消息拉取最大物理偏移量,按照消息顺序拉取的基本原则,可以基本预测下次开始拉取的物理偏移量将大于该值,并且就在其附近。

    代码@2:获取RocketMQ消息存储在PageCache中的总大小,如果当RocketMQ容量超过该阔值,将会将被置换出内存,如果要访问不在PageCache中的消息,则需要从磁盘读取。

  • StoreUtil.TOTAL_PHYSICAL_MEMORY_SIZE 返回当前系统的总物理内存。

  • accessMessageInMemoryMaxRatio 设置消息存储在内存中的阀值,默认为40。 结合代码@2这两个参数的含义,算出RocketMQ消息能映射到内存中最大值为40% * (机器物理内存)。

  • accessMessageInMemoryMaxRatio
    设置消息存储在内存中的阀值,默认为40。
    结合代码@2这两个参数的含义,算出RocketMQ消息能映射到内存中最大值为40% * (机器物理内存)。

    代码@3:设置下次拉起是否从从拉取标记,触发下次从从服务器拉取的条件为:当前所有可用消息数据(所有commitlog)文件的大小已经超过了其阔值,默认为物理内存的40%。

    那GetResult的suggestPullingFromSlave属性在哪里使用呢?

    PullMessageProcessor#processRequest

    
     1if (getMessageResult.isSuggestPullingFromSlave()) {      // @1
     2responseHeader.setSuggestWhichBrokerId(subscriptionGroupConfig.getWhichBrokerWhenConsumeSlowly());
     3} else {
     4       responseHeader.setSuggestWhichBrokerId(MixAll.MASTER_ID);
     5}
     6switch (this.brokerController.getMessageStoreConfig().getBrokerRole()) {      // @2
     7       case ASYNC_MASTER:
     8       case SYNC_MASTER:
     9               break;
    10       case SLAVE:
    11               if (!this.brokerController.getBrokerConfig().isSlaveReadEnable()) {
    12                        response.setCode(ResponseCode.PULL_RETRY_IMMEDIATELY);
    13                        responseHeader.setSuggestWhichBrokerId(MixAll.MASTER_ID);
    14               }
    15              break;
    16 } 
    17
    18if (this.brokerController.getBrokerConfig().isSlaveReadEnable()) { // @3
    19            // consume too slow ,redirect to another machine
    20            if (getMessageResult.isSuggestPullingFromSlave()) {
    21                 responseHeader.setSuggestWhichBrokerId(subscriptionGroupConfig.getWhichBrokerWhenConsumeSlowly());
    22            }
    23           // consume ok
    24           else {
    25                responseHeader.setSuggestWhichBrokerId(subscriptionGroupConfig.getBrokerId());
    26           }
    27     } else {
    28           responseHeader.setSuggestWhichBrokerId(MixAll.MASTER_ID);
    29     }
    

    代码@1:如果从commitlog文件查找消息时,发现消息堆积太多,默认超过物理内存的40%后,会建议从从服务器读取。

    代码@2:如果当前服务器的角色为从服务器:并且slaveReadEnable=true,则忽略代码@1设置的值,下次拉取切换为从主拉取。

    代码@3:如果slaveReadEnable=true(从允许读),并且建议从从服务器读取,则从消息消费组建议当消息消费缓慢时建议的拉取brokerId,由订阅组配置属性whichBrokerWhenConsumeSlowly决定;如果消息消费速度正常,则使用订阅组建议的brokerId拉取消息进行消费,默认为主服务器。如果不允许从可读,则固定使用从主拉取。

    温馨提示:请注意broker服务参数slaveReadEnable,与订阅组配置信息:whichBrokerWhenConsumeSlowly、brokerId的值,在生产环境中,可以通过updateSubGroup命令动态改变订阅组的配置信息。

    如果订阅组的配置保持默认值的话,拉取消息请求发送到从服务器后,下一次消息拉取,无论是否开启slaveReadEnable,下一次拉取,还是会发往主服务器。

    上面的步骤,在消息拉取命令的返回字段中,会将下次建议拉取Broker返回给客户端,根据其值从指定的broker拉取。

    消息拉取实现PullAPIWrapper在处理拉取结果时会将服务端建议的brokerId更新到broker拉取缓存表中。

    在发起拉取请求之前,首先根据如下代码,选择待拉取消息的Broker。

    3.2 消息消费进度同步机制

    从上面内容可知,主从同步引入的主要目的就是消息堆积的内容默认超过物理内存的40%,则消息读取则由从服务器来接管,实现消息的读写分离,避免主服务IO抖动严重。那问题来了,主服务器宕机后,从服务器接管消息消费后,那消息消费进度存储在哪里?当主服务器恢复正常后,消息是从主服务器拉取还是从从服务器拉取?主服务器如何得知最新的消息消费进度呢?

    RocketMQ消息消费进度管理(集群模式):

    集群模式下消息消费进度存储文件位于服务端{ROCKETMQ_HOME}/store/config/consumerOffset.json。

    经过上面的分析,我们来讨论一下这个场景:
    消息消费者首先从主服务器拉取消息,并向其提交消息消费进度,如果当主服务器宕机后,从服务器会接管消息拉取服务,此时消息消费进度存储在从服务器,主从服务器的消息消费进度会出现不一致?那当主服务器恢复正常后,两者之间的消息消费进度如何同步?

    3.2.1 从服务定时同步主服务器进度

    如果Broker角色为从服务器,会通过定时任务调用syncAll,从主服务器定时同步topic路由信息、消息消费进度、延迟队列处理进度、消费组订阅信息。

    那问题来了,如果主服务器启动后,从服务器马上从主服务器同步消息消息进度,那岂不是又要重新消费?

    其实在绝大部分情况下,就算从服务从主服务器同步了很久之前的消费进度,只要消息者没有重新启动,就不需要重新消费,在这种情况下,RocketMQ提供了两种机制来确保不丢失消息消费进度。

    第一种,消息消费者在内存中存在最新的消息消费进度,继续以该进度去服务器拉取消息后,消息处理完后,会定时向Broker服务器反馈消息消费进度,在上面也提到过,在反馈消息消费进度时,会优先选择主服务器,此时主服务器的消息消费进度就立马更新了,从服务器此时只需定时同步主服务器的消息消费进度即可。

    第二种是,消息消费者在向主服务器拉取消息时,如果是是主服务器,在处理消息拉取时,也会更新消息消费进度。

    3.2.2 主服务器消息拉取时更新消息消费进度

    主服务器在处理消息拉取命令时,会触发消息消费进度的更新,其代码入口为:PullMessageProcessor#processRequest

    
    1boolean storeOffsetEnable = brokerAllowSuspend;  // @1
    2storeOffsetEnable = storeOffsetEnable && hasCommitOffsetFlag; 
    3storeOffsetEnable = storeOffsetEnable
    4            && this.brokerController.getMessageStoreConfig().getBrokerRole() != BrokerRole.SLAVE;  // @2
    5if (storeOffsetEnable) {
    6            this.brokerController.getConsumerOffsetManager().commitOffset(RemotingHelper.parseChannelRemoteAddr(channel),
    7                requestHeader.getConsumerGroup(), requestHeader.getTopic(), requestHeader.getQueueId(), requestHeader.getCommitOffset());
    8 }
    

    代码@1:首先介绍几个局部变量的含义:

  • brokerAllowSuspend:broker是否允许挂起,在消息拉取时,该值默认为true。
  • hasCommitOffsetFlag:消息消费者在内存中是否缓存了消息消费进度,如果缓存了,该标记设置为true。 如果Broker的角色为主服务器,并且上面两个变量都为true,则首先使用commitOffset更新消息消费进度。

  • hasCommitOffsetFlag:消息消费者在内存中是否缓存了消息消费进度,如果缓存了,该标记设置为true。
    如果Broker的角色为主服务器,并且上面两个变量都为true,则首先使用commitOffset更新消息消费进度。

    看到这里,主从同步消息消费进度的相关问题,应该就有了答案了。

    总结

    上述实现原理的讲解有点枯燥无味,我们先来回答如下几个问题:

    1、主,从服务器都在运行过程中,消息消费者是从主拉取消息还是从从拉取?
    答:默认情况下,RocketMQ消息消费者从主服务器拉取,当主服务器积压的消息超过了物理内存的40%,则建议从从服务器拉取。但如果slaveReadEnable为false,表示从服务器不可读,从服务器也不会接管消息拉取。

    2、当消息消费者向从服务器拉取消息后,会一直从从服务器拉取?
    答:不是的。分如下情况:
    1)如果从服务器的slaveReadEnable设置为false,则下次拉取,从主服务器拉取。
    2)如果从服务器允许读取并且从服务器积压的消息未超过其物理内存的30%,下次拉取使用的Broker为订阅组的brokerId指定的Broker服务器,该值默认为0,代表主服务器。
    3)如果从服务器允许读取并且从服务器积压的消息超过了其物理内存的30%,下次拉取使用的Broker为订阅组的whichBrokerWhenConsumeSlowly指定的Broker服务器,该值默认为1,代表从服务器。

    3、主从服务消息消费进是如何同步的?
    答:消息消费进度的同步时单向的,从服务器开启一个定时任务,定时从主服务器同步消息消费进度;无论消息消费者是从主服务器拉的消息还是从从服务器拉取的消息,在向Broker反馈消息消费进度时,优先向主服务器汇报;消息消费者向主服务器拉取消息时,如果消息消费者内存中存在消息消费进度时,主会尝试跟新消息消费进度。

    读写分离的正确使用姿势:
    1、主从Broker服务器的slaveReadEnable设置为true。
    2、通过updateSubGroup命令更新消息组whichBrokerWhenConsumeSlowly、brokerId,特别是其brokerId不要设置为0,不然从从服务器拉取一次后,下一次拉取就会从主去拉取。

    更多文章请关注微信公众号:

    RocketMQ HA机制(主从同步)

    原文始发于微信公众号(中间件兴趣圈):

    本人花费半年的时间总结的《Java面试指南》已拿腾讯等大厂offer,已开源在github ,欢迎star!

    本文GitHub https://github.com/OUYANGSIHAI/JavaInterview 已收录,这是我花了6个月总结的一线大厂Java面试总结,本人已拿大厂offer,欢迎star

    原文链接:blog.ouyangsihai.cn >> RocketMQ HA机制(主从同步)


     上一篇
    RocketMQ ACL使用指南 RocketMQ ACL使用指南
    什么是ACL?RocketMQ在4.4.0版本开始支持ACL。ACL是access control list的简称,俗称访问控制列表。访问控制,基本上会涉及到用户、资源、权限、角色等概念,那在RocketMQ中上述会对应哪些对象呢? 用户
    下一篇 
    RocketMQ 消息发送system busy、broker busy原因分析与解决方案 RocketMQ 消息发送system busy、broker busy原因分析与解决方案
    现象最近收到很多RocketMQ使用者反馈在消息发送过程中偶尔会出现如下4个错误信息之一: [REJECTREQUEST]system busy, start flow control for a while too many req