RocketMQ 客户端最佳实践

本文站在消费者和生产者的角度给出一些RocketMQ客户端使用的实践意见。

一、Producer最佳实践

发送消息注意事项

  1. 一个应用尽可能用一个Topic,消息子类型用tags来标识,tags可以由应用自由设置。只有发送消息设置了tags,消费方在订阅消息时,才可以利用tags在broker做消息过滤。

    message.setTags("TagA");
  2. 每个消息在业务层面的唯一标识码,要设置到keys字段,方便将来定位消息丢失问题。服务器会为每个消息创建索引(哈希索引),应用可以通过topic,key来查询这条消息内容,以及消息被谁消费。由于是哈希索引,请务必保证key尽可能唯一,这样可以避免潜在的哈希冲突。
  3. 消息发送成功或者失败,要打印消息日志,务必要打印sendresult和key字段。
    • SEND_OK,消息发送成功。
    • FLUSH_DISK_TIMEOUT,消息发送成功,但是服务器刷盘超时,消息已经进入服务器队列,只有此时服务器宕机,消息才会丢失。
    • FLUSH_SLAVE_TIMEOUT,消息发送成功,但是服务器同步到Slave时超时,消息已经进入服务器队列,只有此时服务器宕机,消息才会丢失。
    • SLAVE_NOT_AVAILABLE,消息发送成功,但是此时slave不可用,消息已经进入服务器队列,只有此时服务器宕机,消息才会丢失。
  4. 对于消息不可丢失应用,务必要有消息重发机制,例如如果消息发送失败,存储到数据库,能有定时程序尝试重发,或者人工触发重发。

消息发送失败如何处理

Producer的send方法本身支持内部重试,重试逻辑如下:

  • 至多重试3次。
  • 如果发送失败,则轮转到下一个Broker。
  • 这个方法的总耗时时间不超过sendMsgTimeout设置的值,默认10s。

所以,如果本身向broker发送消息产生超时异常,就不会再做重试。

以上策略仍然不能保证消息一定发送成功,为保证消息一定成功,建议应用这样做:

如果调用send同步方法发送失败,则尝试将消息存储到db,由后台线程定时重试,保证消息一定到达Broker。

上述db重试方式为什么没有集成到MQ客户端内部做,而是要求应用自己去完成,我们基于以下几点考虑:

  1. MQ的客户端设计为无状态模式,方便任意的水平扩展,且对机器资源的消耗仅仅是cpu、内存、网络。
  2. 如果MQ客户端内部集成一个KV存储模块,那么数据只有同步落盘才能较可靠,而同步落盘本身性能开销较大,所以通常会采用异步落盘,又由于应用关闭过程不受MQ运维人员控制,可能经常会发生kill -9这样暴力方式关闭,造成数据没有及时落盘而丢失。
  3. Producer所在机器的可靠性较低,一般为虚拟机,不适合存储重要数据。
    综上,建议重试过程交由应用来控制。

选择oneway形式发送

一个RPC调用,通常是这样一个过程

  1. 客户端发送请求到服务器
  2. 服务器处理该请求
  3. 服务器向客户端返回应答

所以一个RPC的耗时时间是上述三个步骤的总和,而某些场景要求耗时非常短,但是对可靠性要求并不高,例如日志收集类应用,此类应用可以采用oneway形式调用,oneway形式只发送请求不等待应答,而发送请求在客户端实现层面仅仅是一个os系统调用的开销,即将数据写入客户端的socket缓冲区,此过程耗时通常在微秒级。

二、Consumer 最佳实践

消费过程要做到幂等

RocketMQ目前无法避免消息重复,所以如果业务对消费重复非常敏感,务必要在业务层面去重,有以下几种去重方式:

  1. 将消息的唯一键,可以是msgId,也可以是消息内容中的唯一标识字段,例如订单Id等,消费之前判断是否在Db或Tair(全局KV存储)中存在,如果不存在则插入,并消费,否则跳过。(实际过程要考虑原子性问题,判断是否存在可以尝试插入,如果报主键冲突,则插入失败,直接跳过)。msgId一定是全局唯一标识符,但是可能会存在同样的消息有两个不同msgId的情况(有多种原因),这种情况可能会使业务上重复消费,建议最好使用消息内容中的唯一标识字段去重。
  2. 使用业务层面的状态机去重。

提高消费并行度

消费并行度与消费吞吐量关系如下图所示:

消费并行度与消费RT关系如下图所示:

绝大部分消息消费行为属于IO密集型,即可能是操作数据库,或者调用RPC,这类消费行为的消费速度在于后端数据库或者外系统的吞吐量,通过增加消费并行度,可以提高总的消费吞吐量,但是并行度增加到一定程度,反而会下降,如图所示,呈现抛物线形式。所以应用必须要设置合理的并行度。CPU密集型应用除外。

修改消费并行度方法如下所示:

  1. 同一个ConsumerGroup下,通过增加Consumer实例数量来提高并行度,超过订阅队列数的Consumer实例无效。可以通过加机器,或者在已有机器启动多个进程的方式。
  2. 提高单个Consumer的消费并行线程,通过修改以下参数
consumeThreadMin
consumeThreadMax

消息批量消费

某些业务流程如果支持批量方式消费,则可以很大程度上提高消费吞吐量,例如订单扣款类应用,一次处理一个订单耗时1秒钟,一次处理10个订单可能也只耗时2秒钟,这样即可大幅度提高消费的吞吐量,通过设置consumer的consumeMessageBatchMaxSize这个参数,默认是1,即一次只消费一条消息,例如设置为N,那么每次消费的消息数小于等于N。

跳过非重要消息

发生消息堆积时,如果消费速度一直追不上发送速度,可以选择丢弃不重要的消息,那么如何判断消息是否有堆积情况呢,可以加入如下代码逻辑:

public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs, ConsumeConcurrentlyContext context) {
    long offset = msgs.get(0).getQueueOffset();
    String maxOffset = //
         msgs.get(0).getProperty(Message.PROPERTY_MAX_OFFSET);
    long diff = Long.parseLong(maxOffset) - offset;
    if (diff > 100000) {
        // TODO 消息堆积情况的特殊处理
        return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
    }

    // TODO 正常消费过程
    return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
}

如以上代码所示,当某个队列的消息数堆积到100000条以上,则尝试丢弃部分或全部消息,这样就可以快速追上发送消息的速度。

优化每条消息消费过程

举例如下,某条消息的消费过程如下:

  1. 根据消息从DB查询数据1
  2. 根据消息从DB查询数据2
  3. 复杂的业务计算
  4. 向DB插入数据3
  5. 向DB插入数据4

这条消息的消费过程与DB交互了4次,如果按照每次5ms计算,那么总共耗时20ms,假设业务计算耗时5ms,那么总过耗时25ms,如果能把4次DB交互优化为2次,那么总耗时就可以优化到15ms,也就是说总体性能提高了40%。

对于Mysql等DB,如果部署在磁盘,那么与DB进行交互,如果数据没有命中cache,每次交互的RT会直线上升,如果采用SSD,则RT上升趋势要明显好于磁盘。个别应用可能会遇到这种情况:
在线下压测消费过程中,db表现非常好,每次RT都很短,但是上线运行一段时间,RT就会变长,消费吞吐量直线下降。

主要原因是线下压测时间过短,线上运行一段时间后,cache命中率下降,那么RT就会增加。建议在线下压测时,要测试足够长时间,尽可能模拟线上环境,压测过程中,数据的分布也很重要,数据不同,可能cache的命中率也会完全不同。

时间: 2024-09-02 05:27:49

RocketMQ 客户端最佳实践的相关文章

Apache RocketMQ背后的设计思路与最佳实践

阿里中间件官网:https://www.aliyun.com/aliware 演讲嘉宾介绍:冯嘉(花名鼬神),阿里巴巴中间件架构师,具有丰富的分布式软件架构.高并发网站设计.性能调优经验,拥有多项分布式.推荐领域的专利.开源爱好者,关注分布式.云计算.大数据领域.目前主要负责阿里巴巴消息中间件生态输出.MQ商业化 ,Apache RocketMQ 联合创始人,社区布道者,目前主要负责Apache RocketMQ的云端商业化版本Aliware MQ. 本次的分享主要围绕了以下四个议题: 一.分布

【直播】React、AliSQL、BeeHive、JStorm等8大阿里开源项目最佳实践分享

  本次峰会精选了目前较为活跃的阿里开源项目,其中较为有看点的是:在GitHub上拥有超过一万Star.在阿里内部落地超过400个项目的React 组件库 antd在蚂蚁金服的实践:MariaDB基金会唯一的中国成员详解AliSQL功能特性:已在天猫.喵师傅,天猫家装等App中应用大型iOS项目解耦方法--BeeHive:Android平台页面路由框架ARouter的一手开发经验:开源的 Android 平台上的秒级编译方案.阿里巴巴 Github 下排行前十的开源项目Freeline背后的奥秘

感受开源之力,参加“阿里开源项目最佳实践”峰会5大理由!

开源是孵化新技术领域的容器,开源是技术演进的强大推动力.多年来,阿里巴巴集团一直积极拥抱开源事业,无论是开源软件的应用.回馈以至自研技术的开源都非常活跃.2016年更是阿里技术开源的丰收年:73款产品开源.JStorm.RocketMQ.Weex三连捐Apache基金会.Weex在GitHub上Star破万.阿里云成为MySQL开源分支 WebScaleSQL 的发起成员:不仅量多而且质精:在开源中国公布的"2016年最受欢迎中国开源软件评选"的结果中,阿里巴巴独占TOP20中的4席.

DMS前后端技术揭秘及最佳实践

不同于一般的存储和计算产品,云上DMS上属于操作类产品,目的是为用户提供更高更强的数据库访问能力,减少成本以提高效率.本文中,来自阿里巴巴数据库事业部的钟隐分享<DMS前后端技术揭秘及最佳实践>,介绍云上DMS,即数据库管理服务的整体应用和实践. DMS最佳实践 云上DMS从2013年年底上线,从最初仅支持MySQL基本功能,已覆盖了多种RDBMS.NoSQL及部分分析型数据库在内的13种数据源,同时在多种数据库中逐步提供了传统数据库软件所不具有的专业功能,时间有限,我们仅列举4个不同角度的最

ajax返回多个值:5个Ajax最佳实践

导读:通过对5个最佳实践的学习,开发人员可将其应用到日常的Asynchronous JavaScript + XML( Ajax )开发工作中.文章包括了数据格式.错误处理.以及一些采用Ajax的Rich Internet Applications(RIAs)开发工具.掌握这些最佳实践,有助于开发人员编写更加高效且健壮的Ajax代码.本文所介绍的5个最佳实践,可以应用到Web应用程序Ajax开发工作中:一.最小化调用二.让数据变小三.预加载组件四.轻松实现错误处理五.使用现有工具这些最佳实践,有

J2EE架构学习者的6个最佳实践

j2ee|架构 虽然许多文章曾经讨论过J2EE最佳实践.那么,为什么我还要再写一篇文章呢?本文究竟与以前的文章有何不同或者说比其他文章好在哪呢? 首先,本文的目标读者是正在从事技术工作的架构师.为了避免浪费大家的才智,我会避免讲述一些陈腐的最佳实践,例如"日常构建(build daily)"."测试一切(test everything)"和"经常集成( integrate often). 任何具有称职架构师的项目都有分工明确的.定义良好的团队结构.他们还为

SQL Server 2005报表设计:最佳实践和指导

本文包含了Microsoft SQL Server报表服务报表设计的技巧和最佳实践.本文提供一些基本的设计问题和一些报表服务的功能. 关于这篇文档 从使用数据控件,到使用什么格式,到如何分发报表,报表制作者面对着很多种选择.Microsoft SQL Server 报表服务提供了丰富的报表设计和格式的支持,从基于纸介质表格报表到带有图片和钻取功能的交互式报表 这篇文档包括了报表制作和设计中的指导.建议和技巧.本文档的目的在于解释一般性的问题并对初学者提供指导建议.报表服务联机丛书提供了报表的制作

J2EE架构的6个最佳实践

j2ee|架构 虽然许多文章曾经讨论过J2EE最佳实践.那么,为什么我还要再写一篇文章呢?本文究竟与以前的文章有何不同或者说比其他文章好在哪呢? 首先,本文的目标读者是正在从事技术工作的架构师.为了避免浪费大家的才智,我会避免讲述一些陈腐的最佳实践,例如"日常构建(build daily)"."测试一切(test everything)"和"经常集成( integrate often). 任何具有称职架构师的项目都有分工明确的.定义良好的团队结构.他们还为

ADO.NET最佳实践(上)

ado     概述:     本文在微软站点资源的基础上加工整理而成,意在介绍在你的ADO.NET应用程序中执行和完成性能优化.稳定性和功能性方面提供最佳的解决方案:同时也包含在ADO.NET中运用已有的数据对象进行开发的最佳实践和帮助你怎样设计ADO.NET应用程序提供建议.     本文包含以下内容:     1..NET框架中的data providers:     2.对照DataSet和DataReader,分别介绍他们的最佳用途:     3.如何使用DataSet.Command