RocketMQ 迈入50万TPS消息俱乐部

前言

消息团队一直致力于RocketMQ的性能优化,双十一前进行了低延时(毛刺)优化,保障了双十一万亿消息的流转如丝般顺滑,在2016年双十一种,MetaQ以接近万亿的消息总量支撑着全集团数千个应用,在系统解耦、削峰填谷、数据库同步、位点回滚消费等多种业务场景中,MetaQ都有精彩、稳定的表现。高可用低延迟,高并发抗堆积,2016双11的MetaQ真正做到了如丝般顺滑。

而最近通过对性能的持续优化,在RocketMQ最新的中小消息TPS已达47万,本人在F43机型上自测时TPS峰值为57万TPS,所以取了这么一个标题。

RocketMQ高性能优化探索

本章节简单介绍下在优化RocketMQ过程中用到的方法和技巧。部分方法在消息领域提升不明显却带来了编码和运维的复杂度,这类方法虽然最终没有利用起来,也在下面做了介绍供大家参考。

Java篇

在接触到内核层面的性能优化之前,Java层面的优化需要先做起来。有时候灵机一动的优化方法需要实现Java程序来进行测试,注意测试的时候需要在排除其他干扰的同时充分利用JVM的预热(JIT)特性。推荐使OpenJDK开发的基准测试(Benchmark)工具JMH

JVM停顿

影响Java应用性能的头号大敌便是JVM停顿,说起停顿,大家耳熟能详的便是GC阶段的STW(Stop the World),除了GC,还有很多其他原因,如下图所示。

当怀疑我们的Java应用受停顿影响较大时,首先需要找出停顿的类型,下面一组JVM参数可以输出详细的安全点信息:

-XX:+LogVMOutput -XX:LogFile=/dev/shm/vm.log -XX:+PrintGCApplicationStoppedTime -XX:+PrintSafepointStatistics  -XX:PrintSafepointStatisticsCount=1 -XX:+PrintGCApplicationConcurrentTime

在RocketMQ的性能测试中,发现存在大量的RevokeBias停顿,偏向锁主要是消除无竞争情况下的同步原语以提高性能,但考虑到RocketMQ中该场景比较少,便通过-XX:-UseBiasedLocking关闭了偏向锁特性。

停顿有时候会让我们的StopWatch变得很不精确,有一段时间经常被StopWatch误导,观察到一段代码耗时异常,结果花时间去优化也没效果,其实不是这段代码耗时,只是在执行这段代码时发生了停顿。停顿和动态编译往往是性能测试的两大陷阱。

GC

GC将Java程序员从内存管理中解救了出来,但也对开发低延时的Java应用带来了更多的挑战。对GC的优化个人认为是一项调整参数的工作,垃圾收集方面最值得关注的两个性能属性为吞吐量和延迟,对GC进行优化往往是寻求吞吐量和延迟上的折衷,没办法鱼和熊掌兼得。

RocketMQ通过GC调优后最终采取的GC参数如下所示,供大家参考。

-server -Xms8g -Xmx8g -Xmn4g-XX:+UseG1GC -XX:G1HeapRegionSize=16m -XX:G1ReservePercent=25 -XX:InitiatingHeapOccupancyPercent=30 -XX:SoftRefLRUPolicyMSPerMB=0 -XX:SurvivorRatio=8 -XX:+DisableExplicitGC-verbose:gc -Xloggc:/dev/shm/mq_gc_%p.log -XX:+PrintGCDetails -XX:+PrintGCDateStamps -XX:+PrintGCApplicationStoppedTime-XX:+PrintAdaptiveSizePolicy-XX:+UseGCLogFileRotation -XX:NumberOfGCLogFiles=5 -XX:GCLogFileSize=30m

可以看出,我们最终全部切换到了G1,16年双十一线上MetaQ集群采用的也是这一组参数,基本上GC时间能控制在20ms以内(一些超大的共享集群除外)。

对于G1,官方推荐使用该-XX:MaxGCPauseMillis设置目标暂停时间,不要手动指定-Xmn和-XX:NewRatio,但我们在实测中发现,如果指定过小的目标停顿时间(10ms),G1会将新生代调整为很小,导致YGC更加频繁,老年代用得更快,所有还是手动指定了-Xmn为4g,在GC频率不高的情况下完成了10ms的目标停顿时间,这里也说明有时候一些通用的调优经验并不适用于所有的产品场景,需要更多的测试才能找到最合适的调优方法,往往需要另辟蹊径。

同时也分享下我们在使用CMS时遇到的一个坑,-XX:UseConcMarkSweepGC在使用CMS收集器的同时默认在新生代使用ParNew, ParNew并行收集垃圾使用的线程数默认值更机器cpu数(<8时)或者8+(ncpus-8)*5/8,大量垃圾收集线程同时运行会带来大量的停顿导致毛刺,可以使用-XX:ParallelGCThreads指定并行线程数。

还有避免使用finalize()方法来进行资源回收,除了不靠谱以为,会加重GC的压力,原因就不赘述了。

另外,我们也尝试了Azul公司的商业虚拟机Zing,Zing采用了C4垃圾收集器,但Zing的长处在于GC的停顿时间不随堆的增长而变长,特别适合于超大堆的应用场景,但RocketMQ使用的堆其实较小,大多数的内存需要留给PageCache,所以没有采用Zing。我这里有一份MetaQ在Zing下的测试报告,感兴趣的可以联系我,性能确实不错。

线程池

Java应用里面总会有各式各样的线程池,运用线程池最需要考虑的两个因素便是:

  1. 线程池的个数,避免设置过多或过少的线程池数,过少会导致CPU资源利用率不够吞吐量低,过多的线程池会带来更多的同步原语、上下文切换、调度等方面的性能损失。
  2. 线程池的划分,需要根据具体的业务或者模块做详细的规划,线程池往往也起到了资源隔离的作用,RocketMQ中曾有一个重要模块和一个非重要模块共享一个线程池,在去年双十一的压测中,非重要模块因压力大占据了大部分的线程池资源,导致重要模块的业务发生饥饿,最终导致了无法恢复的密集FGC。

关于线程池个数的设置,可以参考《Java Concurrency in Practice》一书中的介绍:

需要注意的是,增加线程数并非提升性能的万能药,且不说多线程带来的额外性能损耗,大多数业务本质上都是串行的,由一系列并行工作和串行工作组合而成,我们需要对其进行合适的切分,找出潜在的并行能力。并发是不能突破串行的限制,需遵循Amdahl 定律

如果线程数设置不合理或者线程池划分不合理,可能会观察到虚假竞争,CPU资源利用不高的同时业务吞吐量也上不去。这种情况也很难通过性能分析工具找出瓶颈,需要对线程模型仔细分析,找出不合理和短板的地方。

事实上,对RocketMQ现存的线程模型进行梳理后,发现了一些不合理的线程数设置,通过对其调优,带来的性能提升非常可观。

CPU篇

CPU方面的调优尝试,主要在于亲和性和NUMA。

CPU亲和性

CPU亲和性是一种调度属性,可以将一个线程”绑定” 到某个CPU上,避免其在处理器之间频繁迁移。有一篇IBM的技术文章介绍得比较详细,可供参考

同时,有一个开源的Java库可以支持在Java语言层面调用API完成CPU亲和性绑定。参见Java-Thread-Affinity。该库给出了Thread如何绑定CPU,如果需要对线程池里面的线程进行CPU绑定,可以自定义ThreadFactory来完成。

我们通过对RocketMQ中核心线程进行CPU绑定发现效果不明显,考虑到会引入第三方库便放弃了此方法。推测效果不明显的原因是我们在核心链路上已经使用了无锁编程,避免上下文切换带来的毛刺现象。

上下文切换确实是比较耗时的,同时也具有毛刺现象,下图是我们通过LockSupport.unpark/park来模拟上下文切换的测试,可以看出切换平均耗时是微妙级,但偶尔也会出现毫秒级的毛刺。

通过Perf也观察到unpark/park也确实能产生上下文切换。

此外有一个内核配置项isolcpus,可以将一组CPU在系统中孤立出来,默认是不会被使用的,该参数在GRUB中配置重启即可。CPU被隔离出来后可以通过CPU亲和性绑定或者taskset/numactl来分配任务到这些CPU以达到最优性能的效果。

NUMA

对于NUMA,大家的态度是褒贬不一,在数据库的场景忠告一般是关掉NUMA,但通过了解了NUMA的原理,觉得理论上NUMA对RocketMQ的性能提升是有帮助的。

前文提到了并发的调优是不能突破Amdahl 定律的,总会有串行的部分形成短板,对于CPU来讲也是同样的道理。随着CPU的核数越来越多,但CPU的利用率却越来越低,在64核的物理机上,RocketMQ只能跑到2500%左右。这是因为,所有的CPU都需要通过北桥来读取内存,对于CPU来说内存是共享的,这里的内存访问便是短板所在。为了解决这个短板,NUMA架构的CPU应运而生。

如下图所示,是两个NUMA节点的架构图,每个NUMA节点有自己的本地内存,整个系统的内存分布在NUMA节点的内部,某NUMA节点访问本地内存的速度(Local Access)比访问其它节点内存的速度(Remote Access)快三倍<忘记该数据的出处了⊙▽⊙>。

RocketMQ通过在NUMA架构上的测试发现有20%的性能提升,还是比较可观的。特别是线上物理机大都支持NUMA架构,对于两个节点的双路CPU,可以考虑按NUMA的物理划分虚拟出两个Docker进行RocketMQ部署,最大化机器的性能价值。

感兴趣的同学可以测试下NUMA对自家应用的性能影响,集团机器都从BIOS层面关闭了NUMA,如果需要测试,按如下步骤打开NUMA即可:

  1. 打开BIOS开关:

    打开方式跟服务器相关。

  2. 在GRUB中配置开启NUMA
    vi /boot/grub/grub.conf添加boot参数:numa=on
  3. 重启
  4. 查看numa node个数
    numactl --hardware如果看到了>1个节点,即为支持NUMA

内存篇

可以将Linux内存分为以下三类:

《如丝般顺滑—METAQ2016双11总结》一文中比较详细地介绍了访存过程中需要注意的地方,同时给出了消除访问匿名内存和PageCache的方法。本章节介绍一些其它需要注意的地方。

页错误

我们知道,为了使用更多的内存地址空间切更加有效地管理存储器,操作系统提供了一种对主存的抽象概念——虚拟存储器(VM),有了虚拟存储器,就必然需要有从虚拟到物理的寻址。进程在分配内存时,实际上是通过VM系统分配了一系列虚拟页,此时并未涉及到真正的物理页的分配。当进程真正地开始访问虚拟内存时,如果没有对应的物理页则会触发缺页异常,然后调用内核中的缺页异常处理程序进行的内存回收和分配。

页错误分为两种:

  1. Major Fault, 当需要访问的内存被swap到磁盘上了,这个时候首先需要分配一块内存,然后进行disk io将磁盘上的内容读回道内存中,这是一系列代价比较昂贵的操作。
  2. Minor Fault, 常见的页错误,只涉及页分配。

为了提高访存的高效性,需要观察进程的页错误信息,以下命令都可以达到该目的:

1. ps -o min_flt,maj_flt <PID>2. sar -B

如果观察到Major Fault比较高,首先要确认系统参数vm.swappiness是否设置恰当,建议在机器内存充足的情况下,设置一个较小的值(0或者1),来告诉内核尽可能地不要利用磁盘上的swap区域,0和1的选择原则如下:

切记不要在2.6.32以后设置为0,这样会导致内核关闭swap特性,内存不足时不惜OOM也不会发生swap,前端时间也碰到过因swap设置不当导致的故障。

另一方面,避免触发页错误,内存频繁的换入换出,还有以下手段可以采用:

  1. -XX:+AlwaysPreTouch,顾名思义,该参数为让JVM启动时将所有的内存访问一遍,达到启动后所有内存到位的目的,避免页错误。
  2. 对于我们自行分配的堆外内存,或者mmap从文件映射的内存,我们可以自行对内存进行预热,有以下四种预热手段,第一种不可取,后两种是最快的。
  3. 即使对内存进行了预热,当内存不够时,后续还是会有一定的概率被换出,如果希望某一段内存一直常驻,可以通过mlock/mlockall系统调用来将内存锁住,推荐使用JNA来调用这两个接口。不过需要注意的是内核一般不允许锁定大量的内存,可通过以下命令来增加可锁定内存的上限。
    echo '* hard memlock      unlimited' >> /etc/security/limits.confecho '* soft memlock      unlimited' >> /etc/security/limits.conf

Huge Page

大家都知道,操作系统的内存4k为一页,前文说到Linux有虚拟存储器,那么必然需要有页表(Page Table)来存储物理页和虚拟页之间的映射关系,CPU访问存时首先查找页表来找到物理页,然后进行访存,为了提高寻址的速度,CPU里有一块高速缓存名为ranslation Lookaside Buffer (TLB),包含部分的页表信息,用于快速实现虚拟地址到物理地址的转换。

但TLB大小是固定的,只能存下小部分页表信息,对于超大页表的加速效果一般,对于4K内存页,如果分配了10GB的内存,那么页表会有两百多万个Entry,TLB是远远放不下这么多Entry的。可通过cpuid查询TLB Entry的个数,4K的Entry一般仅有上千个,加速效果有限。

为了提高TLB的命中率,大多数CPU支持大页,大页分为2MB和1GB,1GB大页是超大内存的不二选择,可通过grep pdpe1gb /proc/cpuinfo | uniq查看CPU是否支持1GB的大页。

开启大页需要配置内核启动参数,hugepagesz=1GB hugepages=10,设置大页数量可通过内核启动参数hugepages或者/proc/sys/vm/nr_hugepages进行设置。

内核开启大页过后,Java应用程序使用大页有以下方法:

  • 对于堆内存,有JVM参数可以用:-XX:+UseLargePages
  • 如果需要堆外内存,可以通过mount挂载hugetlbfs,mount -t hugetlbfs hugetlbfs /hugepages,然后通过mmap分配大页内存。

可以看出使用大页比较繁琐的,Linux提供透明超大页面 (THP)。THP 是可自动创建、管理和使用超大页面。可通过修改文件/sys/kernel/mm/transparent_hugepage/enabled来关闭或者打开THP。

但大页有一个弊端,如果内存压力大,需要换出时,大页会先拆分成小页进行换出,需要换入时再合并为大页,该过程会加重CPU的压力。LinkedIn有位工程师有一个比较有趣的尝试,在内存压力小的时候启用THP,在内存压力大的时候关闭THP,通过这种动态调整达到最优性能,可以看看他的论文:Ensuring High-performance of Mission-critical Java Applications in Multi-tenant Cloud Platforms

网卡篇

网卡性能诊断工具是比较多的,有ethtool, ip, dropwatch, netstat等,RocketMQ尝试了网卡中断和中断聚合两方面的优化手段。

网卡中断

这方面的优化首先便是要考虑是否需要关闭irqbalance,它用于优化中断分配,通过自动收集系统数据来进行中断负载,同时还会综合考虑节能等因素。但irqbalance有个缺点是会导致中断自动漂移,造成不稳定的现象,在高性能的场合建议关闭。

关闭irqbalance后,需要对网卡的所有队列进行CPU绑定,目前的网卡都是由多队列组成,如果所有队列的中断仅有一个CPU进行处理,难以利用多核的优势,所以可以对这些网卡队列进行CPU一一绑定。

这部分优化对RocketMQ的小消息性能提升有很大的帮助。

中断聚合

中断聚合的思想类似于Group Commit,避免每一帧的到来都触发一次中断,RocketMQ在跑到最大性能时,每秒会触发近20000次的中断,如果可以聚合一部分,对性能还是有一定的提升的。

可以通过ethtool设置网卡的rx-frames-irq和rx-usecs参数来决定凑齐多少帧或者多少时间过后才触发一次中断,需要注意的是中断聚合会带来一定的延迟。

总结

目前RocketMQ最新的性能基准测试中,128字节小消息TPS已达47W,如下图所示:

高性能的RocketMQ可应用于更多的场景,能接管和替代Kafka更多的生态,同时可以更大程度上承受热点问题,在保持高性能的同时,RocketMQ在低延迟方面依然具有领先地位,如下图所示,RocketMQ仅有少量10~50ms的毛刺延迟,Kafka则有不少500~1s的毛刺。

企业级互联网架构Aliware,让您的业务能力云化:https://www.aliyun.com/aliware

时间: 2024-10-20 23:32:38

RocketMQ 迈入50万TPS消息俱乐部的相关文章

百度联盟峰会即将拉开大幕 50万网站期待更多利好

中介交易 SEO诊断 淘宝客 云主机 技术大厅 4月17日消息,2012年联盟峰会将在5月底6月初揭开大幕.今年恰逢百度联盟10周年,站在一个新的起点,面向下一个10年,百度联盟将为50万合作伙伴带来哪些利好,为业界描绘怎样的产业趋势?这成为了大家共同期待的话题. 2011年百度CEO李彦宏曾在联盟峰会上做出大胆"预言"--互联网存在三大机会,即"中间页"."读图时代"以及"应用为王",互联网创业者们只需将自己最擅长的应用和业

苹果应用商店程序数量超50万总下载180亿次

网易科技讯 10月5日消息,苹果软件部门http://www.aliyun.com/zixun/aggregation/1719.html">高级副总裁Scott Forstall在新品发布会上表示,苹果应用程序商店目前的程序数量已经超过50万个,其中14万个是针对iPad的,总下载次数已经超过180亿次. Scott Forstall表示,目前苹果拥有10万个程序的开发者. 而这样的应用程序数量超过其他商店,在市场统计中,苹果iOS的移动设备拥有43%的市场,开发者也更愿意在用户更多的平

苹果将iAd广告最低收费标准降至50万美元

北京时间2月23日晚间消息,苹果日前宣布,将旗下移动广告平台iAd的最低收费门槛从100万美元降至50万美元,以增加iAd对小型广告主的吸引力. iAd刚推出时的最低准入门槛是100万美元,对一个刚起步的平台而言,这样的价格让人望而却步,只能吸引一些大品牌客户.分析人士称,此次降至50万美元后,可吸引一些小型品牌. 全球广告业巨头WPP集团旗下的数字分公司WPP Digita CEO马克·瑞德(Mark Read)称:"这是重要的一部,也是必要的一步,从100万美元降至50万美元必将使iAd平台

50万人申请悼念杰克逊5亿人次点击令网站瘫痪

后续报道 将于本周二在洛杉矶举行的迈克尔·杰克逊追思会,主办方采取网上随机抽签方式选出1.75万张门票的得票人,结果登记时间开始仅90分钟内,就有逾5亿人次点击,一度令网站瘫痪.到开始后7个小时为止,已有50万人正式登记. 香港媒体报道称,举行追思会的斯坦普斯中心(Staples Center)是NBA洛杉矶湖人队的主场,亦是迈克尔·杰克逊生前最后彩排的地方,他去世前两晚,就在那里为伦敦音乐会进行彩排.这次免费派发的1.75万张门票当中,有1.1万张是斯坦普斯中心的入场券,另外6500张是在毗邻

阿里云手机50万部只卖出7万部 正增加实体渠道

10月17日消息,据天宇朗通内部人士透露,由阿里巴巴联合天宇朗通推出的首款阿里云手机目前销售数量约7万部,远远低于两厂商之前的预估.据悉,天宇朗通实际备货数量为50万部,目前正在积极增加除网售以外的http://www.aliyun.com/zixun/aggregation/17302.html">传统渠道,争取年内在全国实体渠道规模铺货. 今年7月底,由首款阿里云手机天语W700正式上市销售,市场零售价定为2680元.在首发当天,阿里巴巴在淘宝网推出了为期20天的"60亿元现

分析师预计本周末iPhone销量可达50万部

北京时间6月19日凌晨消息,据国外媒体报道,投资银行Piper Jaffray的分析师吉尼·穆斯特(Gene Munster)周四称,由于苹果和AT&T将在周五开始销售iPhone3G S手机,预计iPhone本周末的销售表现良好. 根据穆斯特的预测,本周末iPhone销量将达50万部,相当于苹果发布3G版iPhone时销量的一半,但当时苹果是在21个国家首日发售3G版iPhone.与此相比,iPhone 3G S仅在8个国家首日发售,而且三天销售50万部也是很高的数字. 与前款iPhone相比

单词域名Talk.com被Google以50万美元价格收购

挖贝网7月1日消息 据业内人士透露,单词域名Talk.com近日被Google(谷歌)以50万美元的价格收购.Google中国公司人员未对此事件表态,称暂时未从Google总部传来相关的消息. 专业域名经纪人尊米网创办人王权锋表示,极品单词域名一直是互联网行业最热门的无形资产之一,早在1999年就已有business.com域名以750万美元的高价成交记录,近几年高价成交记录更是屡被刷新. 据悉,Google公司持有众多极品单词域名.传闻称,早先收购Picasa公司就是为了得到其持有的极品单词域

QQ空间不可忽视:2014元旦当天QQ空间活跃突破10亿次,每秒发送1.15万条消息

中介交易 SEO诊断 淘宝客 云主机 技术大厅 在微博.微信逐渐成为洋气社交圈的代表,备受年轻人青睐的当下,QQ 空间似乎老了,变成了"上个世纪"的产物.据统计,在 2013 年,QQ 空间 50~70 岁的老年用户比 2012 年增加了 30%. 当人们认为 QQ 空间"不酷"了的时候,另一组数据可能会颠覆你对这一社交网络的认知:2014 年元旦伊始,QQ 空间说说发表量在第一个小时内就超过了 2800 万;元旦当天24小时内,QQ空间内容发表量超过10亿次,其中

巨人宣布征途2S测试一周突破50万在线

新浪科技讯 4月23日早间消息,巨人网络旗下<征途2S>项目组今日宣布,该游戏已于20日晚间突破50万在线,创下近2年来自主研发网游在线人数新高,这距离该游戏公测仅一周时间.据悉,<征途2S>在4月20日开启了新服务器后,在线人数持续攀升,于当天晚上20点37分突破了50万人大关,当晚峰值达53.1万人.<征途2S>是<征途2>的全新升级作品,采用了全新微端技术,客户端仅50M,新玩家只需花 5分钟就能下载,<征途2>老玩家也可进行免费升级.该游