八年来我们到底经历了什么?——中间件专家带你“重走”双11高可用架构演进之路

双11的技术挑战

双11技术挑战的本质使用用有限的成本去是实现最大化的用户体验和集群整体吞吐能力,用最合理的代价解决零点峰值,支撑好业务的狂欢。阿里做双11已经有八年之久了,八年来双11的交易额增长200倍,交易峰值增长400多倍,系统复杂度和大促支撑难度以指数级攀升;并且经过多年的发展,双11技术实现链条中的变量不断增加,如峰值的增量和系统架构的变化、交易峰值的组成、拆单比、每个业务入口的访问量等,这些变量也给系统带来了不确定性。回顾这八年的双11零点之战,它推动了阿里的技术进步、推动了架构优化,加速了技术演进和沉淀。

阿里的技术演进是一个螺旋向上的过程,整体高可用演进可以分为三个阶段:能力大促、精细大促、效率大促,下面来一一分析。

 

能力大促——3.0分布式架构

 

能力大促第一个要求是解决扩展性的问题。上图是淘宝3.0分布式架构,其意义在于让淘宝从一个集中化应用转变为分布化应用。在该架构中对业务进行了分层,同时在系统中首次使用中间件、分布式调用、分布式消息、分布式数据库;架构底层沉淀了分布式存储和缓存。目前而言,大部分互联网应用都是基于这一架构的,并且发展到现在,该架构并无太大的变化。

但随着双11业务量的增加,该架构面临着很多挑战:

(1)系统的可用性和故障恢复能力,以前集中化架构,出现问题回滚即可;现在由于涉及到众多分布式系统,快速排查和定位问题变得十分困难。

(2)分布式改造之后,单个系统存放在特定机房里,随着业务发展,机器数目的增加,机房应用层水平伸缩瓶颈、数据库链接等都成了挑战;

(3)IDC资源限制,单个城市已经不足以支撑业务的增长规模;

(4)容灾问题,单地域IDC单点、网络、台风、电力等导致高风险;

(5)国际化部署需求,可扩展性再次成为瓶颈。

 

针对上述挑战,我们采用了异地多活方案,具体从四个方面出发:首先建设异地单元机房;其次由于业务中买家维度数据远多于卖家维度数据,且卖家维度数据变化并非十分频繁,因此可以将流量按用户维度进行切分;此外,由于走向异地最大的挑战是网络,为了减少异地调用的延时,必须实现业务在本单元的封闭性,减少远程调用;最后,由于容灾的需求,数据层实时同步,保持最终一致。

异地多活架构

 

上图是异地多活架构,可以看出,从CDN到阿里内部的接入层都满足单元化规则,根据当前用户的ID,判断流量的出口;在下游的层层中间件上以及数据写入存储时会对用户请求进行判断,如出现异常,则报错,防止错误的数据写入。卖家的数据部署在中心,单元的数据会同步到中心,中心卖家的数据也会同步到各个单元,但在各个单元内只能对卖家的数据进行读操作。

那么异地多活的到底有什么意义呢?首先异地多活消除了IDC资源单点和容量瓶颈;其次解决了异地容灾问题,业务可以秒级快速切换;此外,异地多活简化了容量规划,提升了伸缩性和可维护性;最后,通过异地多活解决了可扩展性问题,为后续架构演进打下坚实基础。

能力大促——容量规划

 

对于上文提到的3.0架构,单机器的极限能力乘以机器数,在下游依赖都充足的情况下,近似等于整个系统的能力。因此,当前做容量规划,首先需要评估应用线上单机极限能力;再根据公式和经验推演容量规划。

目前,在阿里内部进行容量规划时,面临以下挑战:

  • 容量规划的目的是从用户登录到完成购买的整个链条中,整体资源如何合理分配?
  • 500+的核心系统、整个技术链条长、业务入口多、逻辑复杂;
  • 链路瓶颈点较多,每年大促峰值都会出现一些问题,无法提前发现;
  • 堆积木的容量规划方法,前面失之毫厘后面谬以千里;
  • 在能力评估时应该考虑的是一个处理链路而不仅仅是单一的应用;
  • 缺乏验证核心页面和交易创建链条实际承载能力的手段。

压测方案

 

为了应对上述挑战,我们需要从全链条的角度出发进行压测和容量规划。全链路压测是在线上集群模拟真实业务流量的读写压测,完成从网络、IDC、集群、应用、缓存、DB以及业务系统上下游依赖链条的容量、性能压力测试;整体压测通过自定义压测工具,大流量来自机房外部,进而构造线上测试数据,且业务模型接近真实;全链路压测隔离了测试数据和正常数据,两者之间互不影响,并且全链路压测时是对用户体验无感知、无影响的。

 

全链路压测通过复用中间件的能力,具有超大规模的集群压测能力,每秒千万QPS;同时将压测引擎部署到全球各地的CDN上,实现了分布式部署压测引擎,按照约定的时间发送压测数据;其次,压测数据是基于线上真实数据进行了脱敏和偏移,数据模型与双11极其接近;此外,实现了线程级隔离,无脏数据,压力测试直接作用于线上集群,暴露问题更加精准。

通过全链路压测,打破了不可预知技术风险的限制,加速技术进化;为新技术的尝试和突破做好保底和验收的工作;做到了主动发现问题而不是被动等待、应急处理;通过新的线上演练,为稳定性的确定性打下坚实基础。

能力大促——限流降级

 

限流降级是能力大促的必要要求。在双11开始前,尽管我们准备了大量的机器和能力,然而在双11零点到来时,真实业务量还是有可能大于我们的预期。此时,为了确保我们的机器不超负荷运作,我们采用了限流措施,超过机器极限的业务全部拒绝,避免系统因业务流量的突然过大而崩溃。目前,阿里能够做到从线程数、请求值、负载多个角度进行限流,从而保障系统的稳定。

分布式应用是默认下游应用是不可靠的,对于一些弱依赖的请求,应该进行提前自动降级。至于哪些应用需要降级?需要降级什么?下游的依赖又是什么?这些问题都是通过依赖治理来解决的。

 

精细大促——依赖治理

 

在阿里内部,依赖治理是通过中间件分布式链路跟踪技术,完成系统架构梳理;同时对海量调用链进行统计,得到链路各个依赖系统的稳定性指标;此外,结合业务用例识别强弱依赖,弱依赖可自动降级提供有损服务。

精细大促——开关预案

 

精细化双11控制的首要机制是开关预案。开关是让系统切换不同功能表现的标准技术,可以无需变更代码只推送配置控制系统行为,让系统的后门标准化。开关中心配置变更可以实时下发到集群,且操作行为对业务而言是原子性的。开关预案整合了一批业务开关、限流等操作,将多系统的后台操作组装批量执行;实现了预案推送是有顺序性的,保证业务切换的一致性和完整性。

精细大促——故障演练

 

统计学的数据显示:当服务规模大于一定数量时,硬件故障无法避免。因此,系统要面向失败做设计,测试系统健壮性的最佳方法,就是不要用正常方式使服务停机。对应线上系统,要实现容灾,首先需要实现背后工具体系的容灾。由于线上故障是一种常态,系统负责人要具备快速发现和处理故障的能力,需要实战机会来成长。另外,跨团队的流程也是需要加以重视,由于业务分布式的特性,出现故障时需要业务系统的上下游共同协作,这就对流程提出来严格的要求。

故障演练的实现方案

 

前期,我们将阿里电商常见的故障进行画像和分析,得到初步结论,按照IaaS、PaaS、SaaS层进行初步划分,但这个模型无法完全通用,并非包含所有的故障;因此,后期我们对这一模型又进一步抽象,将故障分为进程内的故障,如代码死循环等;进程外的故障,如磁盘读写速度变慢、网络波动等;分布式调用依赖的底层设施故障,如数据库、缓存活其他设施出现故障。

目前,阿里故障演练实现了业务零改造,可插拔式接入;多维度业务识别和故障注入,定量控制演练影响;沉淀通用故障模型,平台化输出演练能力。

 

从去年双11开始,阿里开始使用线上统一演练环境,通过逻辑隔离,动态扩展逻辑环境,按需租赁,简化测试步骤,使得演练结果更加真实;同时多套环境互不影响,严格保证环境的稳定和安全;支持用户、业务、数据、流量特征的分流和隔离,提高了效率,赋能业务创新。

 

效率大促——流量调度

 

在线上集群中,如果个别机器发生故障,为了保证业务的整体稳定性,需要对故障点进行流量调度。流量调度通过实时探测与监控分布式环境中每一台机器的状况,如果机器发生故障,则使用分布式服务具有的自我隔离和自我修复能力,使用流量调度和负载均衡机制,通过关注局部用户请求和用户体验,提升整体可用性。

 

未来挑战

尽管我们已经采用了很多措施来保障双11的稳定性,但未来,依旧面临着不少挑战:

  • 实现更加精细化、数据化、智能化的双11;
  • 从容量确定性到资源确定性,从每个实例部署在哪里最佳、精确到每个内核如何分配最佳;
  • 更加精准的分析、预测流量模型和业务模型,实现预测、引导相结合,逼近真实、增加确定性;
  • 实现技术变量的采集、分析、预测,数据分析驱动,自主决策处理,做到关键技术指标的预估错误系统做到自适应,弹性处理;
  • 在体验、成本和最大吞吐能力找到新的平衡点。

其他:

中间件高可用架构团队是阿里稳定性保障的核心团队,团队使命是构建稳定性基础设施,推动业务升级和架构改造,技术创造商业价值,机会、挑战、梦想非常大。现在招聘高可用产品研发、云产品研发的人才,如果你对我们团队感兴趣,请邮件zhongting.zy@taobao.com, 绿色通道极速面试,期待你的加入。

时间: 2024-08-01 17:49:44

八年来我们到底经历了什么?——中间件专家带你“重走”双11高可用架构演进之路的相关文章

从学渣到白帽黑客掌门 他到底经历了什么

今天讲一个"学渣"的故事. 蚂蚁金服的技术同学善攻,从一个几乎没有部门想要的新兵,到蚂蚁金服白帽黑客掌门,他说,起点不重要,重要的是,你自己. 时间给我的答案 我是我家亲戚小孩里面,学习成绩最渣的,踩线上了是一家没名气的二本. 高考前一天,我翻墙去网吧,被老爸逮到了.他并没有骂我,但他的眼神,我这辈子都忘不了. 念大学时,我收敛了许多,就是不想再让他失望了. 大四边考研边找工作,有家公司给我开了1888块钱一个月,但对方老板提了一个要求,我学的是VB,却要我用C++写一段程序,好在我自

遵循互联网架构“八荣八耻”,解析EWS高质量架构6个维度的20个能力

本文主要从最初的聚石塔容器服务EWS开始讲起,进而分享了EWS 高质量架构产品化的C2B方案和全渠道方案,着重说明了EWS的技术实现,包括EWS的总体架构以及EWS的功能实现等. 直播视频:点此进入 PDF下载:点此进入 以下是精彩内容整理:   聚石塔 聚石塔是阿里的电商云平台,聚石塔主要向商家提供电商云的支撑,能够更方便的和阿里做技术上和系统上的对接,所有的ISV和服务商开发的系统都部署在聚石塔上.今年整个零售平台提供了16字目标:聚焦体验.升级消费.赋能商家.繁荣生态.聚石塔扮演的是技术赋

有感 Visual Studio 2015 RTM 简介 - 八年后回归 Dot Net,终于迎来了 Mvc 时代,盼走了 Web 窗体时代

有感 Visual Studio 2015 RTM 简介 - 八年后回归 Dot Net,终于迎来了 Mvc 时代,盼走了 Web 窗体时代 太阳火神的美丽人生 (http://blog.csdn.net/opengl_es) 本文遵循"署名-非商业用途-保持一致"创作公用协议 转载请保留此句:太阳火神的美丽人生 -  本博客专注于 敏捷开发及移动和物联设备研究:iOS.Android.Html5.Arduino.pcDuino,否则,出自本博客的文章拒绝转载或再转载,谢谢合作. 关于

历年双11实战经历者:我们是如何做数据库性能优化及运维-CloudDBA和天象

8月24日阿里云数据库技术峰会上,阿里云高级DBA专家玄惭带来面对超大规模的数据库集群,尤其是在每年像双11这样重大促销活动中,阿里云是如何进行运维和优化的.本文主要介绍了天象和CloudDBA两个产品,包括他们的起源.基于系统画像仓库的应用.产品化等,最后对RDS产品的可诊断性建设和可运维性建设作了补充.   随着云数据库时代的到来,它的运维体系不仅仅包括保持数据库集群的稳定,同时我们还要关注用户体验.在业务上,体量大,用户各类,例如有公有云小客户,也有企业大客户,每类客户的需求都各式不一,众

海量存储之十八--一致性和高可用专题

我们已经在上面的分析中,我们已经看到observer模型在多机场景下的问题,所以,paxos模型的目标就是解决这个问题,他解决这个问题的方法就是quorum模型. 我的目标是让大家能弄明白,掌握这些复杂的概念,所以我也会将以前我在淘宝java中间件团队内分享时候,大家经常犯的一些错误,也写到[]里面,尽可能让大家少走弯路,如果有什么感想,疑问,后面可以留言. PS 广告插播 : 淘宝java中间件团队,你值得拥有:) ----PAXOS------ 好,我们回顾一下上下文,我们在上篇文章中谈到,

求助 编程 就业 能力-编程到底难不难?编程这一行业一定要智力很高么?

问题描述 编程到底难不难?编程这一行业一定要智力很高么? 我是一个"貌似"很热爱编程的人,我想把这个编程作为我的职业.我现在学的专业是临床医学,我觉得这个很烂,没兴趣,很抵触.我唯一能走的可能就是软件.但是,我不知道我是不是真正的能在这个领域做出什么成就来,不需要很高的成绩. 或者说,我不知道我到底适不适合干编程这行?这行业,将来会面临什么样的问题? 所以,我问问,这行业最难得是什么,不仅仅是知识方面,还有将来就业方面?或者,怎么才能知道我是不是叶公好龙,是不是真真适合这个行业?有没有

八年双11背后:新技术新能源成为新基础

本文讲的是八年双11背后:新技术新能源成为新基础[IT168 云计算]距离天猫双11还有不到两周时间,"剁手党"忙着往购物车里塞宝贝.卖家忙着备货和促销.金融系统忙着为"剁手党"和卖家提供收支两条业务的支持.物流系统也早已开始备战这场峰值压测-- 一年一度的双11已经演变成一场人类史上社会规模最大的经济运动会,虽然大家都隐约感觉到"电子商务"这词可能已经不能准确描述它了,但最早喊出这句话的还是阿里巴巴的创始人马云. "从明年开始,阿里巴

重走LFS之路:(八) 基础系统编译-1

重走LFS之路:(八) 基础系统编译-1 (题图来自: techradar.com)   从现在开始,我们进入真正意义上的LFS系统的基础系统编译. 这个阶段比较漫长,中间还有可能出现各种各样的问题,我会尽量翔实地记录遇到的各种状况和解决方案,以供后来参考. Linux-3.19 API Headers cd /src/linux-3.19 执行编译清理 cd /src/linux-3.19 重新编译 make INSTALL_HDR_PATH=dest headers_install 删除非必

经历过前几年为双11物流着急的消费者直呼今年快递给力

摘要: 昨日起,除全国一线城市外,新疆.青海等边远省份的消费者也迎来签收高峰.双11至今已有一周有余,经历过前几年为双11物流着急的消费者直呼今年快递给力.在物流畅通的背后是快 昨日起,除全国一线城市外,新疆.青海等边远省份的消费者也迎来签收高峰."双11"至今已有一周有余,经历过前几年为"双11"物流着急的消费者直呼今年快递给力.在物流畅通的背后是快递物流从业人员昼夜不停的奋力发货.揽收.派件.虽然还有包裹在路上,但被业内称做快递"春运"的&q