阿里巴巴开放内部高速缓存系统Tair 多年双11锤炼

日前,阿里云对内存数据库产品Memcache(AliCloudDB for Memcache,原开放缓存服务OCS)进行了性能升级,在保证系统稳定性的基础上,大幅提高了系统的响应速度,可以有效的帮助用户系统缓解后端存储压力。

产品经理王义成介绍,作为阿里云内存数据库代表,Memcache提供了业内最大的256G缓存配置,单实例最大可提供峰值72万的QPS(每秒处理请求数)和512MB/s的吞吐量,可有效减轻App、Web等对数据库的压力,从而提高网站整体的响应速度。

据了解,游戏、O2O、电商、金融等行业的众多客户已选择将线上部分核心业务放在阿里云进行数据加速或存储。

截至目前,阿里云已拥有超过5款细分云数据库产品,分别是RDS、MongoDB、Redis、Memcache,加上即将公测的云数据库PetaData版,可满足95%数据库兼容需求,同时具备容灾、备份、恢复、监控、迁移等整体解决方案。

高频访问数据放进内存

王义成表示,像支付宝、淘宝、天猫这种对访问量要求极高的安全类业务或大型促销秒杀系统,系统整体访问压力非常大,一般的数据库根本无法承载这样的读取压力,就需要选择一款高性能的存储容器。

云数据库Memcache版采用分布式架构,单实例最大可提供峰值72万的QPS和512MB/s的吞吐量,提供了256G的业内最大的缓存数据库配置。

当用户遇到需要维护大量热数据时,例如社交网络、电子商务、游戏、广告等,可以将访问频度非常高的数据存储在全内存版本的云数据库Memcache版中,大幅度提升业务系统性能,有效降低对数据库的访问压力。

“Memcache可以作为数据库缓存使用。”王义成表示,“与一般的数据库相比,内存数据库响应速度快,请求时延通常在几毫秒以内,同时能够支持更高的QPS。”

与本地自建Memcache不同,
Memcache的硬件和数据部署在云端,有完善的基础设施、网络安全保障、系统维护服务,只需按量付费即可使用而无需增加IT投入。

此外,阿里云提供了比原生Memcache更高等级的安全保障,包括高安全的SASL用户认证机制及用户白名单、VPC等多重安全机制,让数据高枕无忧。

 

源自阿里内部开源存储引擎Tair

云数据库Memcache版的前身是阿里巴巴自主研发的高速缓存系统Tair。作为阿里巴巴自主研发的高性能、分布式、可扩展、高可靠的key/value存储系统,Tair在淘宝网、天猫、聚划算等有着大规模的应用。

王义成透露,Tair的使用场景非常广泛,最简单的场景发生在用户登录淘宝并查看商品详情或者查看购物车时,Tair就与这个用户发生了交互。

在2015年的阿里巴巴“双十一”全球狂欢节上,为了承受上亿次的调用服务, Tair部署了将近100个集群,总机器数约5000台物理机,单节点QPS峰值近百万次,集群缓存命中率达90%以上,承担了天猫、淘宝、聚划算主站的绝大多数访问压力。

“经过几年双11的考验,大家对云计算的认可度、认知度已经非常高,对阿里云的计算能力有了充分的信任。”
王义成表示。

 

关注云数据库Memcache版,请访问:http://www.aliyun.com/product/ocs

时间: 2024-09-16 22:52:56

阿里巴巴开放内部高速缓存系统Tair 多年双11锤炼的相关文章

集大成之作 | 《尽在双11:阿里巴巴技术演进与超越》重磅预售!(文末有福利)

春暖花开之际,<尽在双11:阿里巴巴技术演进与超越>终于正式与大家见面了.此书前所未有地汇聚了阿里全体技术人的智慧,被阿里巴巴集团CTO行癫盛赞为"迄今为止对双11技术演进最客观.最详实的还原."  购买方式:淘宝天猫预售地址(文末有福利,看完再买享优惠) 在线试读:https://yq.aliyun.com/books/4295 技无止境,双十一技术进化史   2009年,双十一诞生.当时,整个技术部门只有几个人被临时安排值班,高峰每秒只有400个请求.  8年之后,双十

促促促,如何确保系统扛得住 | 《尽在双11》抢鲜预览

引言:对技术而言,每一年的双11都是一场严峻的考验,从被流量冲击得溃不成军,被迫奋起抗击,到现在通过技术的力量不断改写双11的用户体验和参与感,阿里的技术伴随着双11成长起来,强壮起来,自信起来.对各位而言,希望大家可以从书中学习更多,掌握更多. 本文选自博文视点与阿里巴巴集团联手推出的重磅新书<尽在双11--阿里巴巴技术演进与超越>,精彩片段抢先试读,不容错过. 全链路压测被誉为大促备战的"核武器".如果之前关注过阿里双11相关的技术总结,对全链路压测一定不会陌生,这个词

【阿里云资讯】阿里CEO张勇内部总结:双11精华全在里面 | 附万字实录

阿里CEO张勇内部总结 阿里每一个管理者都要从双11中思考和总结,要有"四心",一颗通透的心,一颗对客户的敬畏之心,一颗团队之间的包容心,一颗做事情的责任心.1207亿元对阿里来说是走向未来"五新"--新零售.新金融.新制造.新能源和新技术的起点.到了超千亿规模,双11的数字只是一个符号,我们要去追求数字背后的创新.双11零点时分,我们经历了淘宝高速增长的一段时间,后面的力量是什么?网红. 今年的"双11"在技术上还有很多有意思的东西,我们第一次

如何站在双11的肩膀上 详解阿里云企业级互联网架构

摘要:2015天猫双11全球狂欢节以912.17亿元的答卷完美收官.双11当天14万笔/秒的交易创建峰值和8.6万笔/秒的支付峰值双双刷新了世界纪录,相比首届双11,订单创建峰值增长了350倍,支付峰值增长了430倍.天量数字的背后,是中国计算能力的登顶全球. 阿里云计算总裁胡晓明表示,阿里巴巴承载双11的计算能力和... 2015天猫双11全球狂欢节以912.17亿元的答卷完美收官.双11当天14万笔/秒的交易创建峰值和8.6万笔/秒的支付峰值双双刷新了世界纪录,相比首届双11,订单创建峰值增

双11背后的网络自动化技术

面对全球化的数据中心网络,如何实现网络的自动化运维.巡检与优化?如何应对超大规模数据中心网络的诸多挑战?在本次阿里巴巴2016双11技术创新论坛上,来自阿里巴巴基础架构事业部的研究员张铭分享了双11背后的网络自动化技术,为你揭晓网络自动化的那些事. 以下内容根据演讲视频以及PPT整理而成. 阿里巴巴目前拥有全球化的数据中心网络,阿里的网络分布在包括亚洲.美洲.欧洲和大洋洲在内的全球各个大洲,而且部署的数据中心的数量和规模随着阿里巴巴的业务增长还会不停地扩大.这些数据中心之间由高带宽.低延时的网络

【双11背后的技术】永不停止的脚步——数据库优化之路

选自<不一样的技术创新--阿里巴巴2016双11背后的技术>,全书目录:https://yq.aliyun.com/articles/68637 本文作者:佳毅 前言 2016年双11已经顺利落下帷幕,在千亿电商流量的冲击下,集团数据库整体表现完美.完美表现的背后,隐藏着数据库团队对技术的执着追求.这是一个什么样的团队,他们究竟做了什么,是什么支持着双11这一全民狂欢的数字一次次突破?笔者以一个亲历者的角度来给大家揭开双11背后,阿里巴巴数据库团队的神秘面纱.  1. 我们是谁 我们是阿里巴巴

承担双11万亿流量,阿里核心技术揭秘:12位大咖告诉你!

技术成就辉煌,今年的双11毫无悬念地再次刷新了全球记录--11秒交易额破亿,28秒破10亿,最终的交易额稳稳定格在了1682亿,不仅创造了极高的交易峰值和支付峰值,同时刷爆纪录的还有4200万次/秒的数据库处理峰值.在双11背后,还隐藏着众多黑科技! 下面是本次演讲议题及嘉宾详情介绍,供大家参考. 议题详情 阿里下一代技术架构:云化架构的演进之路--叔同 / 阿里巴巴资深技术专家 通过云化架构大幅降低日常IT运行成本,以及降低双11大促的IT运行成本50%,本演讲将解密阿里云化架构的秘密. 20

支付宝交易额再次证明了今年的双11依旧是属于阿里的盛宴

350.19亿,这个被大幅刷新的支付宝交易额再次证明了今年的双11依旧是属于阿里的盛宴.然而,这个被阿里高调宣传的天文数字,却再因刷单蒙上了注水的阴影.不过,阿里方面对记者否认存在刷单情况. 事实上,不仅仅是这次双11,天猫和淘宝卖家的刷单从来没有停止过,而马云屡次举起的杀威棒,都没能遏制住卖家的疯狂刷单.这除了表明卖家在阿里平台上生存的残酷之外,也折射出一直被称为电商神话的阿里所面临的潜在困境. 350亿有没有水分 就像那条宣称"双11天猫一小时卖出了200万件内裤,连起来有3000公里长&q

轻松应对双11,百万级物理和虚拟网络设备的网络智能化实践

12月13-14日,由与阿里巴巴技术协会共同主办的<2017阿里巴巴双11技术十二讲>顺利结束,集中为大家分享了2017双11背后的黑科技.本文是<双11的智能化网络实践>演讲整理,主要讲解了阿里巴巴在网络智能化技术中,大量级网络下网络变更.调度优化技术的大幅度提升,故障快速发现.定位.恢复方面和资源优化利用方面的技术突破,在网络智能领域通过数据手段极致地优化运营场景,在稳定性.成本.效率方面提升网络运营竞争力.内容如下. 分享嘉宾:   后羿(周宝方),阿里巴巴资深技术专家,参与