点击超2亿 “军装照”背后不为人知的技术故事

“军装照”火了!几乎一夜之间,所有人的朋友圈都被“军装照”占领了!在两天的时间里,这个叫《快看呐!这是我的军装照》的H5浏览次数(PV)累计2.0921亿次,相当于每七个中国人里就有一个人打开过这个H5!

不光朋友圈里的小伙伴们换军装换嗨了,就连一众名人也是玩的不亦乐乎。这不小米“教父”雷军就在微博晒出了自己的军装照。

著名主持人靳羽西更是连晒数张军装照,让没有穿过军装的她一下子过足了瘾。

爱玩的外国友人也被这热烈的气氛感染了,连天津权健足球俱乐部的外援帕托都晒出了自己的“军装照”,还在社交平台上写到:中国军人辛苦了!

PV累计 2.0921亿、独立访客累计3832万、每分钟113万参与照片合成……就连“军装照”策划者人民日报新媒体中心都没想到能够这么火,现在他们已经打算申报吉尼斯纪录了!

这么火爆的H5游戏,让@平安南京 都开心担心了,以为这是一个冒充人民日报客户端的网络诈骗新手段,还发布了提醒微博。好在,后来证明这条提醒才是个“乌龙”。

不过,全民玩军装照玩得这么嗨,人民日报社新媒体中心主任丁伟表示:服务器有点亚历山大……

一个H5要承受上亿的访问量,是多么恐怖的事情。为了应对突增流量,负责开发这个H5的北京流量源泉科技公司,采用了阿里云的弹性计算ECS和负载均衡SLB等技术,将“换装”的访问和计算资源都放在阿里云上,来应对暴增的流量。要知道,12306网站的余票查询系统就放在阿里云计算平台上,能承担春运高峰期时每天超过400亿次的访问,支撑这2亿次点击的H5自然不在话下。

今年的建军节注定有着特别的意义,不但看到了如此壮观的阅兵仪式,还玩疯了“军装照”,一不小心就为一项吉尼斯纪录做出了自己的贡献呢!

时间: 2024-09-20 12:27:04

点击超2亿 “军装照”背后不为人知的技术故事的相关文章

点击超十亿的博客提前降临宇宙

震撼吧?吃惊吧?难以置信吧?但是这的确已经成为实事--点击量超十亿的博客已经提前两年降临宇宙.这不得不让人感觉到数字时代信息爆炸的威力,不得不让人感叹这世界变化快! 一.点击十亿的博客降临宇宙 大约是在地球日历翻到公元2010年6月9日左右的时间,宇宙第一个点击量达到十亿的博客惊现,那就是财经类名博徐小明的博客. 这是一次数量级的突破与提升,也是一种数字时代信息爆炸所呈现的现象,这不得不让人感觉到数字时代信息爆炸的威力,不得不让人感叹这世界变化快! 截止本博文发布时间(约2010年6月10日22

铁道部副部长胡亚东:订票网站日均点击超十亿

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 昨日的发布会后,铁道部副部长胡亚东就网络和电话购票.实名制等问题回答了记者提问,他表示:"虽然我们尽力采取了多项便民利民措施,但是由于综合的和客观的因素影响,买票难的问题仍然没有得到根本的解决." 胡亚东表示,今年第一次在全国铁路实行网络电话订票,现在已经达到每天200万张,"有1/3的旅客不用再到车站整宿排队.

微博春晚背后的技术故事

前言 一年一度的春晚再次落下帷幕,而微博也顺利地陪伴大家度过除夕之夜. 谈及马年春晚,人们首先想到的不是春晚上精彩的节目,而是微博上的吐槽,边看春晚,边刷微博,边吐槽,已经成了国人的习惯.看春晚不再是为了看节目,而是为了能够在微博上吐槽,知道大家在吐槽什么,更有人戏称不是春晚成就了微博,而是微博拯救了春晚. 马年春晚又格外引人注目,不仅仅是因为冯小刚亲自坐镇,担当总导演,更值得一提的是本届春晚首次将社交平台作为其与观众互动的主要途径,而新浪微博更是成为官方二维码独家合作方.在节目播出时,用户通用

超6亿数据的狂欢

伦敦奥运会落幕,这是被称为"社交奥运"的一届奥运会:国外的Facebook.Twitter很高调,国内的腾讯微博.新浪微博也不遑多让.如同今年春晚.欧洲杯曾发生的微博热潮,国内几大微博平台联手创造了超6亿条伦敦奥运会的传播量.在微博赚钱还未真正起航的背景下,大事件传播背后依然是微博抢人脉.提升用户活跃度的殊死搏斗. 事实上,目前国内的微博平台也就新浪.腾讯.搜狐和网易四大门户,这是一个相对集中但却不窄众的行业,它们基本覆盖了国内所有网民,争夺关注奥运的网民就成了各微博重中之重. 根据清

【双11背后的技术】万亿交易量级下的秒级监控

选自<不一样的技术创新--阿里巴巴2016双11背后的技术>,全书目录:https://yq.aliyun.com/articles/68637 本文作者:郁松.章邯.程超.癫行 前言 2016财年,阿里巴巴电商交易额(GMV)突破3万亿元人民币,成为全球最大网上经济体,这背后是基础架构事业群构筑的坚强基石. 在2016年双11全球购物狂欢节中,天猫全天交易额1207亿元,前30分钟每秒交易峰值17.5万笔,每秒支付峰值12万笔.承载这些秒级数据背后的监控产品是如何实现的呢?接下来本文将从阿里

微博:春节日活跃用户超一亿,探秘如何实现服务器分钟级扩容

直播视频: (点击图片观看) 幻灯片下载地址:https://oss.aliyuncs.com/yqfiles/4c5964b7d5e15c418558160f067b9e02.pdf 3月30日在线实时分享顺利结束,本次由微博研发中心技术经理及高级技术专家陈飞分享了微博利用阿里云实现分钟级服务器规模成倍扩容的技术体系,包括Docker与虚机结合的使用经验.网络架构以及负载均衡.缓存架构的跨IDC服务部署的一些经验.本次视频直播的整理文章.视频.幻灯片整理完毕,如下内容. DCP设计"初心&qu

【双11背后的技术】万亿级数据洪峰下的分布式消息引擎

选自<不一样的技术创新--阿里巴巴2016双11背后的技术>,全书目录:https://yq.aliyun.com/articles/68637 本文作者:冯嘉.誓嘉.尘央.牟羽  前言 通过简单回顾阿里中间件(Aliware)消息引擎的发展史,本文开篇于双11消息引擎面临的低延迟挑战,通过经典的应用场景阐述可能会面临的问题 - 响应慢,雪崩,用户体验差,继而交易下跌.为了应对这些不可控的洪峰数据,中间件团队通过大量研究和实践,推出了低延迟高可用解决方案,在分布式存储领域具有一定的普适性.在此

超千亿!强劲的直播市场,SDS&quot;被&quot;网红

直播,约了吗?互联网+骤热的这两年,移动直播平台亢奋的增长着,让主播.粉丝.资本都为之疯狂.这股狂热投射到IT基础设施上,令基于SDS理念的分布式存储需求接连猛增.笔者拿浪潮AS13000举个栗子,剧透一下分布式存储如何对接"直播热".  直播,up&up的出现 移动直播,是近两年迅速发展起来的一种新型互联网文化形态.继早期的PC端直播之后,在直播2.0.3.0乃至未来的直播4.0,移动直播获得了快速的发展,直播类型也扩展到游戏直播.真人直播.体育直播等等,成为泛娱乐社会的一张

年流水超30亿的YY音乐生态链:最大公会年流水6亿,将自办唱片公司

中介交易 SEO诊断 淘宝客 云主机 技术大厅 i黑马:如今的YY音乐俨然一个小型的"娱乐圈",年流水超30亿元,这里早已不只是性感MM和杀马特的世界,越来越多专业歌手加入进来.YY平台上的一些"公会",年流水动辄5.6亿,堪比传统唱片公司,他们会放出上百名星探四处挖角,并且有意识地"推新人",做广告代言,在操作上也越来越像一家唱片公司. 今年的<好声音>,出现一些来路有些"奇怪"的歌手:比如在网上很有人气,被称为