专访阿里巴巴魏虎:揭秘阿里双11背后的全站个性化&商铺千人千面

12月6日-7日,由阿里巴巴集团、阿里巴巴技术发展部、阿里云联合主办,以“2016双11技术创新”为主题的阿里巴巴技术论坛(Alibaba Technology Forum,ATF)将在线举办。()12月7日晚20:00,来自阿里巴巴的资深技术专家魏虎将在在线论坛上发表《数据赋能商家背后的AI技术》的演讲。

系列文章陆续发布:

  • 专访阿里巴巴徐盈辉:深度学习和强化学习技术首次在双11中的大规模应用
  • 专访阿里巴巴林伟:三项世界级挑战背后的思考、实践和经验
  • 专访阿里巴巴魏虎:揭秘阿里双11背后的全站个性化&商铺千人千面
  • 价值1207亿的技术分享,你不能错过“2016双11技术创新”的九大理由!
  • 8位阿里技术大V,解密阿里双11背后的黑科技

大数据时代下,阿里巴巴在平台积累了丰富的经验,并正在从赋能平台向赋能商家演进。阿里利用机器学习与人工智能技术,为商家提供一系列更加智能的产品,帮助他们更好的经营。本次分享,魏虎将为大家介绍阿里是如何利用大数据技术来为商家赋能的,包括千人千面的商铺个性化、智能海报、头条等。

为了帮助大家更好地了解讲师及议题,评估本次演讲,对讲师进行了采访。

受访嘉宾:

魏虎,阿里巴巴资深技术专家,早期负责淘宝网站架构,主导了淘宝多个大型架构变迁项目。后期从事大数据方向的技术研发,主导研发了阿里集团的个性化推荐平台,推动并支撑阿里所有重要个性化推荐场景的落地。目前的主要工作是通过大数据和人工智能相关技术提升阿里商家的效能,从而为商家赋能。

以下为采访正文:

:你曾主导研发了阿里的个性化推荐平台,从推荐系统升级到推荐平台,经历了哪些阶段?可否简要介绍下?

魏虎:阿里的个性化推荐平台支撑了阿里几千个个性化推荐和个性化排序的场景,基本上覆盖了所有消费者能接触到的页面, 回顾个性化推荐平台的发展历史,算是经历过三个阶段:

  • 第一个阶段:10年到12年,我们的研发资源分成两类角色,一类是算法工程师,一类是引擎工程师,当时推荐方案和推荐引擎的代码耦合在一起,新增加一个推荐场景的推荐方案,都需要引擎的开发同学帮助算法同学实现线上的推荐逻辑。主要的推荐方案都还是基于离线hadoop运算好结果,推荐引擎把结果自动化的导入到在线检索引擎,然后再编写一些简单的在线过滤和排序逻辑,每次开发一个方案都要经历代码测试、发布的流程,效率低下,开发上线一个方案可能都要几天时间甚至更长。
  • 第二个阶段:13年到14年,推荐业务发展迅速,推荐场景已经从独立的小的模块延升很多频道页面的个性化排序,很多团队都希望有推荐场景的支持,按照之前的架构,每上线一个推荐方案,都需要一个引擎的开发同学与算法同学对接,以及进行引擎的重新发布,这样就导致了平台的开发资源成为了业务迭代的瓶颈。为此我们考虑PaaS的设计思想,就是允许算法策略是可以基于平台的组件进行二次开发和部署上线。另外我们开发SDK,帮助算法同学进行本地的代码开发。通过SDK算法同学可以完成方案代码的编写、本地Debug、方案的更新与提交。对平台层面,我们抽象出了容器,并提供方案代码的线上编译和发布功能,容器自动加载和执行编译通过方案。经过这次架构调整后,平台开发人员得到解放,算法同学得到了充分的自由,可以基于平台进行快速的算法迭代和开发。
  • 第三个阶段:14年开始,推荐平台的架构从离线全面走向实时,这里包括特征的实时更新,模型的实时预测,模型的在线训练,另外把在线预测这块单独切换出来一个预测服务,专门用于在线对召回的候选集进行实时预测打分,同时我们为了提高算法研发效率,还开发了一系列可视化工具能够让算法同学不需要编码,就可以通过可视化界面配置出离线模型,在线模型,甚至是在线的推荐方案。有了这一系列改进后,算法迭代周期甚至可以按分钟级别来迭代,大大加快了算法优化的进程,这也反过来推动各个业务线快速落地推荐的能力。


:在做平台的过程中,有没有遇到特别有挑战性的地方或坎?都是如何解决的,请举例分享。

魏虎:平台构建和引擎构建的思路完全不一样,平台的理念是做好容器,并且把推荐的逻辑进行高度抽象和模块化,能够让算法同学基于这些模块化组件进行高效的推荐方案的编写。推荐平台就要专注推荐方案的自动部署,资源隔离,高性能的召回存储检索引擎,实时预测引擎,实时特征更新引擎还有在线模型训练引擎等等这些高度抽象独立的单元。这每一块都是相当有挑战的技术点。

:去年双11已经首次全面实现了通过大数据驱动、高度个性化的消费购物体验,做到了千人千面,今年有何创新或提升?    

魏虎:今年双11会场个性化在去年的基础上取得了进一步的提升,例如主会场楼层个性化排序点击率相比去年有近20%的提升。主会场个性化背后的技术体系相当广泛,今年包括深度学习、增强学习、在线学习等前沿技术都已经成功应用并取得显著的效果。这些技术的研发离不开阿里巴巴先进的大数据和分布式计算平台的支撑,能够支持包括MPI、Parameter Server、多机多卡的分布式GPU集群、流式计算等分布式算法架构。

:阿里如何通过数据、人工智能技术赋能商家,可否以某个应用场景举例说明?在商家客户运营转化效率上,实现了怎样的效能提升?

魏虎:今年我觉得最大的创新是我们做到了全站个性化,我们的商家也能参与到自己商铺的千人千面的设计中,双11期间超过23万店铺实现了千人千面,覆盖的流量达到近40亿。当消费者进到店铺或宝贝页面,我们的AI引擎会根据用户的行为偏好等维度,根据商家的配置,去呈现最适合当前这个用户的精准内容,通过这样的卖家可参与的千人千面场景设置,做的好的商家成交转化率能有几倍的提升。

:在本次分享中,将主要分享哪些技术点?适合什么样基础的听众?

魏虎:阿里巴巴已经在平台积累了丰富的经验, 现今阿里巴巴从赋能平台自己转向赋能商家,我们利用ML&AI技术为商家提供一系列更加智能的产品帮助他们更好的经营,本次分享为大家介绍阿里是如何利用大数据技术来为商家赋能以及背后支持的技术。本次分享适合对大数据有一些基本的概念的听众。

:对于学习个性化推荐的开发者的成长,有哪些建议或者经验分享?以及请你推荐一本最喜欢的技术书籍(书单更佳)

魏虎:推荐这块技术分两块:一块是引擎,一块是算法,这两个密不可分。引擎这块就需要对检索引擎、流计算引擎、RPC等有所掌握;算法这块,推荐只是ML&AI领域的一小块,如果要把推荐算法做的更好,除了推荐算法本身,ML&AI领域很多算法都要去了解,包括现在比较热的深度学习和增强学习。推荐大家学习斯坦福机器学习公开课,能系统化的学习ML&AI的基础技术。现在机器学习已经非常火了,市面上也有很多比较新的推荐系统和机器学习的书大家都可以阅读和实践。


“2016双11技术创新“在线论坛专题:

论坛火热报名中,成功预约报名,享受峰会结束后全套资料下载并可参加抽奖

时间: 2024-10-30 12:51:50

专访阿里巴巴魏虎:揭秘阿里双11背后的全站个性化&商铺千人千面的相关文章

揭秘2017双11背后的网络-双11的网络产品和技术概览

引言 揭秘2017双11背后的网络-一张图读懂2017双11中的网络产品和技术 揭秘2017双11背后的网络-双11的网络产品和技术概览 揭秘2017双11背后的网络-直面双11洪峰的负载均衡SLB 揭秘2017双11背后的网络-全球最大混合云架构 注:如果对网络产品还不太了解的,推荐阅读 一张图看懂阿里云网络产品[一]网络产品概览 下面分别对双11中的主要网络产品-专有网络VPC,负载均衡SLB,NAT网关,高速通道以及混合云架构进行介绍 VPC-安全的网络容器 专有网络VPC(Virtual

【重磅预告】揭秘阿里双11技术进步历程!

从2009年到2016年 有一种"买买买"叫双11 你我已熟知 那激动人心的熬夜抢购 那争分夺秒的零点瞬间 -- 还有那刷新不出的页面 和那挤爆了的服务器 -- 八年演进.八年创新.八年突破 这举世瞩目的双11,背后靠什么支撑? 这八年 阿里经历了哪些挑战与考验?又如何应对? 这八年 阿里收获了哪些经验与教训?又可否借鉴? 这八年 双11对阿里乃至整个社会的发展起到了哪些作用? -- 这一切的答案 -- 尽 在 双 1 1    阿里巴巴集团双11技术团队 著 由电子工业出版社博文视点

【在线论坛】8位阿里技术大V,解密阿里双11背后的黑科技

更多内容可参见:https://yq.aliyun.com/articles/64680    2016年双11是新零售的一个起点.交易额1207亿,成交额相比于去年增长32.32%(2015年的这一数字为912.17亿):开场30分钟,创造每秒交易峰值17.5万笔,每秒支付峰值12万笔的新纪录:菜鸟单日物流订单量超过4.67亿,创历史新高--马老师说:双11最大的挑战是不断扩展技术边界,去准备强大的技术解决人类尚未碰到的问题.每届双11对阿里来说都是一次大考,正是通过这样一次次的大考,阿里将双

多领域,多角度!隐藏版阿里双11“黑科技”大公开

系列文章陆续发布: 专访阿里巴巴徐盈辉:深度学习和强化学习技术首次在双11中的大规模应用 专访阿里巴巴林伟:三项世界级挑战背后的思考.实践和经验 专访阿里巴巴魏虎:揭秘阿里双11背后的全站个性化&商铺千人千面 价值1207亿的技术分享,你不能错过"2016双11技术创新"的九大理由! 8位阿里技术大V,解密阿里双11背后的黑科技 2016年双11是新零售的一个起点.交易额1207亿,成交额相比于去年增长32.32%(2015年的这一数字为912.17亿):开场30分钟,创造每秒

双11背后的网络自动化技术

面对全球化的数据中心网络,如何实现网络的自动化运维.巡检与优化?如何应对超大规模数据中心网络的诸多挑战?在本次阿里巴巴2016双11技术创新论坛上,来自阿里巴巴基础架构事业部的研究员张铭分享了双11背后的网络自动化技术,为你揭晓网络自动化的那些事. 以下内容根据演讲视频以及PPT整理而成. 阿里巴巴目前拥有全球化的数据中心网络,阿里的网络分布在包括亚洲.美洲.欧洲和大洋洲在内的全球各个大洲,而且部署的数据中心的数量和规模随着阿里巴巴的业务增长还会不停地扩大.这些数据中心之间由高带宽.低延时的网络

零点之战!探访阿里巴巴8大技术专家,提前揭秘2017双11关键技术

点击进入阿里云双11主会场 摘要:在距离双11已经不到10天的这个时刻,一场看不见硝烟的战争似乎已经打响.随着一年一度购物狂欢的即将到来,网上出现了很多阿里技术应对双11的段子."阿里工程师拜关公求服务器不宕机","技术人员围着被子敲代码"等传闻也被消费者们所津津乐道.那么,针对双11期间极为严苛的技术压力,阿里巴巴究竟是用怎样的方式进行解决的呢?在接下来的文段中,就让我们一起来对阿里巴巴在2017双11背后的技术进行一次细致的了解和探访.   阿里巴巴针对双11的

阿里巴巴CTO行癫:阿里双11是世界互联网技术的超级工程

11月11日晚上10点,阿里巴巴集团CTO张建锋(花名:行癫)连线上海双11媒体中心,为700多位中外媒体记者介绍了阿里技术在双11中取得的突破与成绩,表示"阿里双11是名副其实的世界互联网技术超级工程." 阿里巴巴集团CTO&双11技术指挥官 行癫 阿里的双11是一次全球商业.科技.数据.智能的大协同,是一个商业社会的大协同,更是一个技术的大协同,是名副其实的世界互联网技术的超级工程. 今年的双11,阿里技术能力再创新记录,达到了每秒32.5万笔的交易创建峰值和每秒25.6万

双11享Go了吗?2017阿里双11在线峰会续写科技盛宴!

技术成就辉煌,今年的双11毫无悬念地再次刷新了全球记录--11秒交易额破亿,28秒破10亿,3分01秒破百亿,40分12秒破500亿,9小时破1000亿--最终的交易额稳稳定格在了1682亿,不仅创造了极高的交易峰值和支付峰值,同时刷爆纪录的还有4200万次/秒的数据库处理峰值. 数字背后蕴藏着阿里繁花似锦的炫酷技术,AI设计师"鲁班".阿里机器智能推荐系统.机器人客服"阿里小蜜".智慧物流.华北数据中心的巡检工作由智能运维机器人"天巡".X-C

如丝般顺滑的2017阿里双11黑科技曝光

2017双11全球狂欢节,阿里再创奇迹,成交金额1682亿,交易峰值32.5万/秒,支付峰值25.6万/秒,数据库处理峰值4200万次/秒. 双11前夕,阿里巴巴集团CTO行癫就给阿里两万多位工程师下了一个很新鲜的KPI--"双11晚上,大家的主要任务是喝茶." 能如此淡定喝茶的背后,除了无数阿里技术小二的才智与努力,还有很多阿里的黑科技支撑着这样世界超级工程.现在我们跟着阿里云云效一起来揭秘下有哪些基础设施黑科技? 蜻蜓--世界领先的大规模文件分发系统 黑科技指数: 解决痛点:大规模