Facebook人工智能实验室主任的深度学习之路

【编者按】目前,各大科技巨头包括谷歌、微软等都在大力发展深度学习技术,通过各种方式挖掘深度学习人才,马克•扎克伯格任命Yann LeCun担任Facebook人工智能实验室主任。这些高科技公司正在探索深度学习的一种特殊形态——卷积神经网络,对于可视化卷积神经网络, LeCun的付出远甚于他人。

以下为原文:

马克•扎克伯格精心挑选了深度学习专家Yann LeCun担任Facebook人工智能实验室的负责人。该实验室于去年年底成立。作为纽约大学任教已久的教授,Yann LeCun对深度学习的研究成绩斐然,在IEEE世界计算智能大会中荣获神经网络先锋奖。深度学习,作为人工智能的一种形式,旨在更密切地模仿人类大脑。最初,大多数人工智能研究人员公开表态对深度学习嗤之以鼻,但短短几年后,它却突然在整个高科技领域蔓延开来,横跨谷歌、 微软、 百度再至Twitter。

这些高科技公司正在探索深度学习的一种特殊形态——卷积神经网络,旨在打造可以自动理解自然语言以及识别图像的Web服务。谷歌Android手机的语音识别系统就是基于神经网络而开发的。百度利用神经网络对一种新型的可视化搜索引擎进行研发。研究深度学习的学者不在少数,但它获得成功, LeCun功不可没。微软的机器学习专家Leon Bottou早期曾与 LeCun合作,他说,“对于可视化卷积神经网络, LeCun的付出远甚于他人。”

Facebook人工智能实验室主任  Yann LeCun

面临巨大怀疑, LeCun仍然力挺神经网络。要让神经网络正常运作需要功能强大的计算机和庞大的数据集,但上世纪80年代 LeCun刚刚接触这一全新领域时,却不具备这些支持条件。当时刚刚步入计算机时代,科学家们对人工智能报以热切的期望,但神经网络受限于那时的条件,无力满足科学家的愿景,因而不被看好。要想在权威学术期刊发表与神经网络相关的文章困难重重。时至90年代乃至21世纪初,这一状况依旧没有得到改善。

但 LeCun仍然坚持不懈。深度学习的核心学者Geoffrey Hinton说,“他就像在黑暗中举着火炬。”终于,如今电脑技术大迈步向前,为深度学习提供了必要的技术支持,其潜力亦得以开发。

LeCun的LeNets

在加入Facebook之前的二十多年, LeCun在贝尔实验室中工作,这段时间内,他研发出了一个可以识别手写数字的系统,并称之为LeNet。贝尔实验室作为世界上最著名的计算机研究实验室,是晶体管、Unix操作系统和C语言的发源地。

LeNet能够自动读取银行支票,它标志着卷积神经网络首次被应用于实践中。Bottou表示,“卷积网络原本像是个小玩具, LeCun将之应用于规模更广的实际问题中。”

上个世纪70以及80年代,认知机(cognitron)和神经认知机(Neocognitron)这些早期的神经网络模型能够自主学习从数据中识别图形,并且无需人类的过多提示。但这类模型都相当复杂,研究人员无法完全弄清楚如何使它们运行无误。 LeCun表示,“当时缺少一种监督学习算法,现在我们称之为反向传播算法(Back propagation)。”这种算法能有效地使错误率最小化。

卷积神经网络

卷积网络是由相互连通的卷积层组成,与大脑中处理视觉信息的视觉皮层十分类似。卷积网络的不同之处在于,它们可以重复使用一张图像中多个位置的相同过滤器。举例而言,一旦卷积网络学会了在某个位置识别人脸,那么它也可以自动在其他位置识别人脸。这种原理也适用于声波和手写文字。

百度研究院负责人吴恩达(Andrew Ng)认为,这使人工神经网络能够快速接受培训,因为“内存占用空间小,不需要对图像中每个位置的过滤器进行单独存储,从而使神经网络非常适合于创建可扩展的深网(deep nets)”。这也令卷积神经网络具有善于识别图形的优点。

当卷积神经网络接收到图像(即输入)时,它将其转换为代表特征的数字阵列,并对每个卷积层中“神经元”进行调整以识别数字中某些图形。低级神经元能够识别基本形状,而高级神经元则能够识别狗或人等更复杂的形态。每个卷积层与相邻的层互通,当信息在网络中传播时,就会得出平均值。最后,网络通过猜测图像中是什么图形从而得出输出结果。

如果网络出错,工程师可以对层与层之间的连接进行微调,以便得到正确答案。而神经网络能够自主进行微调,因而更胜一筹。这时反向传播算法就开始发挥作用了。

反向传播算法

反向传播算法的原理是计算误差,并根据误差对卷积层所接收的强度进行更新。上个世界80年代中期,David Rumelhart、Geoffrey Hinton及Ronald Williams提出反向传播算法,即同时为多重输入计算误差,并取平均值。然后通过网络将平均误差从输出层到输入层反向传播。

LeCun对反向传输算法的构想与上述不同,他并未采取平均值,而是为每个样本计算出误差。他的这种方法成效不错,速度更快。

据Bottou透露, LeCun得出这一办法,实际上是阴错阳差的结果。“当时我们在法国使用的电脑不太给力。”他们不得不想办法,希望用尽可能少的电脑配置,尽可能快速地计算出误差。这在当时似乎是蒙混过关的做法,但如今却成为人工智能工具箱的重要部分。它就是随机梯度下降算法(stochastic gradient descent)。

LeCun的LeNets已广泛应用于世界各地的自动取款机和银行,用以识别支票上的手写字迹。但仍有人持怀疑态度。 LeCun表示,“目前我们所获得的进展还不足以说服计算机视觉领域承认卷积神经网络的价值。”部分原因在于,虽然卷积神经网络功能强大,但没有人知道它为什么这么强大。目前还未能揭开这项技术谜一般的内在原理。

深度学习的前景

批评声此起彼伏。支持向量机(Support Vector Machine)的创建者兼数学家Vladimir Vapnik也持批评立场。支持向量机是目前使用最广泛的人工智能模型之一。

1995年3月的一个下午,Vapnik和Larry Jackel两人打了个赌。Jackel认为,到2000年,深度人工神经网络(deep artificial neural nets)的内在原理将明朗化。Vapnik则坚持将时限推后至2005年。他们还较真地把赌注内容写在纸上,并在几位见证人面前签了名。 LeCun和Bottou当时都在场。

打赌双方最终难解胜负。2000年,神经网络的核心原理仍然笼罩在神秘面纱下,哪怕是现在,研究人员也无法用数学方法参透个中奥妙。2005年,深度神经网络在自动取款机和银行中获得广泛应用,虽然人们仍未能掌握核心原理,但 LeCun在上个世纪80年代中期和90年代初的研究工作为深度神经网络的解密奠定了重要根基。

LeCun指出,“很少有某项技术能在问世20或25年后,虽然基本上未经改变,但在时间的考验下被证实是最优异的。人们接受它的速度是惊人。我过去从未遇见过这样的情况。”

目前使用最广泛的卷积神经网络几乎完全依赖于监督学习(supervised learning)。这意味着,如果想让神经网络学会如何识别某一特定对象,就必须对几个样本进行标注。无监督学习(unsupervised learning)是指从未经标记的数据展开学习,这更接近人脑的学习方式。目前一些深度学习的研究者正在探索这一领域。

LeCun表示,“我们对大脑如何学习几近完全陌生。人们已经知道神经元突触能够自我调整,但我们对大脑皮层的机理尚不明确。我们知道最终答案是无监督学习,但却无力解答。”

反向传播算法不太可能体现出人类大脑的运作机理,所以研究者正在探索其他算法。此外,卷积网络在收集数据或计算平均值时,效果并非十全十美,所以当前研究者也尽力做出改进。辛顿表示,“卷积网络会丢失信息。”

以人脸为例。系统如果学会识别眼睛和嘴唇之类的面部特征,便能有效地识别出图像中有人脸,但无力分辨出不同面孔之间的差异。它也无法很好地找出眼睛在脸上的准确位置。高科技公司和政府想要创建有关用户或居民详尽的数字档案,以上所提及的缺陷将成为无法回避的短板。

LeCun的研究也许不算完美,但当前却是这一领域的尖端理论。

原文链接:深度学习在巨头圈流行 Facebook大脑就靠它了 (责编/魏伟)

免费订阅“CSDN云计算(左)和CSDN大数据(右)”微信公众号,实时掌握第一手云中消息,了解最新的大数据进展!

CSDN发布虚拟化、Docker、OpenStack、CloudStack、数据中心等相关云计算资讯,     分享Hadoop、Spark、NoSQL/NewSQL、HBase、Impala、内存计算、流计算、机器学习和智能算法等相关大数据观点,提供云计算和大数据技术、平台、实践和产业信息等服务。

时间: 2024-09-21 13:33:22

Facebook人工智能实验室主任的深度学习之路的相关文章

Facebook人工智能实验室负责人讲深度学习

注:国外媒体发表文章对Facebook人工智能实验室负责人伊恩•勒坤(Yann LeCun)进行评述,文章谈及勒坤所研究的卷积神经网络对人工智能产生深远影响,潜力不容小觑.此外还介绍了他开发的书写数字识别系统LeNets以及他对反向传播算法的研究成果,并对深度学习的前景进行评析. 以下为文章主要内容: 马克•扎克伯格精心挑选了深度学习专家伊恩•勒坤担任Facebook人工智能实验室的负责人.该实验室于去年年底成立.作为纽约大学任教已久的教授,伊恩•勒坤对深度学习(deep learning)的研

人工智能、机器学习、深度学习的区别在哪?

有人说,人工智能(Artificial Intelligence)是未来.人工智能是科幻小说.人工智能已经是我们日常生活的一部分.所有这些陈述都 ok,这主要取决于你所设想的人工智能是哪一类. 例如,今年早些时候,Google DeepMind 的 Alphago 程序击败了韩国围棋大师李世乭九段.人工智能.机器学习和深度学习这些词成为媒体热词,用来描述 DeepMind 是如何获得成功的.尽管三者都是 AlphaGo 击败李世乭的因素,但它们不是同一概念. 区别三者最简单的方法:想象同心圆,人

一篇文章搞懂人工智能、机器学习和深度学习之间的区别

概述 2015年11月9日,Google发布人工智能系统TensorFlow并宣布开源.这两年在不管在国内还是在国外,人工智能.机器学习仿佛一夜之前传遍大街小巷.机器学习作为人工智能的一种类型,可以让软件根据大量的数据来对未来的情况进行阐述或预判.如今,领先的科技巨头无不在机器学习下予以极大投入.Facebook.苹果.微软,甚至国内的百度,Google 自然也在其中. 去年早些时候 Google DeepMind 的 AlphaGo 项目在举世瞩目的围棋比赛中一举击败了韩国选手李世石,媒体就是

简单读懂人工智能:机器学习与深度学习是什么关系

引言:随着AlphaGo战胜李世石,人工智能和深度学习这些概念已经成为一个非常火的话题.人工智能.机器学习与深度学习这几个关键词时常出现在媒体新闻中,并错误地被认为是等同的概念.本文将介绍人工智能.机器学习以及深度学习的概念,并着重解析它们之间的关系.本文将从不同领域需要解决的问题入手,依次介绍这些领域的基本概念以及解决领域内问题的主要思路. 本文选自<Tensorflow:实战Google深度学习框架>. 从计算机发明之初,人们就希望它能够帮助甚至代替人类完成重复性劳作.利用巨大的存储空间和

《Web安全之机器学习入门》一 1.1 人工智能、机器学习与深度学习

1.1 人工智能.机器学习与深度学习 如今,人工智能.机器学习与深度学习几乎成了家喻户晓的名词,究竟这三者之间有什么联系和区别呢? 通常认为,机器学习是实现人工智能的主要方式,人类基于机器学习以及海量的数据,逐步实现人工智能,其中深度学习是机器学习的一个分支.如果用同心圆来表示三者的范围,那么人工智能是最外面的一个圆,深度学习是最里面的圆.人可以在1秒以内做出的判断,都可以用机器来实现,而且机器可以同时完成成百上千人1秒内可以做出的判断,这就是人工智能.

中国人工智能学会通讯——后深度学习时代的人工智能

1956 年,在美国达特茅斯学院举行的一次会议上,"人工智能"的研究领域正式确立.60 年后的今天,人工智能的发展正进入前所未有的大好时期.我今天作的报告,将通过分析时代的特点,这个时代下人工智能与计算机的可能命运,来重新认识人工智能.认识我们赖以生存的计算机,还有我们自己. 后深度学习时代的前提 我们看到如今人工智能的春天又来了,不过和 30 年前日本兴起的人工智能热潮相比,发生了如下变化:时间不同.地点不同.主题也不同.这次人工智能的大发展与深度学习紧密相关,体现在:① 从知识情报

Facebook资深科学家加盟百度深度学习研究院

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 新浪科技讯 5月10日上午消息,前Facebook资深科学家徐伟近日加盟百度深度学习研究院(Institute of Deep Learning,IDL),出任"杰出科学家".IDL是百度成立的前瞻性研究机构,致力于"让计算机像人脑一样智能"的科学研究. 加盟百度前,徐伟作为Facebook资深科学家,

中国人工智能学会通讯——迎接深度学习的“大”挑战(下) 1.1 深度学习的训练方法和技巧

摘要:本部分主要介绍了深度学习的训练方法和技巧.深度学习的挑战和应对方法等问题. 最后结合眼下 AI 的研究进展,对深度学习领域深刻的"吐槽"了一番,妙趣横生且发人深省. 1.1 深度学习的训练方法和技巧 前面提到的 BN 方法还不能解决所有的 问题. 因为即便做了白化,激活函数的导 数的最大值也只有 0.25,如果层数成百上 千,0.25 不断连乘以后,将很快衰减为 0. 所以后来又涌现出一些更加直接.更加有 效的方法.其基本思路是在各层之间建立 更畅通的渠道,让信息流绕过非线性的激

RSS 2016研讨会随想:质疑者是正确的吗——深度学习在机器人领域的局限和潜力都在哪里?

导语:RSS(Robotics: Science and Systems,机器人:科学与系统) 是机器人领域的世界顶级学术会议. John McCormac是伦敦帝国学院戴森机器人实验室(Dyson Robotics Lab at Imperial)的一名博士生,师从Andy Davison教授和Stefan Leutenegger博士.2016年6月,McCormac参加了在密歇根大学召开的RSS 2016大会,他在博客中分享参会的一些心得体会,以下为McCormac博客中的部分编译内容,读者