AI领域三大范式的发展简史

雷锋网(公众号:雷锋网)按:本文作者Tomasz Malisiewicz,CMU博士。主要介绍了AI领域的三大范式:逻辑学,概率方法和深度学习。

今天,我们一起来回顾过去50年人工智能(AI)领域形成的三大范式:逻辑学、概率方法和深度学习。如今,无论依靠经验和“数据驱动”的方式,还是大数据、深度学习的概念,都已经深入人心,可是早期并非如此。很多早期的人工智能方法是基于逻辑,并且从基于逻辑到数据驱动方法的转变过程受到了概率论思想的深度影响,接下来我们就谈谈这个过程。

本文按时间顺序展开,先回顾逻辑学和概率图方法,然后就人工智能和机器学习的未来走向做出一些预测。

图1:图片来源Coursera的概率图模型课

一、逻辑和算法(常识性的“思考”机)

许多早期的人工智能工作都是关注逻辑、自动定理证明和操纵各种符号。John McCarthy于1959年写的那篇开创性论文取名为《常识编程》也是顺势而为。

如果翻开当下最流行的AI教材之一——《人工智能:一种现代方法》(AIMA),我们会直接注意到书本开篇就是介绍搜索、约束满足问题、一阶逻辑和规划。第三版封面(见下图)像一张大棋盘(因为棋艺精湛是人类智慧的标志),还印有阿兰·图灵(计算机理论之父)和亚里士多德(最伟大的古典哲学家之一,象征着智慧)的照片。

图2:AIMA 的封面,它是CS专业本科AI课程的规范教材

然而,基于逻辑的AI遮掩了感知问题,而我很早之前就主张了解感知的原理是解开智能之谜的金钥匙。感知是属于那类对于人很容易而机器很难掌握的东西。(延伸阅读:《计算机视觉当属人工智能》,作者2011年的博文)逻辑是纯粹的,传统的象棋机器人也是纯粹算法化的,但现实世界却是丑陋的,肮脏的,充满了不确定性。

我想大多数当代人工智能研究者都认为基于逻辑的AI已经死了。万物都能完美观察、不存在测量误差的世界不是机器人和大数据所在的真实世界。我们生活在机器学习的时代,数字技术击败了一阶逻辑。站在2015年,我真是替那些死守肯定前件抛弃梯度下降的傻子们感到惋惜。

逻辑很适合在课堂上讲解,我怀疑一旦有足够的认知问题成为“本质上解决”,我们将看到逻辑学的复苏。未来存在着很多开放的认知问题,那么也就存在很多场景,在这些场景下社区不用再担心认知问题,并开始重新审视这些经典的想法。也许在2020年。

二、概率,统计和图模型(“测量”机)

概率方法在人工智能是用来解决问题的不确定性。《人工智能:一种现代方法》一书的中间章节介绍“不确定知识与推理”,生动地介绍了这些方法。如果你第一次拿起AIMA,我建议你从本节开始阅读。如果你是一个刚刚接触AI的学生,不要吝啬在数学下功夫。

图3:来自宾夕法尼亚州立大学的概率论与数理统计课程的PDF文件

大多数人在提到的概率方法时,都以为只是计数。外行人很容易想当然地认为概率方法就是花式计数方法。那么我们简要地回顾过去统计思维里这两种不相上下的方法。

频率论方法很依赖经验——这些方法是数据驱动且纯粹依靠数据做推论。贝叶斯方法更为复杂,并且它结合数据驱动似然和先验。这些先验往往来自第一原则或“直觉”,贝叶斯方法则善于把数据和启发式思维结合做出更聪明的算法——理性主义和经验主义世界观的完美组合。

最令人兴奋的,后来的频率论与贝叶斯之争,是一些被称为概率图模型的东西。该类技术来自计算机科学领域,尽管机器学习现在是CS和统计度的重要组成部分,统计和运算结合的时候它强大的能力才真正释放出来。

概率图模型是图论与概率方法的结合产物,2000年代中期它们都曾在机器学习研究人员中风靡一时。当年我在研究生院的时候(2005-2011),变分法、Gibbs抽样和置信传播算法被深深植入在每位CMU研究生的大脑中,并为我们提供了思考机器学习问题的一个极好的心理框架。我所知道大部分关于图模型的知识都是来自于Carlos Guestrin和Jonathan Huang。Carlos Guestrin现在是GraphLab公司(现改名为Dato)的CEO,这家公司生产大规模的产品用于图像的机器学习。Jonathan Huang现在是Google的高级研究员。

下面的视频尽管是GraphLab的概述,但它也完美地阐述了“图形化思维”,以及现代数据科学家如何得心应手地使用它。Carlos是一个优秀的讲师,他的演讲不局限于公司的产品,更多的是提供下一代机器学习系统的思路。

(图4:概率图模型的计算方法介绍| Dato CEO,Carlos Guestrin教授)

如果你觉得深度学习能够解决所有机器学习问题,真得好好看看上面的视频。如果你正在构建一套推荐系统,一个健康数据分析平台,设计一个新的交易算法,或者开发下一代搜索引擎,图模型都是完美的起点。

三、深度学习和机器学习(数据驱动机)

机器学习是从样本学习的过程,所以当前最先进的识别技术需要大量训练数据,还要用到深度神经网络和足够耐心。深度学习强调了如今那些成功的机器学习算法中的网络架构。这些方法都是基于包含很多隐藏层的“深”多层神经网络。注:我想强调的是深层结构如今(2015年)不再是什么新鲜事。只需看看下面这篇1998年的“深层”结构文章。

图5:LeNet-5,Yann LeCun开创性的论文《基于梯度学习的文档识别方法》

你在阅读LeNet模型导读时,能看到以下条款声明:

要在GPU上运行这个示例,首先得有个性能良好的GPU。GPU内存至少要1GB。如果显示器连着GPU,可能需要更多内存。

当GPU和显示器相连时,每次GPU函数调用都有几秒钟的时限。这么做是必不可少的,因为目前的GPU在进行运算时无法继续为显示器服务。如果没有这个限制,显示器将会冻结太久,计算机看上去像是死机了。若用中等质量的GPU处理这个示例,就会遇到超过时限的问题。GPU不连接显示器时就不存在这个时间限制。你可以降低批处理大小来解决超时问题。

我真的十分好奇Yann究竟是如何早在1998年就把他的深度模型折腾出一些东西。毫不奇怪,我们大伙儿还得再花十年来消化这些内容。

更新:Yann说(通过Facebook的评论)ConvNet工作可以追溯到1989年。“它有大约400K连接,并且在一台SUN4机器上花了大约3个星期训练USPS数据集(8000个训练样本)。”——LeCun

图6:深度网络,Yann1989年在贝尔实验室的成果

注:大概同一时期(1998年左右)加州有两个疯狂的家伙在车库里试图把整个互联网缓存到他们的电脑(他们创办了一家G打头的公司)。我不知道他们是如何做到的,但我想有时候需要超前做些并不大规模的事情才能取得大成就。世界最终将迎头赶上的。

结论:

我没有看到传统的一阶逻辑很快卷土重来。虽然在深度学习背后有很多炒作,分布式系统和“图形思维”对数据科学的影响更可能比重度优化的CNN来的更深远。深度学习没有理由不和GraphLab-style架构结合,未来几十年机器学习领域的重大突破也很有可能来自这两部分的结合。

雷锋网注:文章由阅面科技翻译并授权雷锋网发布,如需转载请联系授权并保留出处和作者,不得删减内容。

本文作者:赵京雷

本文转自雷锋网禁止二次转载,原文链接

时间: 2024-09-30 21:23:44

AI领域三大范式的发展简史的相关文章

李飞飞获全球最权威女性领导力奖 Athena Award,讲述推动AI多元化三大原因(视频)

新智元AI World 2017世界人工智能大会开场视频 斯坦福大学人工智能实验室主任.谷歌云首席科学家李飞飞日前获得全球最权威的女性领导力奖项 Athena Award. 李飞飞教授在个人推特上转发了这一消息,并表示:I'm honored & humbled. It's an exciting time for technology, &an important time for more women &diversity to participate in &lead

BAT正在AI领域快速追赶 云计算是最佳落地场景

不可否认,云计算是人工智能的底层支撑,也是人工智能落地的最佳场景.无论是百度.阿里还是腾讯,云计算业务是他们输出人工智能技术的窗口. 英媒称,某些类型的技术似乎是专为快速追随者设计的.这些竞争者也许并不置身于一个新创意的前沿,但他们能够做出足够快的反应,为自己开辟一大块新市场.机器学习的兴起看起来像是这样一类创新:中国已完成自我定位,要在人工智能(AI)革命的这个标志性技术领域成为头号快速追随者. 更多AI系统工具被公开 据英国<金融时报>网站6月2日报道,仅仅两三年前,这仍然是貌似最狭窄的领

一图秒懂中国数据库的40年发展简史

本文讲的是一图秒懂中国数据库的40年发展简史[IT168 资讯]"数据库"起源于上世经50年代的美国,于80年代正式传入国内. 当时的数据库技术大多应用在国防和军工领域,随着时代和技术的变迁才逐渐应用在各行各业,深深影响着中国近40年来计算机科学和数据管理方式的发展,见证了中国自主技术的蜕变! 原文发布时间为:2017-09-12 本文作者:朱立娜 原文标题:一图秒懂中国数据库的40年发展简史

《电路分析导论(原书第12版)》一1.2 电气与电子发展简史

1.2 电气与电子发展简史 在科学上,一旦一个假说被人们证实和接受,它就会变成它所在的研究领域的一种积木块.通过积木效应,它又会给这个领域带来新的探索内容,并展示新的发展机遇.从自然规律上看,遇到的难题越多,通往解答的林荫大道就越敞亮.历史已经证明并且还在证明,单一领域的发展可能会导致"蘑菇效应" mushrooming effect.蘑菇长在阴暗的角落,得不到阳光,也没有肥料,自生自灭.只有长到足够高时才会被人关注,可此时它自己已经能够接受阳光了.这种现象称之为"蘑菇效应

经济学人万字总结17年AI领域并购趋势:谷歌领跑,人才竞争白热化

无论是在好莱坞电影或是新闻,2017年都充斥着无数人工智能(AI)与人类思维博弈的热议.而摆在眼前的竞争并不只是在人与电脑间,而更多存在于不断疯狂烧钱.投资并寄期望于成为全球AI领导者的科技大佬之间. 世界上最大的科技公司,无论国内或者国外,比如Alphabet(谷歌的母公司).Amazon.Apple.Facebook.IBM和微软纷纷投入了巨资来发展AI.下图显示了截至2017年12月,全球AI领域合并与收购额高达213亿美元,比2015年多出26次交易.(数据由PitchBook提供) 全

AI超大事件丨从研究到应用,这是一份2017年AI领域的最全面总结

2017年已经结束了,还有什么比回顾这一整年中AI的发展历程更激动人心的吗? AI大事件的作者Denny Britz梳理了2017整年的AI大事,人工智能从研究到应用领域的回顾,都在这篇AI超大事件里了. 强化学习在很多游戏上达到了超人表现 今年AI领域最成功的故事可能就是AlphaGo了(Nature论文),AlphaGo是一个强化学习代理,击败了世界上最好的国际象棋棋手. AlphaGo的第一个版本使用来自人类专家的训练数据进行引导,并通过自我对弈和蒙特卡洛树搜索进一步提升.不久之后,Alp

2012年中国云安全网站保护领域三大品牌大测评

云计算是继1980年代大型计算机到客户端服务器的大 转变之后的又一种巨变,百度一下云计算有5800多万条相关记录.相关数据显示2011年上半年,中国互联网上新增病毒528.7万个,比去年同期上升25.2%;新增钓鱼网站218万个(以URL计算),是去年同期的25倍.为什么网站存在安全问题?因每公司关 注重点不同,绝大多数的网站开发与设计公司,对于网页代码的安全设计了解甚少,发现网站安全问题和漏洞,其修补方式只能停留在页面修复,很难针对网站具体的漏洞原理对源代码进行改造.这些也是为什么有些网站做了

数据库设计三大范式

数据库设计范式 什么是范式:简言之就是,数据库设计对数据的存储性能,还有开发人员对数据的操作都有莫大的关系.所以建立科学的,规范的的数据库是需要满足一些 规范的来优化数据数据存储方式.在关系型数据库中这些规范就可以称为范式. 什么是三大范式: 第一范式:当关系模式R的所有属性都不能在分解为更基本的数据单位时,称R是满足第一范式的,简记为1NF.满足第一范式是关系模式规范化的最低要 求,否则,将有很多基本操作在这样的关系模式中实现不了. 第二范式:如果关系模式R满足第一范式,并且R得所有非主属性都

AI竞争即人才之争 领英发布《全球AI领域人才报告》

人工智能(AI)已经成为全球科技发展的下一个变革"奇点",而AI技术人才,则是主导这一变革的核心力量.今日,全球最大的职场社交平台LinkedIn(领英)发布了业内首份<全球AI领域人才报告>. <全球AI领域人才报告>(以下简称"报告")基于领英全球5亿高端人才大数据,对全球AI领域核心技术人才的现状.流动趋势和供需情况做了一系列深入分析,旨在为中国政府和企业打造"AI人才竞争力"提供权威的大数据洞察和智力支持. 报告发