2017年7月7日至9日,全球人工智能与机器人峰会CCF-GAIR大会在深圳大中华喜来登酒店举行。本次由CCF中国计算机学会主办、雷锋网(公众号:雷锋网)与香港中文大学(深圳)承办的大会聚集了全球30多位顶级院士、近300家AI明星AI企业 ,参会人数规模高达3000人,都是国内顶级阵容。
在7日上午的人工智能前沿专场中,亚利桑那州立大学教授、AAAI学会主席Subbarao Kambhampati教授进行了题为“人工智能的崛起与人类感知AI系统的挑战”的演讲,分享了他在AI浪潮中的感受和对AI未来的思考。
以下为Subbarao Kambhampati教授演讲图文全文,雷锋网 AI 科技评论整理。
我是Subbarao
Kambhampati,我来自亚利桑那州立大学,我今天将和大家共同探讨一下AI的崛起以及人类感知AI系统的挑战。非常感谢主办方邀请我来中国,这也是我第三次来到中国。下面有我的联系方式,最重要的应该是微信吧,在中国可以用微信搞定所有事情,大家如果有任何问题可以通过微信联系我。
刚才介绍的时候说到我是AAAI的主席。首先我向大家简单介绍一下AAAI,AAAI是关注于人工智能的研究社区,它同时也是人工智能界最为久远的一个科学研究社区。它是在1979年建立的,它现在拥有大量的成员机构,同时AAAI也举办了目前全顶尖的人工智能论坛和相关的活动。我特别要提到的是,最近中国已经成为了AAAI非常重要的一员,有来自中国的很多的学者,特别是在中国加入之后,目前在整体的AAAI论文的提交数量,以及文章的接受量已经可以与美国相提并论,今年2017年可能会超过美国。其实AAAI2017会议时间本来计划在春节期间,那么会议可能只有一半的人参加,所以我们才把会议地点从新奥尔良更换到了旧金山,时间也换了,方便中国学者们参会。2018年的AAAI还会在新奥尔良老地方。顺便说一下,杨清教授是AAAI执行委员会成员,周志华教授是AAAI
2019的两位程序委员之一。
而且我还想强调,AAAI希望可以有更多有活力的中国参会者参加。现在每两篇提交的论文里就有一篇是来自中国的,每两篇接受的论文里也有一篇是来自中国的,但参会人员和AAAI成员里中国人的比例却很低,23个人里才有一位中国人。我很希望这个状况能够有所变化,这样我们就能变得越来越国际化,中国的学者的声音也会更强。同时我们也希望大家能够注册成为AAAI的会员。对中国来说会员年费只需要一年20美金,学生是18美金,所以对各位来讲,加入学会是一件很简单的事情。
另一件事是,当大家加入到AAAI以后会有一些本地的活动,最近印度就有一个AAAI分会,我希望中国也可以有。希望大家能够有所关注。关于AAAI我就说这么多,最核心的信息就是欢迎大家成为AAAI的会员。
现在我先花点时间给大家讲点背景知识,就是这些高级人工智能是如何制造出来的,以及谈谈AI除了现在已经能做的事情之外还有哪些需要跨越的门槛。然后主要要讲的是跟我自己的研究密切相关的:人类感知AI系统,为什么它们很重要,学校中对它的研究为什么越来越多,有哪些有意思的地方。
当我1980年左右刚开始接触AI的时候, 人们讨论的都还是AI为什么是做不出来的。当我在马里兰大学读书的时候,我读到了一本书,但是我读了这本书之后,我发现人工智能还有很多能做成的地方的。
现在每天我订阅谷歌的文章提醒,他们把关于人工智能的所有新文章都发给我,可以说在每一天收到的所有的文章里面都有至少二三十篇是关于人工智能的,媒体都在关注人工智能。而且这些文章越来越离谱,今天早上都我收到一篇文章说人工智能是不是被炒得太热了?
大家能够看到在人工智能的领域,现在有很多有趣的情况,有很多的公司宣称都他们正在使用AI技术。在2008年的时候没人说自己用AI,但是现在你必须说你正在用AI,不然看起来就很落伍。当然,各国的政府也正在关注AI,在美国奥巴马执政期间,美国政府有一个面向未来的计划,这个计划也主要是关注人工智能,奥巴马说,他希望整个美国都能够被AI技术变革,当然我们也看到同样的国家执政者,在中国也是一样的,希望大力去发展AI技术,变革中国的生产力。
AI还有什么影响呢?就是像我这样的书呆子能够有机会上电视,在摄像机前讲AI技术,在之前像我们这些做研究的学界的人士是没有机会到电视上的,我们跟别人讲我们做AI,但是没人知道AI是什么。现在整天都有记者想请我们讲讲人类会不会被机器人取代。
考虑到我刚刚讲的这些大的背景,在座的各位观众可能有的是研究AI的专门,有的是初学者,我给大家简单地做了一个梳理,来帮助大家了解为什么现在AI变得这么热。我们先想一想人的智能,我们看看宝宝,人类的宝宝在出生的时候,他们开始有一些特征和行为,在早期的时候,孩子会有感知和控制的能力,他们会观察世界,然后他们会去模仿我们的行为。这是我妻子的学生做的一个图,图中这个小孩可以把很多东西装进这个塑料袋里,这是一种很高级的动作,现在没有任何机器人能做到这些。另外,在孩子成长的过程中,他们会逐渐学会如何认识这个世界上的事物,然后他们开始有了情感的智力,然后他们有了社会的智能,知道如何和其它小孩相处。在这之后他们才会有认知的智能和推理的智能,比如说大家去上学,在上学的时候就培养我们自己的认知能力和推理能力。当然,在大学、中学和小学,我们都要进行各种各样的考试来培养和锻炼我们的认知和推理能力。这就是人类学习智能的路径,从感知到认知。
我们再看一下AI,在90年代的时候,我们有一个专家系统,这个专家系统是一种基于规则的系统,当时许多企业都开始采用这种系统自动解决一些疾病诊断之类的非常具体的问题。在90年代的时候有深蓝计算机,它和俄罗斯的国际象棋手进行了比拼,并且获胜,所以那时候计算机开始有了推理的技能;但很有意思的是,这时候能够胜过卡斯帕罗夫的计算机却没办法区分一个蛋糕和一个棋子,它没有任何头绪,它只能接收棋盘上棋子位置的符号化表达然后进行搜索。所以那个时候计算机还没有感知的能力,而在2000年之后,我们会看到现在最新的一些AI技术,让我们的AI有了感知的能力。比如他们开始进行语音识别、图象识别,都取得了很大进步。而且我觉得如果把识别跟感知结合在一起,将会是未来一个很火热的话题。
说了这么多,我们就可以看到一件很有趣的事情,从过去到现在,人类是从感知到智能,而机器是走了一条相反的路,从识别到感知,所以机器的学习跟人类的学习是不一样的。大家以后记得这件事的话,会帮助你增进对AI的理解。
为什么机器或者是AI的学习跟人类的学习是相反的呢,它们为什么不是先去感知,然后再去观察呢?在这里就得到解释了,我们只能让计算机做那些我们知道如何做的事情。我们说不清自己是具体怎么样观察世界的、怎样抓取东西的,但是我们能够教会别人做诊断、做法律辩护。所以把我们清楚地知道理论的事情编程到电脑上就很容易。这就是机器先拥有推理和认知能力的原因。因为我们不知道自己是怎么样感知物体的,所以计算机只能模仿我们的样子去感知。不知道大家有没有意识到,我们的小孩有六七年的时间都外表看起来可爱,但是同时在不停地吸收外界的信息,在从数据中学习。这也是计算机需要做的事情,我们先让计算机通过大量数据学会了认知智能。
这并不是说一种智能就不如另一种,人类就具有全部的这些智能,只不过有的智能我们先学到,然后在它们的基础上才能学到更高级的智能。而且不光是学习,机器对于视觉的信息和图象的提取都会变得越来越好。另外,在未来我们还会训练机器去进行说、理解和解释这样的连环的培训。
现在AI技术为什么变得大热呢?这是因为我们发现在现代的AI技术之下,我们能够通过人工智能的技术,让我们的手机看到我们所看到的世界,并且这个手机还能把它看到的信息跟我们进行反馈。如果我们能够实现这样的人机互动,每个人都能够去用人工智能。大家都能知道在最新的围棋比赛中,如果我们能够使用这种人机共识或者是共同工作的状态,在未来AI技术会得到更大的应用。同时,这个现象也有一些副作用,我们在生产生活的各个方面都看到AI技术的使用,在漫画里边大家能够看到,当深蓝计算机跟人类的棋手进行比赛的时候,它说“这是1970年,你不要跟我讲AI,这时候AI技术还没有这么智能”。现在又走到了另一个极端,任何一个行业都在讲AI,而深蓝以及AlphaoGo,这些机器每天都在跟人类的智能进行比较和衡量。所以现在大家看到任何东西都要言必讲AI,因为这是人们愿意听到的,这也是AI大火带来的一个负面作用。我觉得AI技术的大热可能会让我们蒙蔽了双眼,不能看到它未来的前景。
现在当然我们能够做图象的抓取,能够做语音的识别,但是这就够了吗?
这是阿基米德,他是希腊的哲学家,他说“如果你给我一个支点,我就能够撬动地球”。现在人们说,如果你给我一个足够大的GPU、足够多的数据、足够深的网络,我就会给大家创造出超智能。但是其实这种事情是不存在的,超智能不是这样就能得到的。
现在我们必须要去吸取早期在80年代、90年代在深度学习和大数据方面所走过的弯路,并且看未来一步怎么走。这就给我们带来了一些关于AI的风口期,我们都知道到目前为止,AI的发展是非常快的,但是也有人认为AI走向了冷冻期。当然很有意思的一点,去年有一家公司说,我们可以使用面部识别的方法告诉你这个人到底是不是犯罪分子或者是恐怖分子,这样我们可以建立起一个机器学习的系统,最终能够帮助我们去预测哪些人可能会成为恐怖分子,这是一家以色列的公司,但是我并不确保这到底是不是所谓的人工智能的系统。
在中国,人的智商也是非常高的,在去年我们可以看到有一个来自中国的数据。我们如何使用面部识别的方法,能够帮我们进行人的面部的感知,以及包括一个推理,如果大家去到警察局,可能会看到有大量的人的照片,然后在云端寻找这些数据,同时通过深度学习来进行推理,预测这些人是否会出现任何的犯罪行为。这些照片显示的都是中国人,不是说他们都是犯罪分子,我们只是拍了他们的照片而已。
通过机器学习,可以进行犯罪分子预测行为的准确性达到95%,可以甄别谁是犯罪分子,谁不是犯罪分子,它可以通过我们帮助社会上的人是不是犯罪分子,但是这样的系统也出现了很多争议,大家在探讨这到底是不是人工智能的一个好的应用,这样的方法是不是能够使用在智能的犯罪分子的预测上。这篇文章要让我们设想一下,为什么我们要在人工智能方面谈伦理学,我特别谈到这一点,对于任何复杂、强大的技术,我们都要思考一下,我们到底应该如何使用它,如何用一种谨慎的方法来使用他。当AI在发展的过程中,很多人报道关于AI的技术,我们谈到的只是技术本身,我们现在也要探讨在人工智能方面的一些伦理方法,以及包括在技术使用上的伦理道德的原则。
这就让我想起了另外一个组织,就是人工智能的合作伙伴关系,这个组织是由世界上非常知名的谷歌、微软,以及脸书、IBM等等几大公司发起的联盟,我也是作为一个AI部门的理事加入到这个联盟,我们这个组织最重要的目的,就是希望通过这个组织帮助我们了解,如何用有社会责任的方式来使用人工智能的技术。我们确实做出了很多的技术变革和技术发展,但是我们不希望用这个技术决定谁是犯罪分子,谁不是,因为这样的做法实在是太疯狂了。同时我们也可以探讨其它的AI技术的使用,可能会造成人的隐私的泄露,或者是影响到公民的权利,从这一点来讲,就是我们建立这个联盟的原因,而我本人也是这个联盟的理事。从我个人的角度来说,我们提到了关于安全重要性的人工智能,以及包括一个公平、透明、可信的、问责制的AI,以及包括人和人工智能系统之间的合作。
我们这里特别提到了这一点,如果我们要让AI来决定人到底是不是犯罪分子的话,我们不能找一些滑稽可笑的理由,我们必须要能够向人们解释出来,以合理、公平、道德的方式展示,为什么这样使用。这是我今天演讲特别要提到的,AI对我们的文化产生了非常大的影响,同时AI也带来了大量的福祉。但是现在AI已经是一个非常强有力的技术了,这个技术在发展过程当中,有很多的公司对其进行商业化,进行了大量的转化。但是我们应该想想这些技术的使用,如何能够进行一个审慎的、具有伦理性的发展,我相信大家可以更好地了解我们AAAI,以及我们这个联盟,事实上我们都在不断地倡导对于AI技术的伦理性、道德行的使用。
在youtube上有这样一个视频,我在这里面特别提到了关于人工智能对社会伦理的影响,以及使用上的问题,如果大家感兴趣的话可以看一看。
接下来我想跟大家探讨的是,我们在智能、认知、感觉技术上的发展,特别是在感知技术和认知技术上的变化,还有一点就是我们对机器人的控制和操纵,从操纵的角度来说,我们也可以依靠大数据来达到这一点。但是我想问一下,我们是否就已经做完了所有的研究呢?事实并非如此,我们仍然有很多的挑战,在这里有一点就是我们现在大部分的学习和案例都是基于以机器为基础的,学习知识为基础的学习,但是它的案例数量仍然非常少。人类的学习一般是你给我一个片断,或者我根据我自己所得到的知识来进行模拟、使用。但是目前在人工智能行业还做不到。还有另外一点就是常识,这一点是我稍后要跟大家探讨的,还有一点就是世界的不完整性,我们可以看到目前我们所有的关于这个世界的了解仍然是不完全的,在我们做AI的过程当中,我们是否需要一个完全完整的知识?但是对人来说,我们都没有办法对全世界有一个清晰的认识,我们如何能够确保AI可以做到对世界完整的认识?还有一点就是交互,机器以及人工智能和人的交互。我们希望在和人交互的过程中,不会出现任何的不良事件,我们希望这个人工智能能够和人进行紧密、有效、正向的联系,而不会带来过多的不良事件。稍后我会和大家探讨一下这方面的研究上的挑战。
首先我们来看一个常识。常识是我们经常提到的,什么叫做常识?我最喜欢的就是麦哲伦的这个案例,“麦哲伦曾经三次环游世界旅行,那么他是在哪一次旅行中去世的?”我们大家都知道这个问题的答案是什么,但是智能系统就不能像人类一样马上得出这个答案。
还有一个例子,“这个女的停止吃药是因为怀孕了”,是谁怀孕了,这个女的还是药片?下面看第二个,句子:“这个女的停止吃药是因为会致癌”,是谁会致癌,这个女的还是药片?两句结构一模一样的话,人类却能很快地区分出它们间的区别并正确地理解它们。
实际上从2016年开始,我们就开始进行关于语义的了解,我们去年开始了一个比较大的竞赛,这个竞赛最终的结果事实上并不是很理想,我们希望能够真正地寻找到在同样的语言背后的语义的变化,能够让我们的人工智能真正了解到这一点,同时能够帮助我们更好地了解到这个机器所没有办法了解到的人类的自然语言的语义变化。事实上还有其它的一些变化,我也想和大家进行分析,就像我们提到的关于麦哲伦的这个问题也是如此。
我刚才和大家提到了一个不完整性,也是一个非常大的挑战。因为现在越来越多的人开始探讨超级智能,或者是包括智能至高无上的发展,以及机器的完全智能,它们将取代全世界,人类将会灭绝,或者有人说人类会成为机器的奴隶,我觉得你完全不用担心这些部分,因为我相信如果我们有这种杀戮的机器,如果它使用的是一个对世界的不完整认知,它确实会带来很多负面影响。但是对我们来说,它这样的一种结果是非常不可预见的。我们如何能够在一种不完全的模式下,能够对机器来进行训练,这一点是非常重要的,接下来这个部分我还会谈这个观点。
最后一个部分我想和大家探讨的是一个非常大的挑战,也就是我们如何去确保人工智能和人来进行共同的交互。这一点也是在接下来的十几分钟我会和大家进行分享的。
在这里我想和大家特别提出的是,在人工智能当中,人工智能作为一个整体,它和人之间的关系是非常有意思的,他们希望能够帮助人类,但是他们并不是非常希望能够看到在人机协作方面所出现的大量的问题。大家想想下一次你提到人工智能的发展的时候,我们可能花了很多的时间来看我们的人工智能的机4器战胜了非常知名的棋手,它在帮助人的同时也战胜了人,很多人提到了人工智能和人之间的关系的恶化。与此同时还有一点就是在之前的文章当中,很多人提到人工智能会取代人,人将会成为人工智能的奴隶。但是对于我们来说,我们自己应该要关注这一点,特别是对于人工智能的负面报道,我们必须关注。
去年我负责了我们的全球人工智能联合大会的国际会议的主办,当时我们就建立起一个特别团队,我们提到了应该是有意识的人工智能,我们特别提到了关于人和机器如何能够得到有效的结合,能够共同协作,这才是最为重要的。在那次会议上,我们就提到了我们为什么要主观地设计这样一个未来,我们为什么要去设计一个让我们自己能够担忧的未来,而与此同时,你们如果认为机器能够战胜人类的话,人还应该做什么事情呢?我们人应该是能够让机器辅助人,增强人的能力,这是需要我们各界相互协作。很多人提到了有意识的人工智能,人工智能或者是有意识的人工智能,可以真正地将我们从传统的机器人为主导的趋势中救出来,我们相信对机器人的负面的报道也会不断地减少。
这是JASON报告,这是一个非常知名的智囊团和咨询团,他们为美国不同的部门提供服务,我之前参加过一个JASON的会议,有一个人说了我们现在必须决定的三大问题。在JAZON现在进行了大量的关于人工智能的研究,同时他向我们展示我们如何在人工智能的各个方面发力,其中他特别提到了一点,就是以增强人类生产力为发展的人工智能,将会最终走向有意识的人工智能的发展。与此同时,我们可以看到当我们在预测未来的人工智能发展的时候,也有一个白宫的报告,它特别提到了我们必须要寻找到有人类意识的人工智能的新算法。
这是潘云鹤教授的文章里的,现在我们已经进入了人工智能2.0时代,我们会走向更多的人机协作的时代。为什么我们必须要让人们意识到这一点?为什么我们会提到这一点?为什么我们在做这方面的工作?我在这里和大家探讨一下目前在AI方面的社会学问题。当每次提到人机协作的时候,人们都是觉得好像是一种期待的过程,大家觉得只是人去解决问题,而机器就站在旁边,什么都做不了。对于我们在座的很多年轻人,或者是各位工程师、技术人员,我们都知道这是我们真正的机器对话,这个机器可以有非常好的智能,但是这个机器后面还有一个人,他在阐述这是一个机器人,但是里面藏着一个真正的人,这是一种谎言,这样的谎言也是人们希望有人的感知能力的人工智能发展过程中的谎言。
人工智能还有没有别的挑战?如果机器做的事情越来越多,人的能力会不会被机器取代?大家都认为,如果机器的能力越来越高,我们就不需要人了。我们再看一下人机融合或者人机合作,人机合作就能拓宽AI技术的深度和广度,而现在人机融合也能打消人们的担忧,比如说有些人担忧机器人将会取代所有的人类进行工作,如果进行人机协作的话,就打消了这种疑虑,同时人机合作或者是有意识的人工智能,它还是一种全新的研究方向,这在未来可能会被认为是一件很酷的科研的方向。现在有许多新的科研的挑战在人机融合方面,从高层或者是政府层面来看是看不到的,我们讲人机融合在操作上有许多的问题需要解决。
有人说,人们需要我们自己的大脑,不光是去看老虎,看狮子,而是去互相观察,在大多数时候,人类的大脑实际上做的事情不是自然的观察,而是社会的行为,比如说我们会倾听、交流和互动,这也就是人脑和机器的大脑能够互相进行合作的地方。因为人脑具有社会交际的功能,所以它能够填补机器在这方面的空白。
这一张片子是我在前面给大家看到的,我刚刚没有讲过情感和社会的智能,但情感和社会的智能恰恰是人脑所拥有的,并且擅长的,我们利用这两个方面的智能教育孩子在学校里要守纪律,并且我们告诉他们如何掌控自己的情绪。同时我们还有社会的智能,社会智能让我们更好地跟别人进行互动,比如说如果没有这种情感和社会的智能,我们在采访的过程中,可能采访人和被采访人之间就不会进行任何的互动,如果机器人去采访,他就会丢掉这份采访的工作,因为他没法和他的采访对象之间进行互动。另外,情感和社会的智能还会帮助人工智能模拟人脑,并且逐渐的具有一些情绪和社会的智能。现在我们已经知道,如果人们开始不使用AI系统,是因为AI系统没有社会和情感的智能,对于现在在座的一些微软的专家,可能听起来不是那么高兴,因为人工智能的确没有社会和情感的智能,而我们知道在微软的办公室里,他们会有一种机器人,会帮助他们的员工去进行工作。在这个机器人身上体现了微软现在已经取得的所有最新的机器人和人工智能的技术,但是当比尔盖茨宣布他要退休的时候,在座的所有的员工都有了情感,有的人开心,有的人难过,有的人可能会哭。但是他们就发现跟他们在一起工作的这些机器人是完全没有任何情感表示的,这也就是说如果我们在平常工作的过程中表现欠佳,我们需要同伴对我们进行一个情感安慰的时候,跟我们一起协作的机器人是做不到的,因为它们本身并没有情感。所以我们现在要开始考虑这种机器的辅助人工智能是否能够被引入到工作场合中去,因为它们本身并不具备情感和社会的智能。
现在大家再看一个智能主体的结构。我们会有一个智能的主体,首先我们要看在这个智能主体之内,它有制动器,也有传感器,我们会看世界,观察这个世界的信息。而对于人脑来讲,人脑也是一个智能主体,但是他观察信息的方式是完全不一样的,大家知道人脑,我们也可以模拟人脑,我们会发现,如果我们让AI的机器模拟人脑的时候,我们就会看到在这张表上一个智能主体的结构变得非常的复杂和丰富。举个例子,如果是出现一个表征的情况,他们不光能够看到现在是什么样,而且他们会想到此刻我周围的人在考虑什么,我周围的人考虑的东西和我之间有没有什么关系。机器不光是对周围的信息感兴趣,而且他开始因为新的人机融合的智慧主体,开始对周围的事情产生关联和联想。就像人脑一样,我们的机器和人脑进行融合,就会关注越来越多的周遭环境的信息,包括这个人在想什么,这个人下一刻在想什么,他想的东西跟现在的环境有没有关系,另外我们还要对这些信息保持持续的追溯。所以人脑抓取信息是越来越复杂和丰富的,如果进行人脑融合的话,我们就可以让机器感知和解决现实中的问题。如果我们关着门一个人待起来的话我周遭的世界是很简单的,但是在社交生活中永远都不是一个人在闭门造车,所以我们需要社会的智能和情感的智能来弥补机器所不具备的这两部分的技能。
我们接下来再看这张图片,在接下来的几分钟我会讲一讲我们的团队在人类意识的人工智能方面做了哪些研究。我们主要是研究人和机器不同的决策、学习的过程,然后去进行和人机融合的模拟,另外我们还要人和机器一起合作,在这里面大家可以看到,我们让一个人和机器进行对话,让机器试图去理解它对面的这个人的意图,通过理解到的意图做相应的动作。比如说他张开双臂是代表什么意思,他把手放在桌子上是什么意思。当然在这个项目里边我们也投入了大量的资金,到现在为止我们的技术能够在某种简单的层面下去让机器了解到它的人类的协作者希望它做什么,并且了解人类的意图,而通过人类的表情去看这个人是开心或者是不开心。另外人类还会给它发送不同的信号,有些信号代表的是高兴,有些信号代表的是不高兴,机器要根据接收到的信号做相应的判断,并且它不光是要做人类期望它做的动作,而且要做人类接下来在下一个环节希望它继续去从事的动作。因为一般情况下,我们可能都很容易去了解我们想做什么,别人希望我们做什么,但是别人为什么希望我们这么做是一个更加复杂的命题,所以在人机训练的过程中,我们训练机器听我们的指令,不光是了解我们的意图,我们不光做人类的语言,跟机器进行沟通,同时还加上手势和表情,而如果手势和表情不足够的话,我们还提供额外的信息来让机器了解人类,让它做某种动作的意图是什么,期待是什么。
举个例子,在荷兰我们做了一个类似的实验,人们看到前面的一个球,然后把信号传递给机器,机器自己去感知它到底是不是要去抓这个球。现在大家来看这个机器和人试图抓取桌子上的积木,而机器人需要了解,当人类开始去抓取的时候,人类希望它怎么做,所以通过人机协作,人类的情感和社会智能就弥补了机器所不具备的情感和社会的智能。
我们现在看一下有哪些挑战。首先,我们必须要有一个很好的人类和机器互动的体制,我刚刚也讲过,现在世界上最复杂的一个问题就是我们去考虑旁边那个人在想什么,这是世界上最难以解决的命题,所以要考虑到人类的思维实际上是很难解决的,我们要训练机器去了解它旁边的人在想什么,这是难上加难的问题。另外,我们不光要确保机器去了解它旁边的这个人想什么,而且要能够根据它的判断去做出一个明确的行为。另外还有一点就是,大家都知道我是一个AI的专家,但是即便是我这样的专家,我也没有办法研制出一个机器人,让它完全了解人类的意图,并且跟人类进行互动。当然,我们都知道如果真的有这样一个机器人产生,它可能会更好地跟人类进行相处,因为它能够了解在这个封闭的社交环境里边人类希望它做什么,但实际上要做出这样的机器人是非常难的。另外我们也需要各国的政府批准人机可以在某种层面上进行互动和协作。举个例子来说,在某些特别的情况下让机器人跟人类一起去互动是不是一种可以被接受的情况,另外在某些细分的行业,比如说国防,是不是人可以和机器人进行合作。
另外,在这张图片上大家可以看到,机器人对于世界有自己的感知,而人类有大脑里边自己的关于机器能做什么的预设,这两个预设之间是不是完全一样的?未必。我们必须要让人类去了解他们脑中所设想的那个机器能做的事情,并不是真正机器在大脑里头所想的东西。我们必须要让机器人能够更好地跟人类沟通,比如说到底如何从一个目的地走向另外一个目的地,在前进的过程中最短的路径是什么,最好的计划是什么,人类和机器还有很多的在这样的简单互动方面需要协作的东西。另外还有如何去制定计划,如何把制定出来的计划用清晰的语言去解释出来。所有这些沟通的方方面面都会影响到人机融合未来的前景。
我差不多讲到这里,最后我会给大家放一个短片。我再简单地回顾一下我刚刚讲的所有的东西,首先我给大家做了一个简单的关于AAAI的介绍,AAAI是美国的人工智能年会,我们每年都接收关于人工智能方面的论文。今天关于人工智能的研究已经成为我们社会责任的很重要的一部分,而且我们也可以看到中国在全球的人工智能方面的贡献正在变得越来越多,因为我们收到的每两篇人工智能的论文里面就有一篇是来自中国学者的。其次我还讲了人类的婴儿和机器在学习方面的差异。另外我还讲了现在AI技术的一些专业的门槛。最后我讲了如何进行人机协作,并且培养出有人类智能的人工智能,当然这也是我们未来非常困难的命题,这也是像我这样的科学家在未来可能去解决的问题。因为大家都知道,最终的目的实际上不是让机器去取代人类,而是让人类更好地跟机器协作。
(完)
更多人工智能行业和学术更多报道,更多人工智能重要人物成果和演讲内容,请继续关注雷锋网 AI 科技评论。
本文作者:杨晓凡
本文转自雷锋网禁止二次转载,原文链接