如何管教AI的行为举止?OpenAI早已开始研究,而这只是整个AI安全领域的前哨

雷锋网 AI 科技评论按:在比赛中刷成绩和在游戏中击败人类职业选手仅仅是 AI
研究的一部分,OpenAI 的研究人员们同样重视对 AI 安全性的研究。这篇文章是纽约时报来到 OpenAI 实验室的报道,介绍了 OpenAI
近期在 AI 安全领域的想法和一些成果,也让我们看到了 OpenAI 研究人员的风采。雷锋网 AI 科技评论编译。

自学的人工智能可能学到奇怪的行为

在旧金山的 OpenAI 人工智能实验室中,计算机们可以自我学习、学会人类的举止。不过有时候也会出问题。

Geoffrey Irving(左)和 Dario Amodei 展示可以在简单的游戏中训练人工智能

前不久的一个下午,OpenAI 的研究员 Dario Amodei 在办公室里展示了一个自己学会玩 Coast Runners 小游戏的 AI 系统。这个游戏是一个颇有年份的电脑游戏,通过终点的时候得到的分数最高的船就是游戏的胜者。

不过 AI 系统的表现让人意外:游戏规则是吃掉屏幕上不停出现的绿色点点就会得分,而这只船对它们太感兴趣了,它根本不急着冲向终点,而是不停绕圈、跟其它的船撞在一起、蹭着墙壁滑行,还有反复着火,就是不惜一切代价去得分。

Dario
Amodei 着火的小船游戏就展示出了正在迅速改变科技界的 AI 技术背后的风险。研究员们研究的是如何让机器自主学习,Google 的
DeepMind 也做的是类似的事情,他们开发出了能够击败世界顶级选手的
AlphaGo。但是随着这些机器在数小时的数据分析中自我训练,它们也可能会学会一些人类没有估计到的、不希望看到的、甚至是会造成实质性伤害的行为。

当网络服务、安全设备和机器人都开始用上 AI 技术以后,这样的担忧就无法忽视了。现在,Dario Amodei 在内的一部分 AI 研究人员已经开始联手探索新的技术理论来避免最糟糕的情况发生。

在 OpenAI,Dario Amodei 和他的同事 Paul Christiano 正在一起开发新的算法,他们希望这些算法不仅能在数小时的试错中学习,还能够在途中接受来自人类老师的普遍性指导。

现在他们已经找到了一种方法让
AI 系统知道 Coast Runners
的小船要边得分、边往终点走才行,而且人类只要在屏幕上点一点就可以。他们相信这样能够综合利用人类和机器指导的算法可以帮助确保无人系统的安全性。(这项研究的具体内容可见雷锋网
AI 科技评论之前的报道 你做我评——OpenAI和DeepMind全新的强化学习方法,根据人类反馈高效学习

Dario Amodei 和他的同事正在开发新算法,不仅能够自己试错学习,人类也可以给与指导

不可忽视的风险

近几年来,埃隆马斯克以及其它一些权威、哲学家、科技爱好者都在反复警告机器有可能摆脱人类的控制,学到一些设计者并不希望看到的有害行为。随着时间慢慢过去,人们似乎忘掉了这些警告,毕竟如今的自动驾驶汽车在识别行车线或者识别红灯这样最基本的任务中都会表现得磕磕绊绊。

但是 Dario Amodei 这样的研究者是希望赶在危险出现之前就把它们消灭掉。从某种意义上说,这些科学家做的事情就像是父母给小孩教什么是对、什么是错。

许多
AI
界的专家都相信强化学习会是通往人工智能的主要途径之一,这种方法里机器要反复试错才能最终学会做某件特定的事情。研究人员们为机器指定好一个它要追求的回馈,它就会随机地做出行动“尝试”达成任务,同时也密切关注着哪些事情会带来更高的回馈。当
OpenAI 的研究人员训练那个 AI 玩 Coast Runners 的时候,他们给它设定的回馈目标就是获得更高的分数。

虽然这只是一个游戏,但是能从里面影射出现实世界的状况。

研究人员们相信,如果一台机器学会了玩
GTA
这样的竞速游戏,它就能开一辆真车;如果它能学会用网页浏览器和其它一些常用的软件,它就学会了理解自然语言,可能还能够跟人对话。在谷歌和UC伯克利大学,机器人们已经用上了这样的技术来学会捡起东西或者开门等简单任务。这些事情不仅是
AI 开发测试的理想环境,能够完成它们也说明了 AI 具有相当的智能,接下来可以在更真实的环境中完成任务。

正因为这样,Dario Amodei 和 Paul Christiano 更加努力地想要开发出新的、能够让人类从中给予指导的强化学习算法,才能够保证 AI 系统不会偏离它们要完成的任务——谁都不想让 AI 系统在现实中造成不好的后果。

更多研究者已经加入了这个领域

这两位 OpenAI 的研究员已经和伦敦的 DeepMind 实验室的人一起发布了一些这方面的研究成果。虽然他们以往并没有什么合作经历,但毕竟两个都是世界顶级实验室,这些算法也确实算得上是 AI 安全研究方面显著的一步。

UC伯克利的研究员 Dylan Hadfield-Menell 说:“这种做法可以验证很多前向思考的成果,类似这样的算法在未来5到10年内有很大的潜力。”

AI
安全这个领域不大,但是一直在成长。随着 OpenAI 和 DeepMind 都建立了专门致力于 AI 安全的研究小组,谷歌的本土实验室
Google Brain 也加入了进来。同时,来自UC伯克利、斯坦福等大学的研究者也在研究着类似的问题,也经常与这些大公司实验室展开合作。

站着的是 Dario Amodei,Paul Christiano 穿着浅蓝衬衣,Geoffrey Irving 正在白板上写写画画

有时候,研究者们研究的是确保
AI 系统不会自己犯错,像 Coast Runners 里的小船那样。他们也需要避免攻击者和其它怀有恶意的人发现系统中的漏洞。比如谷歌的研究员
Ian Goodfellow 就已经在研究中发现攻击者可以欺骗 AI 系统,让它们以为自己看到了别的东西。

现代计算机视觉的基础是深度神经网络,它们是一类模式识别系统,在经过大规模数据训练以后就可以学会特定的任务。用成千上万张狗的照片训练过以后,神经网络就可以学会识别一条狗。Facebook
就是用这样的方式识别自拍中的人脸的,谷歌也是这样在照片应用中对图像做即时搜索的。

不过 Ian Goodfellow 等人已经表明了攻击者可以修改一张图像,让神经网络以为图像里面是别的东西。比如对一张大象照片里面的某些像素做改动以后,就可以让神经网络把它识别成一辆汽车。

当神经网络用在安防摄像头中的时候,这就会成为实实在在的麻烦。根据研究员们所说,在脸上画几个记号就可以让摄像头以为你是别的人。

Ian Goodfellow 也说:“即便用一百万张人类标注的图像训练出一个物体识别系统,我们仍然可以创造出人类和计算机的识别结果100%不同的新图像。这种现象还需要我们继续深入了解。”

另一个难以忽视的担心是
AI
系统可能会学到一些方法,防止人类把它们关掉。在给机器设定了目标回馈以后,随着它的尝试和思考,它可能会觉得只有保证自己一直在运行才能够一直获得这些回馈。这个常常被提及的威胁可能距离目前的状况更远一点,但是研究者们也已经开始着手做预防。

Hadfield-Menell
和其它的
UC伯克利学者最近发表了一篇论文,介绍了一种解决这个问题的数学式方法。他们表明,如果设计机器的时候专门给它设定了一个不确定的回馈函数的话,它就会想办法保持它的开关是打开的。这就给它选择接受人类监管还是逃出去带来了刺激。

安全方面多数的研究还是理论性的。不过从 AI 技术的飞速发展和在许多工业应用中越来越重要的地位看来,研究者们认为相关研究开始得越早越好。

DeepMind 的 AI 安全研究负责人 Shane Legg 给出了他的看法:“AI 发展得这么快,未来到底怎么样还很难说。这些技术可能被滥用、被攻破的方式有很多,负责任的做法就是要尝试理解这些方法,并且设计各种解决方法。”

本文作者:杨晓凡

本文转自雷锋网禁止二次转载,原文链接

时间: 2024-12-03 07:19:13

如何管教AI的行为举止?OpenAI早已开始研究,而这只是整个AI安全领域的前哨的相关文章

时间序列预测教程;OpenAI 谈对抗样本:自然语言处理入门 | AI 开发者日报

Jason Brownlee 的时间序列预测教程 这是澳大利亚机器学习专家 Jason Brownlee 撰写的教程,提供了一套用 Python 语言处理时间序列预测问题的模板.该教程一步步向读者展示了应该用什么工具.如何操作,以及为什么这样操作.它使用了波士顿持械抢劫案数量作为案例,旨在解决的问题是对波士顿未来每月抢劫案的数量做合理预测. 全文包含代码长达两万字,是迄今为止最权威.最详细的时间序列预测入门教程之一.具有相当学习价值. 译文地址:http://www.leiphone.com/n

OpenAI及DeepMind两团队令未来的AI机器更安全

OpenAI和DeepMind的研究人员使用的新算法从人类反馈中学习,他们希望这样做能使人工智能更安全. 两家公司均为强化学习的专家,强化学习是机器学习的一个领域,其基本思想是,如果代理在特定的环境里采取正确的行动完成了任务就给予奖励.该目标是通过一种算法来指定的,代理经过程序后就会追逐奖励,例如游戏中的获胜点. 强化学习在训练机器如何玩如Doom或Pong等游戏或通过模拟驾驶自主驾驶汽车等案例中取得了成功.强化学习是探索代理行为的一个有效的方法,但如果硬编码算法错了或产生不良影响的话,这种方法

关于 AI 创新创业的那些事儿——人工智能的“双创”之路 | AI 科技评论周刊

AI 科技评论君对上周末刚刚结束的 CNCC 2016 大会依然意犹未尽,无论是包云岗研究员提出通过标签化冯诺依曼结构降低云计算数据中心成本,还是山世光研究员介绍的深度化人脸检测与识别技术中关于深度学习的应用,都展示了国内人工智能领域的学术创新成果. 而来自业界的出门问问创始人李志刚和大家讲述了的 AI 创业路上的那些坑与机遇,也作为最早一批人工智能领域的创业者,给广大读者带了不同的思考感悟. 除了关于创新和创业的分享,AI 科技评论君也注意到了科技巨头 Google 的学术动态,其最新发布的增

拉勾网引入百度 AI,上线全新企业及招聘者身份审核机制;AI 法律咨询服务系统落户厦门海沧

福建省首套人工智能法律咨询服务系统落户厦门海沧 雷锋网(公众号:雷锋网)消息 日前,海沧区司法局依托"法治海沧"微信公众号平台,在福建省率先上线了"智能海沧AI人工智能".这套AI人工智能法律咨询服务系统,依托全国3000多万份判决文书大数据库,可以为用户打官司提供个性化的案情分析和专业化的建议.而且,这套系统的所有服务对公众都是免费的. "这套人工智能系统不仅能回答用户个性化的法律问题,也会给出专业的行动建议,甚至打官司的经济花费都会进行预估."

迪士尼也来研究人工智能啦,将AI用于动画制作

雷锋网(公众号:雷锋网) AI科技评论按:众所周知,卡耐基梅隆大学在计算机科学方面的研究名列前茅,而迪士尼有意将计算机科学技术引入动画制作.他们与卡耐基梅隆大学合作建立的实验室近日发表了一篇论文 A Deep Learning Approach for Generalized Speech Animation,利用深度学习的方法,来生成看起来自然的语音动画.这篇论文已被SIGGRAPH 2017收录. 他们引入了一种简单而有效的深度学习方法,来自动生成看起来自然的,能够与输入语音同步的语音动画.

国内AI大牛云集KDD China,白宫如何应对袭来的AI经济?| AI科技评论周刊

随着美国大选落幕,白宫近日又发布了新一辑白皮书,名为<人工智能,自动化与经济>(Artificial Intelligence, Automation, and the Economy),围绕 AI 驱动的自动化社会下,讨论美国宏观经济.劳动力市场及政策会发生怎样的转变及影响. 在未来几年乃至几十年内,AI 驱动的自动化技术将大大改变经济的形态,在以下几个方面带来巨大影响. 1. 受 AI 驱动,社会劳动生产力会大幅提高: 2. 劳动力市场技能需求发生变化,高级技术技能受青睐: 3. 工资水平

OpenAI发布“宇宙”平台,用1000+训练环境赋予AI“类人智力”

当人工智能领域大牛在西班牙NIPS会议酒店吃早餐的时候,Open AI 宣布开源了其新平台"宇宙"(Universe).这家由伊隆·马斯克资助的非赢利性AI开源组织,在周一的上午搞了个大新闻,相信NIPS的餐桌上一定热闹非凡.当然,Open AI后续也在NIPS的会场展示了自己的成果. Open AI 联合创始人Greg Brockman 在Twitter上说道,"这个AI 训练架构,是我们从Open AI建立之初就在计划着的".可见Open AI对这个平台的重视.

OpenAI最新研究:“对抗样本”能轻易黑掉AI系统,如何抵御?

雷锋网(公众号:雷锋网)按:近日,OpenAI发表最新研究,论述了AI安全领域的一大隐忧:"对抗样本",它可以轻易地让机器学习系统产生误判,这会对AI的应用实践产生影响.在这篇由"GANs"之父Ian Goodfellow领衔撰写的文章里,OpenAI针对"对抗样本"进行了防御策略的实验,其中有两种方法效果显著,但也并不能解决根本问题.OpenAI表示设计出抵抗强大.具有适应性攻击者的防御策略,是非常重要的研究领域.本文原载于OpenAI Blo

Nvidia助力OpenAI非营利研究项目 赠AI超级计算机

上周,英伟达CEO黄仁勋(Jen-Hsun Huang)亲自在旧金山将一台DGX-1超级计算机赠与了OpenAI研究人员.DGX-1有着"装在盒子里的AI超级计算机"之称,它将由OpenAI非营利组织的研究团队用来探索与人工智能相关的诸多挑战. 其想法在于寻找OpenAI组织可以利用超级计算机的方法,因为它主要致力于类似为普通人打造人工个人助理.自动驾驶汽车和机器人的项目. DGX-1在今年早些时候首次亮相,Nvidia形容这一DGX-1系统是其首台专为人工智能打造的深度学习型超级计算