霍金、马斯克携手力推23条原则,告诫AI发展底线

“一个好的未来是什么样子?” 特斯拉首席执行官伊隆·马斯克(Elon Musk)在加利福尼亚州阿西洛马的Beneficial AI会议上发言。 “我们正走向超级智能,亦或是人类文明的结束。”

全球2000多人,包括844名人工智能和机器人领域的专家联合签署了23条AI发展原则,呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。

宇宙学家斯蒂芬·霍金和特斯拉首席执行官埃伦·马斯克本周公开大力支持了一系列原则,用以确保拥有自主思考能力的机器保持安全发展,并符合人类权益行事。

机器正逐年变得更加智能,研究人员相信他们在未来几十年内可以拥有人类智能水平。 一旦他们达到这个程度,他们就可以开始改善自己,并创造其他智能,甚至更强大的AI,牛津哲学家尼克·博斯特罗姆和其他几个该领域的专家认为,应当称其为超级智能。

2014年,马斯克警告说,人工智能有可能“比核武器更危险”,而霍金在2014年12月说,人工智能可能会终结人类。 但它也是双刃剑。 AI也可以帮助治愈癌症及减缓全球变暖。

2017年1月初举行的“Beneficial  AI”会议为基础上建立起来的“阿西洛马人工智能原则”,名称来自此次会议的地点 –美国加州的阿西洛马(Asilomar)市,旨在确保AI为人类利益服务。

本次会议参加者是业界最富盛名的领袖,如DeepMind首席执行官 Demis
Hassabis和Facebook AI 负责人Yann
LeCun等。全球2000多人,包括844名人工智能和机器人领域的专家已联合签署该原则,呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。完整名单可以见futureoflife.org/

这一系列原则目前共23项,分为三大类:

1、科研问题

AI研究的目标应该是“有益的智能”。 它应该防止AI系统被黑客入侵。
它还应该解决“维护人类的资源和理想”。法律应该“跟上AI的步伐”,应该考虑人工智能“价值观”的问题。
此外,应该努力使研究人员和法律/政策制定者合作,并且应该“在AI的研究人员和开发人员之间培养整体的信任和尊重文化。

2、伦理和价值观

应根据原则以一种安全和透明的方式开发AI。
自主系统应必须可以解释它的行为。 创建AI系统的人必须对这些系统的使用方式承担责任。
自主系统的设计应反映人类的价值观。 人们应该有机会控制这些系统共享和使用数据的方式。AI应该尽可能使更多多的人受益,并应该为人类做出贡献,而不是仅仅得益于某些组织或个人。有的国家在竞争建立智能的自主武器
,这是很大的潜在危害,应该主动积极的避免。

3、长期问题

我们不知道AI会有什么能力,应该计划“灾难性或风险”。

Beneficial AI会议上的一个小组讨论会,包括埃隆·马斯克(最左边)和DeepMind的CEO(手持麦克风)

 “人工智能已经为世界各地的人们提供了日常使用的有益工具,”生命的未来 (Future of Life)网站上声明,“它的持续发展,须以后文原则为指导,在未来几十年甚至几个世纪,为帮助人类更加强大提供很多惊人的机会。”

会议上,马斯克坐在Hassabis、Bostrom、Tallinn和其他AI领域领导人组成的专家组中。

他们每个人都轮流回答他们所认为的超级智能,Bostrom在一篇学术论文中把它定义为“一种比每个领域最优秀的人类智能还要优秀的智能,这包括科学创造力、一般智力和社会技能。

当小组被问到超级智能是否可能,每个人都表示了十分的肯定,除了马斯克,当他说“不”的时候应该也是在开玩笑。可见,这些大佬都认为超级智能的发生是迟早的事情。有趣的是,当小组被问到是否期待超级智能出现时,回答开始出现矛盾了,有四个人思虑再三觉得“这很难说”,而马斯克说,这“取决于它到底是什么类型的智能了。” 

“阿西洛马人工智能原则”是开发安全AI的重要指南,它们得到了AI社区和广大从业者的广泛支持。路易斯维尔大学网络安全实验室主任Roman

Yampolskiy说:“从签署名单数量可以看出,对这些原则的巨大支持为人工智能安全这个年轻的领域提供了可信度,但它仍然需要面对众多对AI风险的否认者,他们仍旧拒绝相信设计不当或恶意的AI
/超级智能可能给人类带来巨大风险”。

| 点击视频,观看这次科技大佬之间生动的圆桌讨论

在电影“她(Her)”中,人类爱上了人工智能。

阿西洛马人工智能23原则原文:

科研问题

1)研究目标:人工智能研究的目标不是为了创造不受指挥的智能,而是有益的智能。

2)研究经费:对人工智能进行投资的同时,要保证有经费用于研究如何有益地使用人工智能,研究包括计算机科学、经济学、法律、伦理以及社会研究中的棘手问题,比如:

如何使未来的人工智能系统变得高度稳健,即系统会执行我们所想的而不会发生故障或被入侵?

如何通过自动化提升我们的繁荣程度,同时保持人们的资源和意志?

如何升级我们的法制体系使其更公平高效,能够跟得上人工智能的发展速度,并且能控制人工智能带来的风险?

人工智能该与什么样的价值体系保持一致?它该有怎样的法律和伦理地位?

3)科学与政策的联系:在人工智能研究员和政策制定者之间应该要有富有建设性的和健康的交流。

4)科研文化:在人工智能研究员和开发者中应该要培养起一种以合作、信任与透明为基础的文化。

5)  避免不必要的竞争:人工智能开发团队之间应该积极合作,避免有人钻空子导致安全标准被削弱。

伦理和价值

6)安全性:人工智能系统在它们整个的运转周期内应该是安全可靠的,并且能在可应用的和可行的地方被验证。

7)失败透明性:如果一个人工智能系统造成了损害,那么造成损害的原因要能被确定。

8)审判透明性:任何自动系统参与的司法决策都应提供令人满意的解释,可被有能力的人类监管机构审核。

9)负责:高级人工智能系统的设计者和建造者,在道德影响上,是人工智能使用、误用和动作的利益相关者,并有责任和机会去塑造那些影响。

10)价值观一致:高度自主的人工智能系统应该被设计,确保它们的目标和行为在整个运行过程里与人类的价值观相一致。

11)人类价值观:人工智能系统应该被设计和操作,以使其和人类尊严、权力、自由和文化多样性的理想相一致。

12)个人隐私:人们应该拥有权力去访问、管理和控制他们产生的数据,考虑到人工智能系统有分析和使用那些数据的能力。

13)自由和隐私:人工智能在个人数据上的应用必须不能不当地剥夺人们真实的或认为的自由。

14)分享利益:人工智能科技应该惠及并赋权最大可能的多数人。

15)共同繁荣:由人工智能创造的经济繁荣应该被广泛地分享,惠及全人类。

16)人类控制:人类应该来选择如何和是否委派人工智能系统去完成人类选择的目标。

17)非颠覆:高级人工智能被授予的权力应该尊重和改进健康的社会所依赖的社会和公民秩序。

,而不是颠覆。

18)人工智能装备竞赛:致命的自动化武器的装备竞赛应该被禁止。

更长期的问题

19)能力警惕:我们应该避免关于未来人工智能能力上限的假设,但这一点还没有共识。

20)重要性:高级人工智能能够代表地球生命历史的一个重大变化,我们应该用与之相称的警惕和资源来管理。

21)风险:人工智能系统造成的风险,特别是灾难性的或有关人类存亡的风险,必须能够被相应的努力所管理和减轻。

22)递归的自我提升:人工智能系统被设计成能够以一种可以快速提升质量和数量的方式进行自我升级或自我替代,这种方式必须受制于严格的安全和控制标准。

23)公共利益:超级智能的开发是为了服务广泛认可的伦理理想,并且是为了全人类的利益而不是一个国家和组织的利益。

参考素材:businessinsider.com/techrepublic.com

本文作者:大数据文摘

本文转自雷锋网禁止二次转载,原文链接

时间: 2024-12-22 07:07:37

霍金、马斯克携手力推23条原则,告诫AI发展底线的相关文章

数据仓库设计的21条原则[DMResearch.net]

设计|数据  [为方便自己阅读所以收集整理此处,www.DMResearch.net]   数据仓库设计的21条原则 --7个步骤,7个禁忌和7种思路 高效实现数据仓库的七个步骤 数据仓库和我们常见的RDBMS系统有些亲缘关系,但它又有所不同.如果你没有实施过数据仓库,那么从设定目标到给出设计,从创建数据结构到编写数据分析程序,再到面对挑剔的用户的评估,整个过程都会带给你一种与以往的项目完全不同的体验.一句话,如果你试图以旧有的方式创建数据仓库,那你所面对的不是预算超支就是所建立的数据仓库无法良

防御XSS的七条原则

 攻击者可以利用XSS漏洞向用户发送攻击脚本,而用户的浏览器因为没有办法知道这段脚本是不可信的,所以依然会执行它.对于浏览器而言,它认为这段脚本是来自可以信任的服务器的,所以脚本可以光明正大地访问Cookie,或者保存在浏览器里被当前网站所用的敏感信息,甚至可以知道用户电脑安装了哪些软件.这些脚本还可以改写HTML页面,进行钓鱼攻击. 虽然产生XSS漏洞的原因各种各样,对于漏洞的利用也是花样百出,但是如果我们遵循本文提到防御原则,我们依然可以做到防止XSS攻击的发生. 有人可能会问,防御XSS的

(转)精益技术简历之道——改善技术简历的47条原则

作者:Lucida 微博:@peng_gong 豆瓣:@figure9 原文链接:http://lucida.me/blog/lean-technical-resume/ 关于 这篇文章围绕着技术简历这个话题,从版式.个人信息.技术能力.项目经历和教育背景等方面出发,给出了编写高质量技术简历所应遵循的47条原则.它们既有益于求职者编写高质量的简历,也有助于招聘者筛选合格的求职者. 为什么要编写这篇文章? 技术简历既是技术人员求职必不可少的一环,也是找工作的第一步,其重要性不言而喻.然而关于如何编

张亮微博广告1条23万 中介称明星无底线给钱就发

因<爸爸去哪儿>大红的张亮 如今社交网络可能对于每个人来讲都不陌生,经常用微博.微信,普通人现在很多已经养成了这种习惯,比如说吃饭之前,先拍张照片,分享到自己的微博当中跟好友分享.但是一般人发这些东西可能仅仅是作为一种分享.推荐而已,那么有些人就会有一些用心和目的去发布这些东西来赚取一些经济利益,这就是所谓的软广告.那这其中就不乏我们熟悉的一些明星面孔,明星平时像拍电影.电视剧挣钱,拍广告也挣钱.但是在微博上发布软广告赚钱这样的情况可能大家不太知道.而明星发布这些体验式微博进行办理推广的行为一

设计Logo的12条原则

要从一众竞争者中显得突出,你必须创造独特的风格来显示自己的设计特色,而不是模仿甚至抄袭其它设计或者风格,唯有创新才能脱颖而出. Logo(品牌标识)是品牌的"面子",所以极其重要,一个设计优秀的Logo是品牌的重要资产.然而,仅仅靠优秀的平面设计并不能保证设计出来的logo是令人印象深刻且形象生动的品牌标识. 正如不同的行业有其特定的技能,logo设计也要求设计师不断学习,积累经验才能获得成功:对所有平面设计师来说,知识便是能力. 基于此,我们总结出要设计好的logo必须遵循的12条原

如何去掉WPS 2009右上角消息推送条

WPS2009是一款非常不错的办公软件,尤其是个人版的免费开放,更是圆了人们的软件正版化的梦想,从此不再受版权困扰. 由于WPS个人版是一款免费办公软件,所以在软件中适当添加些网站宣传大家都是可以理解的,只是有时由于WPS推送的消息内容较长,造成与菜单栏及按钮紧密接触(如图01),有时在文档操作中误点后,会自动打开浏览器转到相关网页,遮挡住正在编辑的文档,还要将其关闭才能继续操作,这无形中就对人们的心情造成一定的影响.推送条虽说有时可以指向WPS社区的某一主题,会对人们的操作起到一个提示,但毕竟

防御XSS攻击的七条原则

前言 本文将会着重介绍防御XSS攻击的一些原则,需要读者对于XSS有所了解,至少知道XSS漏洞的基本原理,如果您对此不是特别清楚,请参考这两篇文章:<Stored and Reflected XSS Attack><DOM Based XSS> 攻击者可以利用XSS漏洞向用户发送攻击脚本,而用户的浏览器因为没有办法知道这段脚本是不可信的,所以依然会执行它.对于浏览器而言,它认为这段脚本是来自可以信任的服务器的,所以脚本可以光明正大地访问Cookie,或者保存在浏览器里被当前网站所用

众安保险携蘑菇街推互联网消费信保买呗

本文讲的是众安保险携蘑菇街推互联网消费信保买呗,"先消费.后付款"这一消费理念早已被年轻人普遍接受,随之而生的"剁手族"数量与日俱增.除了信用卡这一备受职业.年龄等因素局限的支付方式,一些新型互联网消费借贷服务逐渐深入消费者生活. 近日,国内首家互联网保险公司众安保险与电商平台蘑菇街推出个人消费信用保证服务"买呗",成功投保的客户即可享受"先消费.后付款"的服务,免息期长达40天,用户额度最高达20000元. 这是国内首款基于

ASP编码必备的8条原则_应用技巧

ASP是Active Server Page的缩写,意为"动态服务器页面".ASP是微软公司开发的代替CGI脚本程序的一种应用,它可以与数据库和其它程序进行交互,是一种简单.方便的编程工具.在这里仅就代码优化进行一些简单讨论. 1.声明VBScript变量 在ASP中,对vbscript提供了强劲的支持,能够无缝集成vbscript的函数.方法,这样给扩展ASP的现有功能提供了很大便利.由于ASP中已经模糊了变量类型的概念,所以,在进行ASP与vbscript交互的过程中,很多程序员也