人工智能的浪潮已经席卷了各个行业,并取得了一系列突破性进展,从语音识别的工具到无人驾驶汽车,再到可自动作战的新一代武器系统等,将人类的生活水平、科技发展带上了一个前所未有的新高度。但与此同时,“威胁论”自始至终也从未停止。
正如《终结者》之类的科幻电影所描绘的那样,我们对于创造出高度智能的机器人仍然充满了恐惧,害怕这会冲击到人类社会的发展与稳定。
许多人始终对人工智能的潜在威胁非常担忧,诸如《终结者》中的自动化机器人起义
就目前的技术水平而言,这样的担忧似乎显得有些为时过早,未来的 10 年到 20 年间,更为具体的实际问题可能在于人工智能是否会对就业市场产生巨大冲击,无人驾驶将会给交通安全带来哪些威胁,人工智能技术对未来战争形态和作战手段的影响等。因此,如何应对这些全球性的挑战,确保人工智能产业的健康发展,已经成为科技业界一大关注焦点。
为此,Alphabet(谷歌母公司)、Amazon(亚马逊)、Facebook(脸书)、IBM 及 Microsoft(微软)决定联手制定全球AI技术开发的伦理道德标准,他们的AI研究人员试图针对具有广泛影响力的具体议题进行讨论,包括就业、交通、战争等领域。
硅谷的科技巨头们正在积极应对人工智能带来的冲击与挑战,一个AI界的“正义者联盟”即将诞生
这 5 家全球科技巨头将组成一个AI联盟团体,官方名称还未确定,或将在 2016 年 9 月中旬对外宣布。届时,还可能新增其他新成员加入,比如上述成员之一的Alphabet以提出申请,要求子公司 Google 的人工智能开发部门 Google DeepMind 作为另一独立成员加盟此 AI 团体。
虽然技术行业向来充满了竞争,但也有科技公司携手合作的先例,前提是能为它们带来最大利益。举例来说,20 世纪 90 年代,科技公司同意为电子商务交易设定标准加密方式,这为互联网业务长达 20 年的增长奠定了基础。
现阶段 AI 业界人士最担心的是政府相关监管单位涉入监管,对发展 AI 技术制定相关的法律法规。因此,他们正试图创设自律管理组织架构,尽管目前还不清楚它将如何发挥作用。
如何把AI关在笼子里?
这一举措与美国斯坦福大学的研究团队最近发布的一篇名为《2030 年人工智能与生活》的报告不谋而合。研究突出了在可预见的未来,人工智能将给城市地区带来的潜在影响,探索了所有人类活动中最有可能实现技术突破的8个方面,包括交通、家庭、服务、医疗和教育等领域。报告没有具体谈及对战争的影响,因为他们认为,军事级人工智能应用超出了他们当前的知识范畴,但他们不排除将来对其影响进行研究。
美国得克萨斯大学奥斯汀分校计算机科学家、上述报告的作者之一彼得·斯通(Peter Stone),在报告中指出:“我们不是说不应该存在监管,而是应该以适当的方式进行监管。”他表示,报告提出的建议是,提高各级政府的人工智能意识和知识,呼吁私营和公共机构增加人工智能投资。
但报告中也声称,对人工智能进行监管是不可能的:
“研究小组一致认为,尝试监管人工智能是误入歧途,因为人工智能还没有清晰的定义,不同领域存在的风险和需要注意的事项有诸多不同之处。”
他们计划以 5 年为基准,制定有关人工智能在未来 100 年间对社会产生影响的详细报告。
与此同时,IBM 沃森人工智能部门总经理大卫·肯尼(David Kenny)则表示,“政府在人工智能的发展中能发挥作用,我们对此表示尊重。”他说,问题在于“政策远远落后于技术”。
麻省理工学院和组建行业合作伙伴关系的目的,都是努力将技术进步与社会和经济政策问题更紧密地联系起来。麻省理工学院在考虑设计新式人工智能和机器人系统时,将它们设定为“society in the loop”级别,即机器人系统依然需要人类进行干预和监督。举例来说,美国国防部最近开始制定军事战略,采用人工智能武器系统,但依然需要由人类作出是否开火的决定,而非将决定权赋予机器。
2015 年 AI 100 常务委员会的主席、哈佛大学计算机科学家 Barbara Grosz 说:“人工智能技术是可靠的,并且具有广泛的助益。”应对挑战的设计部署透明化有利于建立彼此的信任,避免不合理的恐慌与猜疑。
亚马逊的Jeff Bezos, IBM的Virginia Rometty,微软的Satya Nadella,谷歌的Sundar Pichai,脸书的Mark Zuckerberg(从左至右)
据传,五大科技巨头间已有一份准备组成新联盟团体的备忘录(MOU),虽然具体计划、讨论成果等信息还未披露,但据参与创建行业伙伴关系谈判的4名消息人士透露,这五家科技业者合作共商的目标很清楚,就是要确保全球 AI 研究可让全人类受益,而非对人类社会造成伤害。
via DailyMail & 纽约时报http://mobile.nytimes.com/2016/09/02/technology/artificial-intelligence-ethics.html?_r=0&referer=https://www.google.com/https://www.leiphone.com/news/201609/dkb6pKajkgFVSayz.html
雷锋网按:本文由雷锋网(公众号:雷锋网)独家编译,未经许可禁止转载!
推荐阅读:
本文作者:陈杨英杰
本文转自雷锋网禁止二次转载,原文链接