深度 | 人工智能的盲点在哪?

编者按:当我们都在关注人工智能对生活带来的积极影响时,另一种担忧的声音正在产生:自主智能系统在许多社会机构早已司空见惯,但我们却无法找到真正能评估其持续性影响的方法。本文提出了目前业界解决 AI 系统的社会和伦理学影响的三种方法,并提出了从社会系统分析入手的第四种方法,指出要关注人工智能在社会层面的意义。文章首发于Nature,作者 Kate Crawford 和Ryan Calo,雷锋网(公众号:雷锋网)作者老吕及何忞编译,未经许可不得转载。

芝加哥警察利用算法推测涉及枪案的嫌疑人,

但事实证明这种方法效果不明显

Sanchez/Chicago Tribune/TNS/Getty

白宫于本周发布了一份报告,阐述了它们对未来人工智能(AI)的看法。这份报告由来自西雅图、匹兹堡、华盛顿和纽约的四个研究小组耗费三个月时间撰写而成。

在这份报告中,许多来自不同领域的世界顶尖思想家讨论了 AI 如何改变我们的生活方式,其中包含大量的例子,生动地解释了机器学习和其他 AI 技术在解决生活中复杂问题方面的巨大作用,涉及从皮肤的变化预测癌症,到减少数据中心的能源消耗等多个方面。

此外,报告还强调了眼下我们在 AI 研究上存在的主要盲点:自主智能系统在许多社会机构早已司空见惯,但我们却无法找到真正能评估其持续性影响的方法。

最近几年,人类在人工智能领域取得了巨大的进步。相应的,来自多个学科的设计师和研究人员需要对 AI进行系统性的分析,他们必须评估出技术对社会、文化以及政治环境的影响。

举例来说,我们需要研究出 AiCure 应用是如何改变医患关系的,这款应用可以追踪病人是否坚持吃药并将数据传给医师。同时,此类技术的使用还能通过对历史数据的分析来预测犯罪高发地带,减少警方对边缘社区的警力滥用。此外,我们还需找出为何出手阔绰的投资者与低收入的借贷者总是会被区别对待。

老生长谈的“奇点降临”

“人们总是担心电脑变聪明后会接管世界,但现实问题是它们在相当愚蠢时已然统治了全世界。”这是计算机科学家 Pedro Domingos 在其 2015 年的著作《The Master Algorithm》中给出的经典论述。许多研发人员也认为 AI 的发展正处于初级阶段,技术奇点还未到来,他们正推动 AI 系统(相对未经测试的)进入各个社会机构。

正是由于 AI 研发人员的不断努力,此类系统才成了医师们指导诊断的利器。此外,法律机构也利用 AI 给客户提建议,帮助他们打赢官司。金融机构则可利用 AI 找出贷款放给谁最安全,而雇主则能通过 AI 在应聘者中找出综合实力最强的人。

分析师认为未来 AI 系统的适用范围将得到大幅扩展,其经济价值更是高达数十亿美元。而 IBM CEO 更是看好该技术的发展,她认为未来十年 AI 系统中蕴含着价值 2 万亿美元的新机遇。当然,这一切都只是初步预测,毕竟我们对如何衡量 AI 的价值还没有形成共识。

CB Insights 的研究显示,AI领域的投资呈逐年上升趋势

CB Insights

许多人认为,AI 在做预测和指导性决策时没有人类明智,但工程师却认为 AI 能找出人类在决策时存在的偏见和傲慢。不过,它也不是万能良药。至少在当下,AI 的缺点依然会让它在种族、性别和社会经济背景方面犯错,而这些因素本就是人类做决策时的软肋。

2013 年的一项研究显示,在谷歌搜索典型的黑人名字,搜索结果中出现犯罪记录搜索的可能性比白人名字高 25%。在另一例与种族有关的案例中,非营利机构 ProPublica 发现,法庭普遍使用的算法也存在种族歧视,在它眼中,黑人罪犯再次入狱的几率是白人的两倍。

三种工具

如何避免这种影响呢?目前,解决 AI 系统的社会和伦理学影响的有三种主流模式:服从模式、价值观设计、思维实验。这三者都很有意义,但是不论是单独为人们所用,或是三者齐头并进,都不能有效解决这个问题。

部署和执行方法(deploy and comply)

通常情况下,企业或者其他组织采取基本的步骤,坚持一系列行业最佳实践或是法律义务,来躲避政府或媒体的监督。这种方法可以得到短期利益。比如说,2015 年谷歌系统错误地将一对美籍非裔夫妻识别为大猩猩后,及时调整了他的图像识别算法。公司还提出了想法,将一种“红色按钮”引入其 AI 系统中,当工程师发现系统不对劲时,可以按下按钮防止失控。

同样地,Facebook 因为将这张越南小女孩 Kim Phúc 逃离燃烧弹袭击的照片认定为裸体儿童照片并予以屏蔽,遭到了公众的强烈谴责。而就在上个月,包括微软、亚马逊和 IBM 在内的几家领先的 AI 公司,达成合作伙伴关系,意图提升公众的理解,并以此设立一些公共的标准。

“部署和执行”方法尽管可以是活跃的点对点模式,但如果他们缺少充足的批判声音和独立的观点贡献者,那么该行业的努力仍旧存在进步空间。新的 AI 合作伙伴关系正在邀请伦理学家好社会组织者们的参与。但是人们的关注点依然在于,企业是否可以相对自由地在公众中测试他们的 AI 系统,而无需持续地研究短期或中期的影响。

价值观设计方法(Values in design)

多亏了技术中伦理道德方面设计的先驱们,包括极有影响力的学者 Batya Friedman 和 Helen Nissenbaum 的贡献,现在的研究者和企业都执行了诸如价值敏感设计或“有责任的创新”的方法来定义可能涉及的利益相关者,并对他们的价值观进行界定。焦点小组或其他研究手段被用来建立人们关于个人隐私、环境问题等等的观点。无论设计的是 App 还是无人车,这些未来用户的价值观都应渗透进技术的设计中。AI 系统的开发者们应该对这些方法加以重视。

不过,这些工具常常有一个前提假设:这个系统一定会被设计出来。他们无法帮设计者、政策制定者或者整个社会回答,某个系统是否应该被设计出来?某个基础设施的系统原型是否太过于初级、不够可靠而无法作为基础设施(比如医院系统或法庭系统)?

 

哮喘患者被一个预测肺炎的 AI 系统错误地评为低风险等级

Craig F. Walker/Denver Post/Getty

思维实验方法(Thought experiments)

过去的几年中,各种假设情境涌现,成为了公众讨论 AI 社会影响的争论热点。

最热门的讨论是关于人类设计出的高级智能系统最终统治或毁灭了人类自己的可能性。另外,还有一个从1967 年就开始的相关思维实验——电车难题也获得了新生,这个场景提出了关于责任和罪行的问题。在该问题中,一个人既可以让一列正在行驶的电车碾压过五个正在工作的人,也可以是电车变道冲向另一条只有一个人的路。很多评论家把这个假设的场景放在自动驾驶汽车中考虑,他们认为汽车应该自动做出包含有道德要求的选择。

与机器人末日相比,无人车发生“谋杀选择”的可能性提供了一种更为狭窄的道德推理框架。电车问题为我们解决更广泛的社会问题提供了一些方便的指导:比如大量对自动汽车而非对公共交通的投资的价值问题;在无人车被允许上路前,安全性能应该有多高;(我们应该用什么工具来定义安全性?)、无人车在交通拥堵、环境和就业问题上的潜在影响有哪些等问题。

社会系统分析方法(Social-systems analysis)

我们相信诚然还需要第四种方法。一种实践的、可以广泛应用的社会系统分析法,它可以考虑到 AI 系统对所有方面的可能影响,并且能同时包括在每一个阶段中的社会影响,包括概念阶段、设计阶段、部署阶段和调控阶段。

在第一阶段,政府部门和行业等大范围的研究者们需要开始调查大众的信息、财富和基本服务的获取渠道与 AI 系统的训练数据之间有什么区别,如何匹配。

用芝加哥、伊利诺斯的“热度地图”(heat maps)识别那些人更容易卷入枪击事件的算法为例,上个月发表的一份研究表明,这种地图是无效的,他们扩大了特定人群的可能性,吸引了更多警力,但是却没有减少当地的犯罪率。

社会系统方法可以在“热度地图”中考虑到当地社会和警局的历史数据。这可能要求对社区成员的问询和对警察针对社区治安积极或消极反馈的权衡。这也可能意味着要将监督委员会和法律机构的发现考虑进去。这种社会系统分析法还会要求系统的风险和报酬要保持平衡。所以在这个案例中,警方使用相似的技术来识别官员们谁可能有不正当行为(比如暴力)。

在另一个例子中,2015 年的一份研究表明,应用于预测医院的哪个病人会得肺炎的机器学习技术在很多情形中都运行良好。但是它却犯了一个严重的错误:尽管一些哮喘病人情况危急,它仍然指导医生将这些病人送回了家。因为通常医院会自动将哮喘病人送去重症监护病房,所以在系统被训练的数据记录中,这些病人很少出现在“需要后续护理”的分类里。使用社会系统分析法,我们就需要将医院治疗、保险政策等隐形因素考虑其中,适当地调整患者的病例记录。

社会系统分析法可以让系统回答一些提问:比如自身是如何运转的?金融咨询者们曾经在应用机器学习时受到限制,因为他们的客户总是希望他们回答为何做出某个决定。但是到目前为止,已经受到 AI 算法限制的个体,还不可以像人类一样回答为什么的问题。

社会系统分析法在各种学科中,需要重点关注心理、法律、社会学、人类学和科学技术领域的研究。 该方法必须开始研究社会的、政治的和文化上的价值观是如何与技术发展和科学研究相互影响的。与单纯只包含计算机科学和犯罪学的思考相比,我们只有在对 AI 影响社会层面提出更加广泛的问题,才能够对人工智能的影响产生出更加完整而和谐的理解。

未来还是有希望的。像下一个月在纽约举行的研讨会“机器学习的公平性、责任感和透明度”研讨会就是一个很好的例子。但是赞助者们——包括政府、基金和企业,都应该为我们描述的 AI 发展方法付出更多的努力才行。

人工智能代表了一种技术层面上的文化转变。这跟历史上的很多技术对文化的重大影响转折点很像,比如印刷术的使用、火车的开通,等等。自动化的系统正在改变工作室、街道和学校。我们需要保证,在技术逐渐渗透进我们日常生活的基础设施之前,这些改变是对我们有益的。

via nature

推荐阅读:

谷歌 DeepMind 的可微分神经计算机 DNC 怎么样?看 Facebook AI 研究员田渊栋、贾扬清怎么说

CCL 2016| 中科院张钹院士:后深度学习时代的计算语言学

本文作者:奕欣

本文转自雷锋网禁止二次转载,原文链接

时间: 2024-09-17 04:22:11

深度 | 人工智能的盲点在哪?的相关文章

专访平安科技:金融业已进入深度人工智能阶段,背后是你看不到的黑科技

近日,平安科技人脸识别团队在国际权威人脸识别公开测试集LFW(Labeled Faces in the Wild)中,获得在无限制条件下人脸验证测试(Unrestricted,Labeled Outside Data Results)0.9960±0.0031的成绩. 目前,很多成果在 LFW 人脸数据集上的准确率都停留在 99.5% 左右,平安科技团队的成绩意味着人工智能技术之人脸识别又获得了突破,人脸识别.人工智能作用于金融业有了更稳固的保障. 据雷锋网(公众号:雷锋网)了解,这项技术,来自

深度|人工智能会有多强大?谷歌AlphaGo不过是惊鸿一瞥

 谷歌的人工智能系统刚刚在围棋游戏中击败人类大师,围棋是一个有着2500年悠久历史的竞赛游戏,较之国际象棋,其策略和智力复杂程度呈指数级增长. Bostrom是牛津大学哲学教授,出生于瑞典,近期畅销书<Superintelligence: Paths, Dangers, Strategies>让这位教授声名鹊起,他在书中探讨了人工智能的好处,也提出这样的主张,一台真实的智能计算机能加速人类灭亡.倒不是说他低估了谷歌围棋机器的力量.他只是认为,这并不一定是一次巨大飞跃.Bostrom指出,多年来

深度 | 人工智能全局概览:通用智能的当前困境和未来可能

我们的未来将不可避免地与人工智能捆绑在一起,于是我们就必须要问:人工智能的现状是怎样的?我们将走向何方?(可点击阅读原文下载原版 PDF) 目录 如今人工智能的能力和局限 迈向通用人工智能 训练还是不训练 智能的意义 助理还是主角? 为何人们对人工智能的兴趣大增? 建立知识数据库 产生结果 道德和未来 总是在未来 定义人工智能不是困难,而简直是不可能,这完全不是因为我们并不理解人类智能.奇怪的是,人工智能的进步更多的将帮助我们定义人类智能不是什么,而不是定义人工智能是什么? 但不管人工智能是什么

深度 | 人工智能、机器学习等,2016年值得关注的27项企业技术

企业技术一直以来都被当做消费科技之外的另一个风口,在今年最受期待的科技排行榜上,我们可以预测消费科技将会为企业技术留出此前从未有过的空间. 2016 最受期待的科技排行榜比以前更加拥挤.这不仅是因为今年出现了更多新技术,一部分是因为以消费者为导向的科技产业出现了更多的颠覆性进步,而企业则需要对此做出快速反应,以维持他们在市场上的地位. 今年出现的一些新技术的确有可能会在短期内真正地颠覆行业,虽然「颠覆」这个词最近已经被用烂了.他们包括区块链,数字化的用户体验管理,实时流处理,或快速数据. 从战略

深度 | 人工智能战胜顶级扑克玩家的背后,是 20 年来扑克机器人的不断进步

四名世界上最好的职业扑克玩家一月份的大部分时间都猫在位于匹兹堡的大河赌场,品味着失败.他们会在上午11点前准时出现,身穿时髦的运动裤和有型的球鞋坐在电脑屏幕前.每个人在夜里回到宾馆房间前差不多要打1500手在线无限级德州扑克的1对1单挑.这通常意味着每天工作都会超过晚上10点.在这漫长的一天里,星巴克杯和水樽散乱堆放在玩家键盘旁,Chipotle墨西哥卷饼快餐包装袋散落在他们脚边. 每当一个人类玩家打出一手牌,动作将会被传送到5英里外的卡内基梅隆大学(Carnegie Mellon Univer

五分钟读完美国白皮书:为了人工智能的未来,政府都做了哪些准备?

pixabay 上周,白宫发布了一份名为<时刻准备着:为了人工智能的未来>(Preparing for the Future of Artificial Intelligence)的研究报告,主要阐述了 AI 的发展状况.现存及未来可能的应用方向,以及因 AI 进步对社会及公共政策可能带来的问题.除此之外,报告中也提到了具体问题的解决建议.以下为原文的简介总结,雷锋网(公众号:雷锋网)做了不改动原意的编译,未经许可不得转载. 有益于公共事业的 AI 应用 AI 及机器学习的一个积极应用在于,它

特斯拉CEO:人工智能将横扫世界 人类需向半机器人转变

特斯拉CEO伊隆·马斯克(Elon Musk)在迪拜的一个活动上谈到了人工智能的未来.他说我们需要实现"人类与机器智能之间的共生关系",这可以防止出现"危险的情况",即比人类更聪明的机器人掌控世界. 伊隆·马斯克引用了一句古老的格言:"如果你不能打败他们,那就加入他们",他建议人类也应这么做以防止机器人逆袭. 我们生活在模拟世界中吗? 去年夏天,在南加州的Code Conference大会上,伊隆·马斯克被问及我们是否生活在模拟的电脑游戏中,他回

5年1.5亿,新加坡想靠 AI.SG 做人工智能强国

雷锋网(公众号:雷锋网)5月6日消息,日前,新加坡国家研究基金会(NRF)宣布即将推出简称为 AI.SG 的国家人工智能计划,以促进和提升新加坡的人工智能实力.在未来的五年当中,NRF 计划向 AI.SG 投入高达1.5亿新加坡元(约合1.07亿美元)的资金帮助. 此项计划将由新加坡政府相关单位和机构协作推进,包括:国家研究基金会(NRF),智慧国家和数字政府办公室(SNDGO),经济发展委员会(EDB),信息通信媒体发展管理局(IMDA),机构 SGInnovate.以及机构 Integrat

演讲实录丨黄学东:语音识别和人工智能进展回顾

黄学东:大家好!我今天非常高兴来到北京,在强烈的灯光照射下我看不到大家,但是大家能看到我.在我开始之前,我想跟大家简单介绍一下,我们是怎样一个激动人心的时代,我们生活在这个时代多么幸运. 我们过去多少代人没有实现的梦想,这是一个非常激动人心的时代.在我开始之前,我想给大家看一下经济学人的封面故事.封面故事说,我们终于可以和人交流了,封面故事讲的非常深刻,它是从1954年,IBM从做机器翻译开始,描述了从50年代.60年代.70年代,一直到2016年,几个很重要的历史性的里程碑.这里可以看出来,在