谷歌、中科大27位作者Nature联名发文,指马斯克脑机接口易遭入侵

曾经被视为科幻的画面已经走进现实,并且走入日常生活,而这也引发了一些担忧。脑机接口(BCI),比如马斯克的公司Neuralink在开发的产品,有遭受“黑客AI”攻击的危险,一个人的思维、决策和情感都有可能受AI操控,违反他们自己的意志。

本周发表在Nature上的一篇由27位神经科学家、临床医师、伦理学家和机器智能工程师(包括来自谷歌和中科大的作者)共同写作的评论文章,以《神经技术和人工智能的四个伦理重点》为题,对此进行了探讨。作者在论文中举例,假设一名参与脑机接口试验的被试,内心不太喜欢与他一起工作的研究人员,而读取他思维的AI可能把这视为一种命令,于是伤害他周围的研究人员,而被试至始至终并没有发出过这样的命令。

研究人员写道:“科技的发展意味着我们正走在通往一个新世界的道路上,在这个世界里,我们可以解码人们的精神活动,直接操纵他们的意图、情感和决策背后的大脑活动机制;人们能直接通过思考和他人交流;强大的计算系统直接连接到人们的大脑上,帮助人类和世界交互,极大地增强他们的智能和体力。”

“现在就应该认真考虑这可能带来的后果。”

为了防止脑机接口被恶意操控或入侵的情况发生,这组研究人员表示,当下需要处理4大个伦理优先事项:隐私权和知情同意权、主观能动性和身份认同、体制增强和偏见。

下面是发表在Nature上的文章,由Nature上海办公室翻译。

4个AI与神经科技带来的伦理问题,我们该如何应对?

原文以Four ethical priorities for neurotechnologies and AI为标题,发布在2017年11月9日的《自然》评论版块上

27位神经科学家与技术专家,临床医师,伦理学家和机器智能工程师共同表示,人工智能和脑-机接口必须尊重和保护人的隐私、身份认同、能动性和平等性。

想象一下这样一种场景:一名瘫痪男子参加一项脑机接口的临床试验,他的大脑被植入一枚芯片,芯片与一台电脑相连。科学家训练该电脑来解读他用大脑预演动作所产生的神经信号。电脑生成的指令能移动一个机械臂。

有一天,这名男子对这个试验组感觉很不耐烦。他的机械臂夺过一位研究助理的杯子,把它捏碎了,还伤到了那位助理。他道了歉,说这肯定是因为脑机接口装置故障,但他不得不怀疑自己的不耐烦是否也在这起事故中起到了一定的作用。

这个场景是虚构的,但也说明了我们这个社会或许将要面对的一些挑战。

一个有脊髓损伤的人(右)为一个虚拟的自行车比赛做准备,参赛者使用大脑信号来操纵虚拟臂。

眼下,脑机接口技术主要聚焦于临床疗效,比如帮助有脊髓损伤的病人。这项技术已经能让使用者完成一些相对简单的运动任务——比如说移动计算机光标,或者控制电动轮椅。更甚者,通过人的功能性核磁共振成像,研究者们已经可以在一个较基础的水平上解读人的神经活动,比如说某个个体正在想一个人,而不是一辆车。

或许要再等上几年甚至数十年,脑机接口和其他神经技术才能成为我们日常生活的一部分。但科技的发展意味着我们正走在通往一个新世界的道路上,在这个世界里,我们可以解码人们的精神活动,直接操纵他们的意图情感决策背后的大脑活动机制;人们能直接通过思考和他人交流;强大的计算系统直接连接到人们的大脑上,帮助人类和世界交互,极大地增强他们的智能和体力。

这样的进步有望变革很多疾病的治疗,从脑损伤、瘫痪到癫痫和精神分裂,并能让人类拥有更好的生存体验。但这种科技也可能加剧社会不平等,给企业、黑客、政府或者其他任何人带来剥削和操控大众的新手段。这或将深远地影响人类的几个核心特征:私密的精神生活,个体能动性,以及对于人类是被身体束缚的实体的理解。

因此,现在就应该认真考虑这可能带来的后果。

晨边小组(The Morningside Group)由神经科学家、神经技术专家、临床医生、伦理学家和机器情报工程师组成,他们有的来自谷歌和Kernel(一家位于加利福尼亚州洛杉矶市的神经科技初创公司);有的来自国际脑科学项目;有的来自美国、加拿大、欧洲、以色列、中国、日本和澳大利亚的学术和研究机构。

2017年5月,美国国家科学基金会赞助在纽约哥伦比亚大学举办了一场研讨会,我们在会上讨论了神经技术和机器智能的伦理问题。

我们认为现存的伦理规范对这个领域来说是不够的。这其中包括《赫尔辛基宣言》,一项诞生于1964年的关于涉及人类被试的医学研究的伦理原则声明;《贝尔蒙特报告》,1979年由美国国家生物医学和行为研究被试保护委员会制定的一份声明;以及今年年初由商业领袖、人工智能研究者等多方签署的《阿西洛马人工智能原则》。

为了解决这一不足,我们在此就以下四个令人担忧的领域提出我们的建议:隐私权和知情同意权能动性和身份体智增强;以及偏见。不同宗教、种族和社会经济背景的国家和人民将有不同的需求和愿景。因此,各国政府必须建立自己的审议机构,协调社会各界代表进行公开讨论,并决定如何将这些指导方针纳入政策当中,包括具体的法律和法规。

智能投资

世界上最富有的一些投资人正在向神经科学和AI的交叉领域下注。世界各地有十几家公司,包括Kernel和伊隆·马斯克(Elon Musk)今年成立的创业公司Neuralink,都在投资研发一种既能“读取”人类大脑活动又能向大脑里“写入”神经信息的装置。根据我们的估算,目前以营利为目的的工业界每年在神经技术上的支出已达到1亿美元,而这一数字仍在快速增长。

来自非营利部门的投资也很可观。自从2013年开始,仅仅在美国脑计划(US Brain initiative)一项上,就有超过5亿美元的美国联邦政府资金投向了神经技术的研发。

目前,神经科技的发展已经取得了瞩目的成绩。一名因为肌萎缩性脊髓侧索硬化症(ALS)而瘫痪的神经科学家,使用一个脑机接口来管理他的实验室撰写科研经费申请和发送邮件

与此同时,杜克大学的研究者们表明,三只被植入了电极的猴子组成一个“脑力网”,合力移动一个虚拟臂。如果这些信号能通过网络无线传输的话,这些设备在千里之外亦能工作。很快这些最多只能刺激和读取几十个神经元活动的粗糙设备就会被取代。

今年早些时候,美国国防部高级研究计划局(DARPA)发起了一个叫做神经工程系统设计(Neural Enginneering System Design)的项目,计划在四年内获取美国食品和药物管理局的批准,研发一种可以同时利用一百万个电极监测大脑活动并能选择性地刺激至多10万个神经元的人脑装置

与此同时,谷歌、IBM、微软、脸谱、苹果和无数初创公司都在建造更加复杂精细的人工神经网络,这些神经网络在有明确定义的输入和输出的工作项目上,表现早已超过人类。

举例而言,去年华盛顿大学的研究者证明,谷歌的FaceNet系统能从一百万张人脸中辨认出正确的那张。另一个有着相似神经网络构架的谷歌系统,能够辨认出一张街景图拍摄于何处,表现远远超过具有丰富旅游经验的人类。这两个例子证明了这项技术的普适性。

八月,微软宣布在某些指标上,他们用于识别会话性言语的神经网络的能力已经能和经过训练的专业人士匹敌,而后者有机会倒带重听对话中的词句。七月,德国弗莱堡大学的研究者利用脑电图(EEG)数据展示了神经网络如何可用于解码与计划相关的大脑活动,从而可被用来控制机器人。

几乎可以肯定,当我们更进一步地理解了真实的神经网络是如何工作的之后,未来的神经网络甚至会比这些例子更加强大。目前使用的人造网络的灵感来自于50多年前的大脑回路模型,这些模型基于被麻醉的动物单个神经元活动的记录。

在今天的神经科学实验室里,因为光学方法、计算、分子工程和微电子技术的进步,研究人员可以监控和操纵活着且清醒着的动物成千上万的神经元活动。

我们已经与机器紧密相连。今年,谷歌的研究人员计算出用户每年平均接触手机的次数接近100万次(数据未发表)。人类的大脑控制着听觉和视觉系统来解读声音和图像,然后命令肢体来持握和操纵我们的设备。然而,神经科技和人工智能的融合发展将会带来一些质的不同——人类大脑与机器智能直接连接,绕过大脑和身体正常的感觉运动功能。

在大脑中植入电极刺激神经活动后,有些人报告说他们有种身份认同被改变的感觉

四项要点

神经技术若要在普通消费者市场里兴起,这些设备必须是非侵入性的,风险很小,而且部署费用要低于目前的神经外科手术。现在,那些正在开发类似设备的公司必须对其产品负责,应以一定的标准、最佳实践和道德规范为指导。

在此,我们强调有四个方面的问题需要我们立即采取行动进行应对。尽管我们是在神经技术的语境下提出这些问题的,但它们也适用于人工智能。

隐私权和知情同意权。从人们的数据轨迹中可以获取非常多的个人信息。例如,麻省理工学院的研究人员在2015年发现,通过研究人们在个人设备上的键盘输入模式,精细地分析他们的运动行为,使得早期诊断帕金森氏症变为可能。2017年的一项研究表明,测量人类的运动模式,比如在日常活动中使用智能手机的人的运动模式,可以用来诊断阿尔茨海默病造成的认知障碍的早期症状。

如果利用神经信息的话,比如参考那些与特定注意力状态相关的神经元的活动模式信息,用于投放广告、计算保险费匹配潜在伴侣的算法就会变得更加强大。与互联网连接的神经装置打开了个人或组织(黑客、公司或政府机构)追踪甚至操纵个人精神体验的可能性。

我们认为公民应该有能力和权利保护他们的神经数据隐私(参见“主观能动性和身份认同”)。我们建议采取以下步骤来保障这一点。

对于所有的神经数据,默认都应能选择不分享,这一点应当得到严格保护。如今人们很容易把他们的隐私权拱手送给提供各种服务(比如网络浏览,社交媒体或娱乐)的商业机构,而从未真正认识到他们交出的究竟是什么。

如果默认选项就是拒不分享的话,则意味着神经数据在大多数国家都会被以和器官或生物组织相同的方式对待。如果个人要从任何设备共享神经数据的话,他必须明确地选择和确认这一点。其中将涉及一个安全保障过程,包括一个知情同意程序,明确规定谁将使用数据,目的是什么,以及使用多长时间。

即使实施这种方法,根据许多自愿分享者的神经数据,再加上来源于互联网搜索运动监视器等等多种渠道的大量非神经数据,也能得出关于那些选择不分享的人们的“可靠”结论。为了遏制这一问题,我们建议对神经数据的销售、商业转让使用进行严格的管制。

这样的法规也将限制人们放弃自己的神经数据或将神经活动直接写入自己的大脑中,从而换取物质报酬,可能类似于禁止出售人体器官的立法,比如1984年的美国《国家器官移植法案》。

另一重保护措施是限制神经数据的集中处理。我们提倡使用类似差分隐私或者联合学习的计算技术,来保护用户隐私(参见“保护隐私”)。使用其他专门用来保护个人数据的技术也会有所帮助。

保护隐私

联合学习

当科技公司使用机器学习来改进他们的软件时,他们通常会在服务器上收集用户信息,分析特定服务是如何被使用的,然后在集合的数据上训练新算法。

谷歌的研究人员正在试验另一种人工智能训练方法,即联合学习。使用这种训练方式时,教学训练过程发生在每个用户的设备上,而没有聚合数据再进行处理的过程。从单独数据中总结出来的知识(例如, “weekly” (每周) 这个词在英语里可以用作形容词和副词)被发回谷歌的服务器,但实际的电子邮件、短信等信息仍然保留在用户自己的手机上。

其他团体也在探索类似的思路。因此,改进设计后的信息系统更加保障了用户对个人数据的所有权和隐私,同时仍然可以在这些数据上执行有价值的计算。

例如,基于区块链的技术可以让数据能被跟踪和审计,而“智能合同”(Smart contracts)则可以对数据的使用方式进行透明的控制,而不需要集权。最后,开放数据格式和开源代码可以让我们更透明地知道什么信息将保持私密,而什么信息会被传递分享出去。

主观能动性和身份认同。有些人通过在脑内植入电极接受深部脑刺激,他们报告说感觉自己的身份和能动性被改变了。

在2016年的一项研究中,一个曾用过大脑刺激器来治疗抑郁症长达7年的人在一个焦点小组中报告说,他开始怀疑他与他人互动的方式,例如说一些他回过头来认为很不合适的话,究竟是因为电极刺激,他自己的抑郁,还是反映了一些关于他自己的更深层次的东西。他说:“这一切模糊到了一起,说实话,到最后我都不确定我是谁了。”

神经科技可以很明显地扰乱人们对于身份和能动性的认识,从而动摇关于自我和个人责任的核心认知,不论是法律责任还是道德责任。

也许通过“自动完成”或“自动更正”功能,机器学习和大脑接口设备能够更快地实现意图和行动之间的转换,在这种情况下,人们最终可能会做出一些他们自己难以接受的事情。如果人们能够通过自己的思想长距离地控制设备,或者几个大脑被连接到一起工作,那么我们对自身身份和行为的理解将会被扰乱。

随着神经技术的发展,企业、政府和其他各种机构开始努力为人类赋能,但是个人身份认同(我们的身体和精神的完整性)以及能动性(我们选择行动的能力),必须被作为基本人权保护起来。

我们建议在国际条约(如1948年的《世界人权宣言》)中加入保护这类权利的条款(“神经权利”)。然而,这可能还不够,国际宣言和法律只是各国之间的协议,即便《世界人权宣言》也没有法律约束力。

因此,我们主张制定一项国际公约,界定与神经技术和机器智能有关的被严格禁止的行为,类似于2010年《保护所有人免遭强迫失踪国际公约》所列的禁令。一个对应的联合国工作组可以审查所有成员国的遵守情况,并在需要时建议实施制裁。

类似的宣言还必须保护人们接受教育的权利,让他们能了解神经技术可能带来的认知和情感方面的影响。目前,知情同意书通常只关注手术的生理风险,而不是一个设备可能对情绪、个性或自我感知带来的影响。

本评论完整的作者名单:

体智增强。如果一个人的身体或大脑功能与大多数人不同,则常常饱受偏见之苦。人们将来面临的压力可能包括采用增强型神经技术,例如允许人们从根本上增强忍耐力或感觉或智能的神经技术,这可能会改变社会规范,引发公平享有方面的问题,并产生新种类型的歧视。

此外,不难想象军备竞赛也会发生在体智增强领域。近年来,我们听闻美国国防部高级研究计划局和美国情报高级计划局(IARPA)的工作人员在讨论为士兵和分析师增强心智能力(“超级智能特工”)的计划。这些计划将被用于作战目的,也会被用于增强破译数据流的能力。

由于预测哪些技术会对人类生活产生负面影响非常难,所以难以非常清晰地划定界限。尽管如此,我们仍要敦促在国际和国家层面制定一些指导方针,对可实施的增强型神经技术加以限制,并定义它们被可以使用的场景——就像我们对人类基因编辑所做的限制一样

某些文化比其它文化更注重隐私和个性。因此,必须在尊重普世权利和全球性准则的同时,在具体文化背景下做出监管决策。此外,对某些技术的一刀切或许只会将其推到地下运行,所以在制定具体的法律法规时,必须组织举行论坛来进行深入且公开的讨论。

过去有很多建立国际共识、将公众舆论纳入国家层面科学决策中的先例,它们都值得借鉴。例如,在第一次世界大战之后,1925年的一次会议促成了《日内瓦协议》的起草和缔结,该协议禁止世界各国使用化学武器和生物武器。

同样地,在第二次世界大战之后,联合国原子能委员会(UN Atomic Energy Commission)成立了,旨在管控用于和平目的的原子能,控制核武器的扩散。

尤其值得注意的是,我们建议严格管制被用于军事目的的神经技术。出于显而易见的原因,任何禁令都应该是全球性的,并且应当是由联合国牵头的委员会发起的。尽管这样的委员会和类似的过程可能无法解决所有关于增强型神经科技的问题,但它们提供了一种最有效的模式,能让公众知道这种技术必须被限制,也能让世界各国广泛地投入到这种技术的发展和实施中来。

偏见。当科学或技术决策是基于一套狭隘的系统、结构或是社会概念和规范的时候,由此产生的技术可能会使某些群体获得特权,而使另一些群体受害。2015年的一项研究发现,谷歌的广告算法展示给女性用户的招聘职位要比给男性展示的待遇低。

类似地,ProPublica的一项调查显示,美国执法机构使用的算法错误地预测,黑人被告比拥有类似犯罪记录的白人被告更有可能再次犯罪。这种偏见甚至可能会被嵌入到神经装置中。事实上,研究过这类案例的研究人员已经表明,要以一种数学严谨的方式来严格定义公平是非常困难的。

工业界和学术界已经在讨论一些对抗技术偏见的实际步骤。这样的公开讨论和辩论是极有必要的,不论是对于定义有问题的偏见,还是对于定义更普世的“常态”来说都是如此。

我们主张让对抗偏见的对策成为机器学习规范的一部分。我们还建议可能的用户群体(特别是那些已经被边缘化的用户群体)在设计算法和设备时就大胆发声,确保偏见在技术开发的第一个阶段就得到处理。

负责任神经工程学

提出这些建议是为了呼吁工业界和学术界承担起随着这类神经科技设备和系统而来的相关责任。为此,他们可以借鉴之前已经为负责任创新而制定出来的一些框架。

除了之前提到的几点指导方针之外,英国工程和物理科学研究理事会也提出了一个框架来鼓励创新者“预测、反思、参与和行动”,推动符合公共利益和社会期望的科学和创新。

在人工智能领域,IEEE标准协会在2016年4月创建了一个全球伦理倡议,目的是将伦理融入到所有人工智能和自主系统的设计流程中。

历史表明,在企业界,追逐利润往往会凌驾于社会责任之上。虽然在个人层面上,大多数技术专家的目的都是想要造福人类,但是他们仍有可能碰到自己未曾准备好要去面对的复杂伦理困境。我们认为,通过将相关伦理准则引入到工业界和学术界中来,可以改变业界普遍的思维模式,增强设备制造商的应对能力。

第一步就是让伦理成为工程师、其他技术开发人员和学术研究人员加入公司或实验室时的标准培训的一部分。教育员工更深入地思考如何追求科学进步,实施有望建设社会而非破坏社会的策略。

这种方法基本上遵循了医学专业正在使用的思路。医学生接受的教育包括病人病情保密、不伤害原则、行善原则和公正原则,他们还要遵守希波克拉底誓言,坚持这个职业的最高道德标准。

神经技术可能带来的临床效益和社会效益是巨大的。要想获得这些效益,我们必须尊重、保护和支持人性中最珍贵的品质,以此指导神经技术的发展。

原文发布时间为:2017-11-10

本文作者:Nature

原文链接:谷歌、中科大27位作者Nature联名发文,指马斯克脑机接口易遭入侵

时间: 2024-09-14 22:37:55

谷歌、中科大27位作者Nature联名发文,指马斯克脑机接口易遭入侵的相关文章

近距离接触类脑计算,看脑机接口如何走向脑机融合|CCF-ADL 新课报名中

雷锋网(公众号:雷锋网)AI科技评论按:7月28日~7月30日,由中国计算机学会主办的第81期 ADL(Advanced Disciplines Lectures)学科前沿讲习班将在京召开.本期主题为<类脑计算>,旨在帮助学员快速入门类脑计算原理和技术,了解学科热点以及应用方法,开阔科研视野,增进学术交流和增强实践能力.雷锋网作为独家合作媒体将进行全程报道,同时AI慕课学院已获本次讲习班独家线上视频版权,不能来现场听课的同学请猛戳右侧超链接:www.mooc.ai  . 课程链接:类脑计算线上

如何在 Java 应用程序中读取 8 位和 24 位 Microsoft Windows 位图(转)

window|程序 如何在 Java 应用程序中读取 8 位和 24 位 Microsoft Windows 位图在 Java 应用程序中加载位图文件的逐步指南 作者:Jeff West 和 John D. Mitchell 摘要目前,标准的 getImage() 方法仅支持 GIF 和 JPEG 图像.尽管存在用于读取 PNG(可移植网络图形)格式的 Java 例程,但我们还没听说过有用于读取 Microsoft Windows 位图图像的阅读程序.Jeff West 撰写的这篇技巧提供了加载

详解阿里27位合伙人与花名:前台童文红最传奇

如果说2013年,关于创业合伙人最大的话题是创业大片<中国合伙人>,2014年的创业大片一定是可能会成为中国企业最大IPO纪录的阿里巴巴上市,而其昨天披露的27名合伙人名单,更成为世人关注的焦点.不过引起更多注意的是,此次阿里合伙人里有近半数来自小微金服,可以说表面相对独立的小微金服,在整个阿里巴巴集团体系中之至关重要.以下看看浙江日报记者陈树对他最为熟悉的这些阿里合伙人所作详解:6月16日,阿里巴巴向美国证监会递交了招股书更新文件,与首次提交招股书时所披露的不同,此次阿里合伙人名单由28人降

极路由在谷歌中国挖了位技术大牛

摘要: 年前的消息关注智能硬件的应该是看到了,极路由在谷歌中国挖了位技术大牛,江湖人称康神的康晓宁.到底这位兄台为何引起极路由创始人王楚云的关注?并携另两位联合创始人登门 年前的消息关注智能硬件的应该是看到了,极路由在谷歌中国挖了位技术大牛,江湖人称"康神"的康晓宁.到底这位兄台为何引起极路由创始人王楚云的关注?并携另两位联合创始人登门说服,最终加入极路由:他又将给极路由带来哪些变化呢? 在和康晓宁进行一次面对面交流后,我找到了答案:简而言之,软件和系统方面的技术是康晓宁的专长,他的加

阿里首次披露其27位合伙人

[科技讯]6月17日消息,阿里巴巴集团昨日晚间向美国证交会(SEC)提交了更新后的IPO募股书.在这次更新后的招股书中,阿里首次披露了其27位合伙人信息,并发布了2014财年业绩.未来上市公司的九名董事会成员名单也一同宣布.此外,招股书也显示了阿里的自我估值.天猫与淘宝成交额.需要偿还的外债等重要信息. 以下就是招股书更新后的重要信息: 首次披露了其27位合伙人 阿里巴巴集团在补充文件中披露了集团27名合伙人的名单,其中有7人是阿里巴巴集团的创始人,分别是马云.蔡崇信.吴咏铭.彭蕾.戴姗.金建航

侯小强公开信:27位中层编辑辞职 除挥泪送别无他法

凤凰科技讯 3月14日消息,盛大文学CEO侯小强今日发公开信再次谈及http://www.aliyun.com/zixun/aggregation/1823.html">起点中文网离职风波,侯小强在信中表示,有27位中层以上的编辑以家庭原因为由陆续发起了辞职,自己除了挥泪送别,再无他法,并称这是自己最后一次的回应. 附侯小强公开信全文: 所有关心起点中文网的朋友: 一周前的凌晨,我尚在深圳出差,当我看到起点创始团队即将离职创业的消息后,我整夜未眠.早晨七点,我即电话人事总监与当事人沟通,在

关于LINUX中的权限位S(设置用户ID)(有效用户ID)(实际用户ID)

getuid() 实际用户ID为 执行程序的实际用户ID geteuid() 有效用户ID与设置用户ID有关,及权限中的S位 如果权限为rws 那么s位代表其他用户执行程序时改变为主用户权限.不安全 如:   8 #include<stdio.h>   9 #include<stdlib.h>  10 #include <unistd.h>  11 #include <sys/types.h>  12 #include <sys/stat.h>

在产品环境中使用32位Exchange 2007

Exchange Server 2007 用在产品环境中应该配置64位的硬件.一般说来,32位的Exchange 2007只能用于测试,评估或是训练.但这并不全对.在支持的方式中配置32位的版本(或简称E2K7/32)用来作为一个可用的服务器是可能的--只是在Exchange 2007上的功能会受到限制. 这里有一些简洁的纲要,这些纲要中列出了在32位版本的Exchange 2007中哪些可能实现,哪些不可能实现. 1.可用来管理其它64位的Exchange2007系统.安装了32位系统的win

如何设置Word 2013中的制表位选项

用户可以在Word2013中设置制表位选项,以确定制表位的位置.对齐方式.前导符等类型,操作步骤如下所述: 第1步,打开Word2013文档窗口,在"开始"功能区的"段落"分组中单击"段落设置"按钮,如图2013092103所示. 图2013092103 单击"段落设置"按钮 第2步,在打开的"段落"对话框中单击"制表位"按钮,如图2013092104所示. 图2013092104 单击