自主性武器里的人工智能
除了上文所说的人工智能可能对人类的威胁,很多专家学者(甚至是史蒂夫•沃兹尼亚克,苹果公司联合创始人)还表达了对人工智能用于现有武器的担忧。
“它们迟早会落到黑市和恐怖分子手上,”Nolan Feeney在《时代》杂志撰文指出。2015年6月末,在布宜诺斯艾利斯召开了一场人工智能国际联席会议,霍金、马斯克、沃兹尼亚克以及其他人工智能和机器人专家在会上发表了一份公开信,呼吁禁止开发“进攻性自主性武器”。
英国《卫报》上有一篇文章写道:“这封公开信特别指出了人工智能武器,这种武器可以是无人机或巡航导弹,能在人类设定好目标范围后,自主选择并攻击目标。
“公开信同时指出,因为使用人工智能可以减少战斗人员的投入,肯定会引发自主性武器的军备竞赛。自主性武器已被视为继火药和原子弹之后的第三次军备革命。”
联合国人权大会对自主性武器采取强硬战线。“致命性自主性武器(LARS)可以通过预先设定而进行杀戮或摧毁任务,在战场上完全不需要人类控制,这就不同于有人类远程控制的无人机。”在一次联合国的辩论中,特派调查员Christof Heyns教授说:“不能让缺乏道德判断的机器掌握生杀大权。缺乏对战争的反思,就会把战争变成一场纯粹的机械化屠戮。”
在反对杀人机器的集会上,人们用Northrup Grumman X-47B无人机(图7)作为例子,说明全自动武器的发展现状。图8展示的是美国空军UAV捕食者无人机发射导弹的场景,这是另一种使用全自动武器的例子。尽管这次发射是有人类坐在数千公里外的指挥室内控制的(图9),其使用前景仍令人权观察者感到担忧。在不久的将来,自主性武器很可能就完全不需要人类控制了,就像“射后不理”的导弹那样。
自主性武器的几个关键点在于:
致命性自主性武器可以通过预先设定进行杀戮。
它们可以自己作出选择,不需要人类控制。
支持者认为它们能挽救士兵的生命。
人们希望完全禁用它们。
影视作品精确描绘出了人工智能之恶吗?