防止暴力视频传播的关键是什么?
在复活节的礼拜日,一名男子在俄亥俄州克里夫兰的一条街道上随机选择枪杀了74岁的Robert Godwin Sr,并把视频放在社交媒体上。在录像中,Godwin被要求说出杀手的前女友的名字,并对着镜头说她就是他死的原因。
可悲的是,使用社交视频表达恶意的例子不止于此。视频应用的易用性已经降低了权限标准,我们看过伊斯兰国家砍头、强奸、自杀的视频,甚至还看到过凶手远程恐吓一个与他结束关系的女人。
可以预见的是,这一事件引发了民众对 Facebook的批评浪潮。在阻止这类视频方面该公司应该承担什么责任?人们很容易会归咎到播放视频的平台的技术手段,但是这不仅是对技术能力的过分天真,而且也忽略了谁该担责的不安事实。
可以肯定的是,Facebook 已经不再光芒四射了。这部视频引起关注的初始原始是其谋杀的“内容”。据报道至少两个小时后视频才被删除。该公司从视频上获得丰厚利润,而不采取任何审查画面的相关措施(它不受传统广播相同的限制),这一行为非常不妥。
新兴的研究可谓雪上加霜,其表明这样的画面可能会导致更多的谋杀。亚利桑那州国家大学的Sherry Towers说:“谋杀会传染,这一点也不会让我感到惊讶。”他发现了可怕的行为传播的广泛程度和模仿暴力的可能性之间存在着某种关系。“那些精神不正常的人可能会认为这(那)是他们想做的事情。”
AI 审查
Facebook 的大多数解决方案都是技术性的。例如,人们点击发布信息会有3秒延迟以避免意外。或选择更好的算法可以在共享之前标记和移除内容。
毫无疑问,这是有帮助的。Rand 公司研究 ISIS 宣传视频如何在网上传播的行为科学家 Todd Helmus说,暴力影像传到网上后,如果迅速撤除将有助防止其流行趋势。例如,Helmus说,在2014年和2015年平台开始删除ISIS宣传暴力源用户,期间Twitter上支持ISIS的人数急剧下降。
监管Facebook上18.6亿用户的广泛暴力内容是困难的,这导致了AI 的介入以及民众对问题视频进入网络前审查的呼吁。Helmus说:“你可以开发机器学习能力来检测视频和图像的单词或短语,例如ISIS旗帜,然后将它们清除。”
撇开现在的事实,要求AI监督Facebook的暴力视频等价于要一个魔法咒语,我们真的希望所有的暴力视频都事先被一个算法剔除吗?他说:“一些暴力的视频不应该被移除。”去年,Diamond Reynolds上传了一个她的男友Philando Castile在他的车里找身份证时被警察击中身亡的视频。该视频引发了抗议并可能有助于对警务人员的定罪。在目击警察暴力或例如提供化学战争影响的证词的案例中,视频是引起重视和获得权力负责人支持的关键。Philando Castile的视频播出之后Mark Zuckerberg宣称“我们本周看到的影像生动而令人心碎,他们点燃了我们的社区数百万成员心中的恐惧。”
旁观者效应
谁能判断暴力视频的去留呢?目前AI肯定没有能力做出精细的区分; Facebook 的审查仍然无法区分哺乳的母亲、在家分娩和色情,或标志性的战争摄影和儿童剥削的照片。与解读照片意图相比这项任务比较容易——甚至对于人类监管者来说,也会感到纠结。
未来,无论算法多么强大,审查的问题可能更多地依赖于人性而不是技术。Towers说:“媒体关于大屠杀或类似谋杀案的报道之所以如此受欢迎,是因为公众渴望了解它。尤其是当他们在 Facebook上疯传,这意味着人们正在积极分享它。我们为什么要这样做呢?”
甚至在Facebook删除视频后,视频在其他平台上也在流传。在其中一个帖子中,视频有160万浏览量。Towers说:“我们是被这种现象所吸引了。”
Facebook说,延迟删除这些镜头是因为当第一个用户报告内容有问题事就已经过了很久,这可能会再次暗示我们——旁观者效应是众所周知的,它会降低我们干预紧急情况的动力。我们观看这种图像的欲望掩盖了我们做正确的事情并报告它的本能。
这可能会给 Facebook 应该如何应对问题提供一个线索。最终,Facebook 需要对网站上的内容负责,并通过雇佣更多的员工承担监管的角色,而不是把问题推给名义上的AI或监管彼此内容的无报酬的志愿者身上。说Facebook 只是问题的一部分并没有让该公司摆脱困境。我们也要承担一些传播内容的责任,而且没有应用程序可以解决这一问题。
原文发布时间为:2017-5-5