7月1日,据《华尔街日报》报道,Facebook最近发布的一份研究报告显示,这家公司曾在2012年进行了一次针对用户情绪在网络传播中变化的实验。在这项实验中,Facebook在用户不知情的情况下,使用了近70万用户的消息流(News Feeds),而这也遭到用户的谴责。
现在,我们是时候来讨论这样一个问题:像谷歌和Facebook这类对用户集体行为拥有巨大影响力的公司,他们所承担的道德责任是什么?
Facebook的这项实验结果表明,那些看到好友正面内容的用户在Facebook上倾向于发布一些正面内容,而那些看到好友负面帖子的用户则倾向于发布较为负面的内容。不过,研究人员发现,并没有任何证据可以证明,Facebook确实能够改变用户的情绪状态。
这项实验“道德”与否,我们先不去讨论。有些人认为,Facebook的试验是非常可怕的,而有些人则211.html">觉得无需大惊小怪,因为它至少向我们提供一些有价值的试验结果。
或许,有史以来,还没有哪家公司像Facebook一样,能够对我们所想、所感产生如此大的影响力。
Facebook的规模和它所能触及的范围是其他媒体所无法达到的。如果Facebook选择去做,它能够挖掘很多用户个人隐私信息,比如用户的性取向、感情状况、吸毒倾向、智商、政治取向等等。
现在的问题是,Facebook是否会选择这样做?如果做,它会选择什么时候呢?Facebook不光可以将这些隐私数据卖给广告主,它也可以使用这些数据来影响用户情绪状态,从而实现某种“特殊”目的。
比如,如果你的信息流中同时出现了正面内容和负面内容,这些内容会不会诱使你花更多的时间待在Facebook上呢? Facebook这项试验结果也反映出了,Facebook就能够决定你所阅读的内容,而将这种能力与你在Facebook所花费时间联系起来,这仅仅是这家公司统计学方面一次微不足道的尝试。
为了能够让用户在Facebook待足够长的时间, Facebook如果不使用这种方式来操控用户的情绪,那它就是大傻子。Facebook所使用的算法能够决定用户信息流中所显示的内容不会被公开出来,这样我们就根本不知道它到底如何来操纵这一切,同时也没有任何监管法律也制止它这样去做。
还有一个可以证明Facebook巨大影响力的例子。2010年,Facebook向外界展示了,它能够通过向用户推送信息方式来提升美国国会选举投票率。也就是说,Facebook那会已不知不觉地影响到了美国国会选举。
决定Facebook信息流的算法、谷歌搜索结果以及Twitter “发现”标签中显示帖子功能等等,它们都是“黑盒子”。到现在,我们甚至都不知道Facebook如何来影响12亿用户的。
如果Facebook CEO马克扎克•伯格决定成为像赫斯特的媒体大亨,没有什么能够阻挡他的。通过某些形式,Facebook可以成为一家大型媒体公司。跟其他媒体公司不同,Facebook依靠的是其庞大的数据库和针对每个单一用户的细微算法改变能力,从这一点讲,Facebook拥有着更大的影响力。
我们也需要发问:Facebook是否可以用一种“道义”方式来正确使用这些数据。如果Facebook能够从我们所发的帖子中推断出我们的心情,它是否可以开发出一种算法,能够判断出哪类用户有暴力倾向,或者自杀倾向呢?Facebook能否为那些悲痛欲绝的用户,展示可以让他们重新振作起来的积极内容呢?
最新消息,Facebook已就使用用户信息做实验的事件做出道歉。扎克伯格在Facebook个人主页上写道:“我们做了一项糟糕的工作,对此,我感到抱歉。”(kirk)