大数据处理告诉你:马航失联为何传言那么多?

  飞机怎样了?坠落地点在哪里?搜救发现什么了?60小时,696万余条微博,为何近10个版本传言广泛流传?5条不准确信息,为何都集中在4小时中爆发?“传言动动嘴”,转发千万条;“更正跑断腿”,为何只有几千条?新华社新媒体中心联合武汉大学互联网科学研究中心,用大数据分析告诉你,马航失联事件,为何猜测、传言这么多。

  没有新信息,就不发布信息?

  【锐数读】4小时0条更新信息VS5大传言产生

  【锐分析】新华社联合武汉大学互联网科学研究中心通过大数据分析发现,马航失联事件中,5条流传较广的传言,都集中发生在8日10:30-14:30这4小时期间。

  这是为什么呢?

  对比马航发布官方消息的时间不难得出答案。8日10点30分,马航官方网站发出第三条声明,更正乘客数量和分布地区等信息,直到14点30分其官网才再次发声,声明没有飞机确切位置的信息。恰恰是这长达4小时的信息“静默”期,众多传言甚嚣尘上。

  博联社创始人、总裁马晓霖说,飞机失联是大事,牵动世人的心。这么多传言,反映出人们对信息的渴求。马航官方声音的缺位,为不准确信息和谣言的传播提供了空间。同时,这些关于航班下落或乘客安全的情况,顺应了大部分网友内心的“美好期望”,因此被广泛传播。

  清华大学新闻与传播学院王君超教授更注意到,在全球关注失联航班和机上人员的生存状况之际,@马来西亚航空这个新浪微博账号的粉丝量至12日只有约11万人。他认为,除了马航未对该账号作有效推广,或网友没有主动搜索和关注到之外,网民浏览后对其更新速度不满意而匆匆离开也是一个重要原因。

  记者发现,马来西亚航空官方微博帐号在9日晚19:01更新了一条微博,其内容写着:我们会第一时间更新搜救团队在搜救工作中的最新进展。但事实上,迟至10日14:03,马航才再次更新微博。而这中间“空挡”的近19个小时,舆论场早已充斥着各种传言、猜测了。

  【锐提问】有网友问:如果马航确实没有最新消息,那如何公布更新信息呢?

  【锐回复】“可以理解马航的做法是出于严谨性的考虑,但这样的应对,确实有很大瑕疵。”中国人民大学舆论研究所所长喻国明教授说。

  中国人民大学新闻学院学者常江也认为,即使没有更新的消息,也应以较高频率进行新闻发布,以便压缩传言传播的空间、维持受众情绪的稳定,避免恐慌情绪的蔓延。”

  而喻国明则进一步指出,即便结果信息无法明确,也应不断传达搜救等过程性信息和支持性信息,过程性信息包括搜救进程等,支持性信息包括开通了哪些信息发布平台等;而对家属,马航则应该有更为及时的信息发布渠道。

  传言动动嘴,更正跑断腿?

  【锐数读】8日25条VS9日67条;

  【锐分析】“飞机降落南宁了吗?”“飞机真的在海上被发现且未解体?”直到事件发生超过60小时后,微博、微信上依然传播着这些早已被更正甚至澄清的消息。

  大数据统计发现,主要传言均产生于8日14:30之前,且基本在发出3小时内得到澄清。

  但新浪社区管理中心提供的数据显示,不实信息的传播并没有因为澄清而停止。相反,相比8日的25条不实信息,9日监测发现的不实信息数量不降反升,达到67条,且主要内容仍为“越南通讯社报道飞机未解体”。

  以国内一家媒体8日13点34分发布的一条信息传播为例。这条信息有名有姓地援引越南军方人士称,飞机坠落在坚将省土珠岛153海里处,是越南马来领海交界处,越南救援队已出发。之后,路透社等多家媒体发布消息称,马航公司否认航班坠毁的相关信息。但至10日12点37分,该媒体这条微博的转发量已达275837次,评论达58659条。

  “传言动动嘴,更正跑断腿”?显然,此次事件针对传言的澄清微博,传播情况不容乐观。据武汉大学互联网科学研究中心所做的大数据统计,梳理了6条较重要的更正、澄清微博,其中转发量和评论量最高分别只有3569次和1885条。

  【锐提问】有网友提问:为什么看起来大家对澄清的兴趣总不如传播那么高呢?如果总这样,传言会产生持久危害吗?

  【锐回复】常江认为,传言能在大众最焦虑的时刻迅速给出“解释”,是速食面式信息,所以传播较快;而澄清则要调动理性批判思维,并要有足够权威性的元素方能成功。社交平台强化了这种传播属性。

  “微信的兴起也是另一个因素。”武汉大学信息管理学院教授沈阳说,“在微博等开放性社交媒体中,不实消息可通过连续信息流冲淡;但在相对封闭的微信朋友圈中,朋友之间信任度高,传播更快,较难消除影响,因此微信用户更应慎重转发。”

  快,还是准?

  【锐数读】60小时,696万余条微博,近10个版流传广泛的传言VS不盲目抢发赢得4079万曝光量

  【锐观点】自8日凌晨2:40马航MH370航班最后一次报告位置的60个小时,新浪微博中的相关微博数量多达696万条。

  在突发事件真相扑朔迷离时,传统媒体的新媒体账号们各显奇招,通过转载外媒等多种方式抢先报道。但争抢援引国际媒体报道过程中出现了一些失误,如一家晚报的官微将马航发言人称航班“有推测”误为“已证实”在越南地区降落,发布失实信息,后更正。

  值得注意的是,一些媒体选择了多方核实信息源,并没有抢先时效,但因所报信息权威准确反而获得公众肯定。如中央电视台新闻频道曾在当天以较高频率插播有关马航事件的消息,尽管没有最新消息,但重复相同的、经核实的情况,也有利于传言的澄清;新京报、南都周刊等媒体的微博账号也通过多方核实,冷静清醒,及时澄清谣言。

  那么不抢发就没有影响力了吗?据武汉大学互联网科学研究中心统计,以@新华社中国网事 为例,其虽然没有盲目抢发转载外媒消息,但独家直击的中国军舰全速驶向事发海域引发网友关注,其中诸多大V纷纷转发,总曝光量超过4079万人次。网友@沐童在微博评论说:马航事件,对比几家微博的表现,@新华社中国网事最好,冷静准确不冒进。同样值得注意的还有,东方卫视在9日临时决定取消当晚娱乐节目,滚动播报马航失联客机的最新消息。

  【锐提问】媒体在报道突发事件时,该快还是准?

  【锐回复】曾有5年多驻外记者经历的马晓霖认为应该兼顾。他坦言这是一个两难问题,实际操作中要视速度和细节哪个更重要来决定。此外,这也与新闻传播中“动态的真实”有关。

  “美国‘9·11’恐怖袭击事件刚发生时,媒体报出的死亡人数是3万,”他说,确切的结果是随着事件的进展逐渐出来的,并不需要就此指责媒体。

  常江:重大突发事件时,媒体上出现不确切消息并不罕见。如美国电视新闻领域,通常有“报了再说,随报随改”的风格,也就是先抢时效,哪怕出现细节失真,尔后再随时根据新的消息进行滚动的补充报道,不断修正此前报道中的问题。

  “在这种倍受关注的突发事件面前,媒体出现失误是正常的。”喻国明也认为,但要有规范性责任,谁发布的失实消息,谁应该有责任在同等传播范围内及时更正。同时,传统媒体要加强培养新媒体运营人员的素质,如能否找到两个以上独立信息源等多方面鉴别信息。

  王君超则认为:“一些客户端为了能在全媒体时代的新闻竞争中取胜,只顾及时、同步地传播信息,而忽略了真实性、权威性和公信力。其实这才是其依托的传统媒体品牌的核心价值。”

时间: 2024-09-20 09:07:48

大数据处理告诉你:马航失联为何传言那么多?的相关文章

大数据处理:教你玩转千万级别的数据

文章讲的是大数据处理:教你玩转千万级别的数据,大数据处理是一个头疼的问题,特别当达不到专业DBA的技术水准时,对一些数据库方面的问题感到无赖.所以还是有必要了解一些数据库方面的技巧,当然,每个人都有自己的数据库方面的技巧,只是八仙过海,所用的武功不同而已.我把我最常用的几种方式总结来与大家分享. 方法1:采用表分区技术. 第一次听说表分区,是以前的一个oracle培训.oracle既然有表分区,就想到mssql是否有表的分区,当时我回家就google了一把,资料还是有的,在这我儿只是再作一次推广

大数据处理系统是一个IT工具,还是业务系统呢?

对于企业的业务人员,特别是数据科学家人群来说,Informatica的Intelligent Data Platform不仅是一个智能化的大数据预处理工具,而且可以像业务系统一样为企业带来直接的价值. 互联网企业通常会强调细节和微创新,把产品的某一项功能做到极致,借此牢牢吸引大量用户.但是企业级厂商则不同,它们更倾向于将产品平台化.平 台化的好处是可以把尽量多的功能集成在一起,方便部署与管理,而且可以借平台屏蔽底层架构的复杂性.软件厂商尤喜平台化,比如数据保护厂商有数据保护和统 一管理平台,大数

零基础搭建Hadoop大数据处理-初识

在互联网的世界中数据都是以TB.PB的数量级来增加的,特别是像BAT光每天的日志文件一个盘都不够,更何况是还要基于这些数据进行分析挖掘,更甚者还要实时进行数据分析,学习,如双十一淘宝的交易量的实时展示. 大数据什么叫大?4个特征: 体量化 Volume,就是量大. 多样化 Variety,可能是结构型的数据,也可能是非结构行的文本,图片,视频,语音,日志,邮件等 快速化 Velocity,产生快,处理也需要快. 价值密度低 Value,数据量大,但单个数据没什么意义,需要宏观的统计体现其隐藏的价

0基础搭建Hadoop大数据处理-初识

在互联网的世界中数据都是以TB.PB的数量级来增加的,特别是像BAT光每天的日志文件一个盘都不够,更何况是还要基于这些数据进行分析挖掘,更甚者还要实时进行数据分析,学习,如双十一淘宝的交易量的实时展示. 大数据什么叫大?4个特征: 体量化 Volume,就是量大. 多样化 Variety,可能是结构型的数据,也可能是非结构行的文本,图片,视频,语音,日志,邮件等 快速化 Velocity,产生快,处理也需要快. 价值密度低 Value,数据量大,但单个数据没什么意义,需要宏观的统计体现其隐藏的价

大数据处理的业务分类

随着互联网.移动互联网以及物联网的迅速发展,我们已经进入了一个海量的大数据时代,而目前对于这些海量的数据分析处理已经成为了一非常紧迫而且大的需要. Hadoop的伸缩性.健壮性.计算性能和成本有着无法代替的优势,事实上已经作为了当今互联网企业最主流的大数据处理平台. 大数据处理的分析分类 Hadoop平台对于业务的针对性相当强,为了能够让你了解是否和你的业务符合,现在从几个角度来将大数据处理业务进行分类,根据需求的不同选择不同的数据分析架构. 根据数据分析的实时性,主要分为离线数据和实时数据分析

如何低成本、高效率搭建Hadoop/Spark大数据处理平台

随着人们逐渐认识到 "大数据"的价值,互联网.电商到金融业.政企等各行业开始处理海量数据.如何低成本.敏捷高效地搭建大数据处理平台,成为影响大数据创新效率的关键. 为了让用户以最简便地方式享用阿里云全球资源,在云端构建敏捷弹性.高可靠和高性价比的大数据平台,近日,阿里云在成都云栖大会上发布了一款Hadoop/Spark场景专用的ECS存储优化型实例D1规格族,单实例提供最高56核CPU,224GB内存,168TB本地盘容量,5GB/S总吞吐,PPS达120万+.这对Hadoop/Spa

省时省事省力 巧用阿里ECS D1构建大数据处理平台

随着人们逐渐认识到 "大数据"的价值,互联网.电商到金融业.政企等各行业开始处理海量数据.如何低成本.敏捷高效地搭建大数据处理平台,成为影响大数据创新效率的关键.   为了让用户以最简便地方式享用阿里云全球云资源,在云端构建敏捷弹性.高可靠和高性价比的大数据平台,阿里云在云栖大会·成都峰会上正式推出了Hadoop/Spark场景专用的ECS存储优化型实例D1规格族,充分满足泛互联网行业.金融.电商.政企等行业等搭建大数据存储与计算分析平台的要求,真正意义上做到了"省时省事省力

In-Stream Big Data Processing译文:流式大数据处理

转自:http://blog.csdn.net/idontwantobe/article/details/25938511  @猪头饼 原文:http://highlyscalable.wordpress.com/2013/08/20/in-stream-big-data-processing/ 作者:Ilya Katsov 相当长一段时间以来,大数据社区已经普遍认识到了批量数据处理的不足.很多应用都对实时查询和流式处理产生了迫切需求.最近几年,在这个理念的推动下,催生出了一系列解决方案,Twi

请求各位大吓告诉我一下为什么会报异常

问题描述 请求各位大吓告诉我一下为什么会报异常 package IODemo; import java.io.*; import java.util.*; public class TestFileOBJ { public void FileInformation(File f){ System.out.println("getName="+f.getName()); System.out.println("getPath="+f.getPath()); Syste