关于Twitter的一些数据

近日Twitter再次相继被拦在了国门以外,
不过这丝毫不影响我对它的兴趣和喜爱。以下是最近关于Twitter的一些数据,通过
它们可以从一个侧面来了解一下Twitter的成长和Twitter这个社区的独特文化。(Via Sysomos)

英语依然是Twitter世界的第一大语言,在所有Twitter用户中有72.5%是在
2009年之后注册的。

Twitter是年轻人的天下,超过65%的Twitter用户不到25岁。Twitter用户中女性的比例为53%,男性的比例为47%。

Twitter上75%的活动来自5%的Twitter用户。

85.3%的Twitter账户的发言量(">Tweets)少于1条/天,21%的Twitter账户从没有发布过Tweet;

93.6%Twitter用户的跟随者(Followers)少于100人。只有0.68%的用户有超过1000个的跟随者。

92.4%Twitter用户所跟随(Follow)的好友少于100人,0.94%的用户跟随了超过1000个人。

Twitter用户的行为习惯很有意思。当用户的跟随者达到1000的时候,平均每日的更新数从3条徒增到6条,对于有超过1750跟随者的用户来说,日更新量则超过10条。用户之间的跟随和被跟随也有一定的规律,跟随者少于150的用户所跟随的人和跟随者的数量大致相当,但对于跟随者多与150的用户来说,其跟随的人数
就会明显少于跟随者的数量,比如跟随者为950的用户,其平均跟随的人数就只有531人。

另外值得注意的是,市场营销人员使用Twitter的方式,和
普通用户有着非常显著的差异,比如:只有0.29%的Twitter用户跟随了超过2000人,而在从事市场营销的用户中这个比例为15%。而他们每日发布内容平均的数量也比普通用户要多得多。

时间: 2024-07-29 18:09:32

关于Twitter的一些数据的相关文章

探访美式微博Twitter的大数据技术架构

  Twitter要上市了,再一次让全球瞩目,正是它所创造的twitte让互联网进入了微创新的时代.虽然它没有进入中国,但受其启发的新浪微博和腾讯微博在中国互联网上也成为一道亮丽的风景.Twitter在全球拥有巨大的用户群,海量的社交信息流,支撑其运转的大数据技术架构也颇受人关注. Twitter的大数据架构也是分为基于Hadoop的批处理和基于Storm的实时流计算等主要类型,主要基于开源项目中进行开发和发展.Twitter收集数据采用的是Facebook开源的日志工具Scribe,批处理地存

编写Ruby脚本来对Twitter用户的数据进行深度挖掘_ruby专题

Twitter以及一些API 尽管早期的网络涉及的是人-机器的交互,但现在的网络已涉及机器-机器之间的交互,这种交互是使用web服务来支持的.大部分受欢迎的网站都有这样的服务存在--从各种各样的Google服务到LinkedIn.Facebook和Twitter等.通过web服务创建的API,外部的应用可以查询或是操纵网站上的内容. web服务可以使用多种方式来实现.目前最流行的做法之一是表述性状态转移(Representational State Transfe, REST).REST的一种实

Twitter在大数据时代与它有利可图的数据生意

  今天华尔街日报在其网站发表了署名为Elizabeth Dwoskin的文章这篇文章详细分析了Twitter数据业务对于其未来发展的关键性以及这些数据为什么是"有利可图"的它们与现实社会又有什么联系. 在Twitter最近提交的招股意向书中其一个重要的侧面业务被大家都忽视了.通过将平台上的数据授权给第三方去年Twitter就赚了4750万美元占到其总营收的15%.而依靠这些数据分析追踪新闻事件的企业又正呈现快速成长的趋势这也让这部分营收在未来显得愈发有利可图. 相比2.69亿美元的广

Twitter 开源了数据实时分析平台 Heron

去年,Twitter对外宣布了新的分布式流计算系统Heron,随后消息称Twitter已经用Heron替换了Storm.此举将吞吐量最高提升了14倍,单词计数拓扑时间延迟最低降到了原来的1/10,所需的硬件减少了2/3. Twitter使用Storm实时分析海量数据已经有好几年了,并在2011年将其开源.该项目稍后开始在Apache基金会孵化,并在去年秋天成为顶级项目.Storm以季度为发布周期,并且向着人们期望的稳定版前进.但一直以来,Twitter都在致力于开发替代方案Heron,因为Sto

Twitter的跨数据中心图片存储系统Blobstore

Twitter一直没有自己的图片存储系统,此前系统从2011年6月开始内置采用http://www.aliyun.com/zixun/aggregation/16874.html">Photobucket的服务,另外,也支持Instagram等第三方图片应用上传到Twitter系统中.随着Twitter整体由开放转向封闭,切断第三方图片上传,同时自行提供图片系统是势所必然的. 12月11日,Twitter工程博客发表文章,介绍了9月份已经上线使用的图片存储系统Blobstore的底层架构.

Twitter开放全部数据

北京时间5月27日消息,每天有5亿条Twitter消息发布,内容涉及人们生活的方方面面,而现在,这家社交网络决定将这一巨大的数据宝库向科学家开放,帮助他们研究人类的行为模式.预判健康风险并追踪传染病的传播情况.例如,微软研究人员通过对Twitter上的怀孕妇女透露出的情绪,开发了一种新的算法来预测产后抑郁症的风险.美国地质调查局则可以使用Twitter追踪地震发生地. 直到目前,多数对相关问题感兴趣的科学家都只能使用有限的Twitter消息.尽管多数Twitter消息都对外公开,但科学家却希望能

提防“后院着火” Twitter收购社交数据供应商Gnip

数月前http://www.aliyun.com/zixun/aggregation/5541.html">Apple刚将社交数据供应商Topsy纳入麾下,这会儿Twitter紧随其后将Gnip收入囊中.Gnip是美国波尔德的一家初创公司,主要业务为社交数据供应,以664万美元融资发家,目前员工85位.据悉Gnip已进入自盈利阶段,而Twitter此次收购无疑更是为Gnip的众位股东带来了不错的回报. 谨防竞争,入手Gnip 数据转售仅是Twitter的周边业务之一,但这些数据在 广告商与

当Twitter向科学家开放数据之后

最近,关于Twitter向科学家免费开放所有数据的事引发关注.虽然,其中会有隐私问题,但是,此举对大数据科研无疑利大于弊. 一.Twitter免费向科学家开放所有数据 大数据时代,研究人员对数据的需求太强烈了.所以,当今天看到Twitter免费向科学家开放所有数据的消息后,颇感欣慰. 实际上,今年2月,Twitter即宣布将把2006年以来的所有数据免费提供给研究人员,有望使得Twitter成为一项广受欢迎的研究工具.借助如此庞大的数据,科学家可以展开更加复杂的研究,瞄准更具体的问题. 要知道,

大数据探讨:如何整理1700亿条Twitter发布信息?

随着社交网络蒸蒸日上,美国国会图书馆不得不面对达到133TB之巨的Twitter发布信息文件:好在经过实践,他们已经找到了管理此类数据的办法. 截至目前,美国国会图书馆所保存的Twitter信息数量已达到1700亿条.存储文件体积更到达133TB--由于每一条信息都已经在这套社交网络中分享及转载,图书馆的技术团队需要想办法为用户拿出切实可行的检索方案. 在现阶段的项目报告中,图书馆管理人员指出目前市场上提供的此类大数据管理工具无法解决他们的实际困难."很显然,现有技术还只能满足奖学金信息等规模化