知乎,如何用数据管理内容(30PPT)

大家好,我是知乎的李申申。首先,我想对主办方说一声:谢邀!感谢你们搭建这样一个专业的平台,让大家有机会聚在一起认真讨论数据这个话题。

说实话,在接到大会邀请的时候,我第一反应想到了这句话。

如同Dan Ariely所说,知乎也像是众多面对大数据很懵懂的「年轻人」之一;我们虽然也在做大数据相关的一些事情,但其实比较粗浅。我听说今天在座的各位有不少都是知乎的用户,对知乎有一些兴趣,那我就借这个机会跟大家分享一下知乎数据方面的一些工作。

简单进入正题,我们先来看看知乎的基本数据情况。

今天的知乎

截至2015年7月,知乎社区已拥有2900万注册用户,月UV1.1亿,月累积页面浏览量达3亿。现在知乎全站已累计产生约620万个问题,以及近2000万个回答。用户总回答4,129,244,445字数,是大不列颠百科全书的近100倍,鹿鼎记的2580倍。

除了以上比较基础的数据,一些其他方面的数字也在以令我们比较欣喜的速度发展着。我们截取了知乎开放注册以来,获得一千个以上赞同的回答和千字以上的回答两个数据,看一下它们的增长情况。可以看到,这两项数据都是保持了一个比较平稳的增长趋势的。再看一下,这些用户日均获赞的数量。


首先,必须说明的是:我们并非完全将这两项指标作为有价值回答的判断标准,但是当用户愿意静下心来花时间撰写长文回答的时候,至少他的态度是认真的,也符合知乎所倡导的讨论理念。另一方面,知乎上的千赞代表了1000位知乎用户对此回答的认同和接纳。除开2月份等过年过节的时期数据会略低些,其他时间,这一数据增速基本都保持在 10% 左右。

同样基于话题这个维度,我们随机抽取几个话题看最近的用户讨论趋势。

这里展示的是心理学、互联网、经济以及天津爆炸这几个话题。 值得注意的一点在于,在天津爆炸事件席卷几乎所有社交和舆论平台,非常聚焦地引起爆炸性的关注时,知乎站内的其他专业话题讨论依然在持续进行。同时, 由于天津事件后续的各讨论环节中有不少涉及心理学的疑问,因此,知乎站内心理学的话题热度也被带动着略有上扬。

综合看,现在的知乎更像是个广场,各类较为热点的时事讨论好像是广场中央的喷泉,吸引了游客和大众的关注目光。而与此同时,在广场四周也有着各色酒吧、咖啡馆和茶馆等,各自汇聚了城市的居民们与知己倾心交谈。

知乎大V和知乎小白

有不少知乎用户曾有疑虑,是否只有早期的用户们才较为认同知乎的社区理念,又或是只有老用户们容易收获赞同和关注?其实并不尽然。

让我们一起看看以下几组数据截图,横轴为时间变化,我们截取了2010年12月20日知乎内测以来到2015年6月30日赞同数前10000的用户,根据他们的注册时间和赞同数作图,以及日均的赞数增长量。大家可以看到这些点分布的比较散,说明增长情况比较均匀。

可以看出:即使在2015年才刚加入知乎的人也有非常大的机会被关注和认可。这也说明,这些新用户也有认真讨论、获得有价值信息交换的渴望,这些用户也是非常认同知乎的社区理念的。可以通用的秘诀在于:只要坚持不断地在自己擅长的领域参与讨论、输出信息就能得到更多人的认可。

知乎信息如何生产,以及如何流动?

前面几张图,我们已经了解了知乎的百花齐放的话题和持续贡献的优质用户。下面我们来看看知乎信息生产方式,为了更聚焦的展示这个问题, 我们选取了近期的天津爆炸事件作为事例。

从发展方式来看,热点话题与其他话题相比,并没有不同。但是由于其新闻性,这类话题的发展更具有爆发性, 用户的行为更为集中。因此,也更方便我们来做这样一个展示。

首先,一批用户针对问题进行关注、回答,产生了基础的优质内容,然后,其他用户的自发邀请、关注、收藏、感谢、投票、评论等社交行为,使得这些内容获得了更广泛的传播和关注,覆盖的人群不断扩大。

在知乎,社交行为催生了优质内容的生产与传播,而优质内容又引发了下一轮新的社交行为。

如何用大数据做用户兴趣识别?

用户在知乎上的行为是多维度的;既包括比较轻的浏览阅读,又包括重一些的赞同、反对,还有更重的提问回答(这里的重和轻是根据用户操作成本来界定的)。我们可以根据这些行为做用户的特征分析,这也是各个互联网服务都会做的常规工作,只是基于各自不同的服务特点,所要分析的特征、采用的算法及其效果各有不同。知乎除了有大量的用户行为数据,还有非常多的文本信息,基于行为和文本,我们对用户的兴趣和擅长能有更准确的识别。

现实社会中,我们对于某些领域的知识掌握是很深入的,但其他的一些领域就未必了。个人精力是有限的,没有人能够全知到成为所有领域的专家,这种情况是可以被映射到知乎上的。不同的用户在不同的话题领域下,他们的专业性是不同的,我们需要掌握这种不同,给每个人,在每个话题下计算一个权重。计算的分值最主要的依据还是那些你在知乎上的回答,当然,我们也会加入一些其他考量因素,包括其他专业人士对你的背书,你的专业背景,等等。

这是知乎非常基础的数据设施,但这个数值计算的量级是不小的(百万回答用户 十万话题,是千亿级别的数量计算),知乎对于权重判定每周都会进行全量的计算,也一直在调整优化中。

答案排序:如何更好的呈现?

我们对答案排序算法进行优化,目的是让好的答案更靠前。随着用户量不断增加,早期最简单的答案排序规则出现了问题:一些答案友情赞同比较多,让专业性不足的答案被推到靠前的位置。我们想到了给赞同票加权重的方法,基于每个人在话题下的专业权重来计算,排序得到优化,能让大部分优质答案可以排到前面。

虽然针对权重计算的优化仍然在持续进行,我们还是遇到了一些算法上的瓶颈。

当问题下有多个发布较早的回答获得高票时,新的回答即使质量很高,也很难在问题页上获得足够的曝光,难以积累更多赞同票,一些误导性、煽动性的高票内容,即使同时也有很多反对票,仍然排在认真、严谨但票数相对较少的优质回答前面。

这些问题在专业领域内对参与讨论的用户造成的伤害尤其明显。这绝不是我们希望看到的。于是,我们又设计了新的排序算法。

新排序算法的思想是,如果把一个回答展示给很多人看并让他们投票,内容质量不同的回答会得到不同比例的赞同和反对票数,最终得到一个反映内容质量的得分。当投票的人比较少时,可以根据已经获得的票数估计这个回答的质量得分,投票的人越多则估计结果越接近真实得分。如果新一个回答获得了 1 票赞同 0 票反对,也就是说参与投票的用户 100% 都选了赞同,但是因为数量太少,所以得分也不会太高。如果一小段时间后这个回答获得了 20 次赞同 1 次反对,那么基于新算法,我们就有较强的信心把它排在另一个有 50 次赞同 20 次反对的回答前面。原因是我们预测当这个回答同样获得 50 次赞同时,它获得的反对数应该会小于 20。

威尔逊得分算法最好的特性就是,即使前一步我们错了,现在这个新回答排到了前面,获得了更多展示,在它得到更多投票后,算法便会自我修正,基于更多的投票数据更准确地计算得分,从而让排序最终能够真实地反映内容的质量。

我们的新算法年初发布之后,得到知乎站内的用户热烈反馈,也算是做知乎这样产品的好处吧,很多专业的讨论涌现出来,为我们下一步优化提供了很好的想法。

首页Feed的自我修养:内容的个性化推荐

首页的内容会主要考虑这几方面:

1、内容本身的话题领域要跟用户有关,是用户感兴趣的,一个对汽车不感兴趣的用户,即便给他推送最优质的汽车内容,他也会觉得无趣。

2、知乎是一个社交网络,用户的社交行为会产生影响,用户的行为会带来关注他的人首页的变化。

3时间因素,一些内容及时出现在你面前,可以让它的价值更大

知乎的首页有一套专用的数据收集和处理机制,可以记录用户在首页的所有重要动作,比如,如果某条内容出现在用户浏览器窗口或手机屏幕的可见范围内,就会记录一次。

以及……

知乎还有一些其他的数据优化,我举几个例子做简单介绍。

邀请回答

稍微熟悉知乎的用户,应该知道谢邀这个词,这个产品功能是为每一个问题找到合适的回答者,推荐给用户。我们采取一种算法模型预测某个用户回答某问题的可能性和回答质量。有 90% 的邀请是通过这种推荐结果发出的,剩下 10% 是用户主动搜索产生的

每周知乎精选邮件(eDM)

针对每个用户做了个性化的计算,通过不断的算法优化,我们已经做到了30%的打开率和14%的点击率。

问题聚类

众所周知想对问题的文本进行聚类,最先想到的是通过文本语义匹配,通过复杂的词袋模型(如传统的plsa,LDA,新的word2vec等)对问题文本进行向量化,这样通过语义将相关问题聚类起来。

知乎站内拥有庞大的用户浏览数据,如果将这些浏览数据通过简单地算法(如协同过滤)建立一个模型同样也能达到很好地效果。

知乎每天的问答浏览量能够达到千万级别,这样就意味着输入给算法的user-item的边数每天能够达到千万以上,近3个月的浏览数据就可以达到10亿条边。在知乎的数据平台上需要近一小时的时间来建立模型,从聚类的结果中可以看出,即使不使用任何文本相关的分析,单靠用户浏览的行为分析就可以很好地对问题进行聚类。

这也印证了一点:大数据基础上的简单算法比小数据基础上的复杂算法更加有效。

原文发布时间为:2015-09-02

时间: 2024-09-14 17:00:29

知乎,如何用数据管理内容(30PPT)的相关文章

ie-如何禁止 知乎网站修改剪贴板内容!!

问题描述 如何禁止 知乎网站修改剪贴板内容!! 我负责里面的内容老是给加上一些版权什么什么的内容!很烦!但是设置了IE禁止访问剪贴板相关设置都不起作用! 解决方案 那个不是设置剪贴板的,用range对象搞的,用开发工具审查元素,直接赋值容器的内容,不要选择后ctrl+c 解决方案二: 禁止剪贴板应该没效果,不是这个原因

《社会调查数据管理——基于Stata 14管理CGSS数据》一1.2 数据管理内容不清

1.2 数据管理内容不清 数据管理不被重视,原因很多,其中一个最重要的缘由当属数据管理的工作内容不清.数据管理,乍一听起来,好像知道是什么,但是真要动手做起来,就有些找不着北.特别是对社会调查数据来说,数据管理的界限更是一个让人头疼的问题. 数据管理,简单地说,在社会调查中,凡是和数据有关的工作都属于数据管理的范畴,除此之外,当社会调查数据收集完成后,数据的录入.清洗.保存.存档.发布等也都是数据管理的重要组成部分.根据工作时间,可以把社会调查数据管理分为三个阶段:数据收集前的管理工作.数据收集

【Python】如何获取知乎最有价值的内容

一 前言     相信大部分能看到这篇blog的人都听说过知乎吧?如果你没有听说过,那么链接在这里   知乎  作为一个知乎er,为了更加深入的理解"xxx 是一种什么体验"(的图片),为了践行 "技术改变生活"(实则有些wuliao) ,使用requsets 爬取知乎中最优价值的内容,本文本着探索的精神,写一段获取内容的python程序. 二 践行 #!/usr/bin/env python #-*- coding:utf-8 -*- import re impo

如何用指定内容快速填充Word表格中的所有空格

有时候我们用Word编辑的表格中有不少单元格中没有内容,为了防止打印出来后表中空格被人填写,需要在所有空格中都填上"无".逐一填写要花不少时间,有没有什么方法可以快速填满Word表格中所有空格呢? 如果表格不是特别大,我们可以在任一空单元格中输入"无",再选中该单元格进行复制,然后按住Ctrl键逐一单击选中所有空格,再按"Ctrl V"组合键粘贴即可. 如果表格有很多页.有大量不相邻的空格需要填写,则可用查找和多级编号进行快速填写,具体操作如下.

2015内容安全年报

2015内容安全年报 第一章 2015年内容安全形势 随着互联网业务的迅速发展,互联网上的信息内容带来了爆炸式的增长.由于缺乏对网络活动进行有效监督和管理的措施,致使互联网内容安全风险增加,在网络上传播赌博.色情.暴力等内容的事件层出不穷,严重污染了整个互联网的环境.2015年,国家对非法信息整治的法制不断完善,各行业也越来越重视. 1.1.随着互联网发展,各类渠道产生的UGC信息越来越多 不同行业,对信息安全的要求和重点也有不同,信息内容的展示途径也有所不同,当下的途径可分为以下四类: (1)

知乎张瑞: 浅析机器学习理论与实践 | 业界对话

张瑞,研究生毕业于北京邮电大学,毕业后一直从事搜索引擎及自然语言处理方向的研发工作.曾就职于百度及豌豆荚.现任知乎机器学习团队负责人. 特约记者丨杨润琦(南京大学),刘冲(北京邮电大学) 杨润琦:能否和我们介绍一下知乎的机器学习团队?目前主要负责哪些方面的工作和任务呢? 张瑞:我们团队是一个横向的功能团队,也就是说整个知乎平台上用到的机器学习场景都会交给我们团队负责,也包括建设一套完整的机器学习栈.我们将所有的应用场景分为两大模块,六大方向.两大模块分别是基础数据和基础技术,另一个是和业务相关的

知乎囧境:离IPO太远入赘百度or填充腾讯?

"紧跟时代发展潮流,给自己产品吹上几个他人还未吹过的牛皮,然后不停的炒作,成功上个IPO,就可以发财",聊天中,小谦哥哥是如此看待当前互联网冰川一角中的创业.这样的行为,在互联网中并不少见(包括但不限于今年成功上市的58同城).无数创业公司证明自己已然成熟的举措,就是推动公司IPO进程.IPO之后,持有公司原始股份的众人,的确在财富收入上拥有了大跃进,发财了.IPO,终归是渐渐不差钱的大型创业公司才又资格提及并付诸于行动中的事情,不少还未推动公司IPO进程的企业,在财富大提升的梦想中,

技术-内容管理系统中如何管理微信平台

问题描述 内容管理系统中如何管理微信平台 如何用一个内容管理系统管理多个网站及多个微博微信公众账号,实现的技术是什么,和微博微信的对接可以实现到什么程度

知乎:得屌丝者得天下

在所有人都看到了"屌丝"的机会时,知乎坚持高质量内容,吸引一群专业人士,使他们之间产生连接,进而成为知乎最宝贵的资产. "得屌丝者得天下",这似乎成了中国互联网的不二法则. 9158.多玩YY等低调公司的逆袭上岸,其用户群的特殊.极恐怖的APRU值,让人瞠目结舌.中国互联网,也并非这几年突然发现了草根的价值,细想如今的大公司腾讯.百度.阿里,无一不靠抓住草根用户才有今天.多玩游戏网总裁李学凌便表示,草根才是中国互联网最核心的用户,任何一个真正成功的公司,必须抓住草根