自媒体们为何反对ZAKER抓取内容

  谈到自媒体这个名词,众说纷纭,各有各的思想,各有各的理论,可能有一百个人对自媒体就会有一百种解释。但是不论怎么说自媒体们都有一种自恋的情节,有着强烈的打造个人品牌的欲望,某种程度上可以说自媒体是一种传统媒体人独立自我意识释放的一种过程。

  ZAKER近几天上线了一个“微信公众号”的订阅版块,用户可以订阅很多优质的微信公众号的内容。当我看到这条新闻时,顺带着体验了一下ZAKER的这个新功能,其实阅读体验比微信的确要好上不少。从我个人角度来说,在微信中订阅一些自媒体的公众号与我通过鲜果、ZAKER等RSS聚合阅读订阅其实本质上并没有任何区别。我写的文章也不算特别多,但如果我在科技博客上投的稿子能被ZAKER抓取过去,进而让更多的人看到,我还是比较赞同的,因为这就是我写文章的初衷,没有丝毫的利益因素在其中。

  自媒体们为什么对ZAKER抓取自己在微信公众号上发表的内容产生如此大抵触情绪?在我看来具体原因应该有三:

  原因一:平台的分散会让自媒体人影响力减小

  自媒体是伴随着平台的兴起而兴起的,平台对于自媒体人的重要性毋庸置疑。有人会说,自媒体人在微信公众号上的内容被ZAKER们抓取之后,会覆盖到以前所不能覆盖到的用户,坚守老阵地的同时,又开辟了新的阵地。每一块新阵地的开拓,可能都是知名度的进一步提高。但实际情况下却是恰恰相反,就如微信这样强大的自媒体平台,也会有其没落的一天,更何况现在微信官方还在积极打压微信公众号。旧平台迟早有一天会没落,自媒体人那时又要转向新的平台,但是转移切换平台的过程中,粉丝数绝对会掉落很多。其实很多自媒体人现在也应该体会到了,把粉丝从微博转向微信的成功率其实并没有想象中的那么高。

  著名自媒体人魏武挥也曾经发微博表示:“老实说一句,一众码字的搞内容的,博客火了搞博客,微博火了搞微博,微信火了搞微信,下一个不知道什么火了搞什么,忙忙碌碌,蝇营狗苟,惨淡经营,工具切换中粉丝又每次跌落七八成,真可谓凄惨,说句丧家狗真心不算冤枉他们,以及我。”这里其实就不难理解,为什么自媒体人会反对ZAKER们抓取他们的内容了,因为ZAKER这些平台所能覆盖到的读者,其实只是平台的粉丝,而不是自媒体们的粉丝。不是每一个自媒体都能够持续的生产出优质的内容,读者完全不需要成为自媒体们的粉丝,就可以通过各方面的渠道阅读到自媒体们生产出的内容,

  原因二:自媒体利益价值的损失

  自媒体人应不应该获取利益?其实这个答案我个人觉得明显是肯定的,就像微博中的那些草根大号一样,虽然我非常不喜欢它们发广告赚钱,但是如果能设身处地的想一下,这类大号其实为我们生产了如此众多的优质内容,它们付出了劳动,获取利益其实这是无可厚非的。写一篇高质量的文章,就算可能只有短短的几千字,那花费几个小时都是正常的现象,对他们对来说时间就是金钱。可能有的人不在乎钱,但是他们可以通过自媒体平台获得声望、满足感。

  自媒体的商业模式这里不想具体叙述,但是无外乎都离不开广告、线下讲座、为企业提供咨询服务,这是一门关于影响力的生意,其所覆盖到的粉丝就是影响力最直观的体现。ZAKER把自媒体们对粉丝的影响力给分散了,你说他们能不找你拼命吗?

  原因三:颠覆了自媒体的本质

  我前面已经说过,自媒体为什么会在两微兴起之后,这个概念才逐渐流传开来。其实这里就涉及到了自媒体的本质,与粉丝的互动关系。试想一下,如果有人会因为我写了一篇文章对他很有收获,特地给我发一封私信,我是不是会倍受鼓舞?哪怕熬夜,可能下次我还会继续写。如果我是带着对某个问题的思考而写成的文章,例如微信5.0上线具体有什么意义?我阐述了我自己关于这个问题的一些观点,而很多粉丝看了这篇文章后,提出了一些不同的看法,并且这些看法非常有助于我进一步思考,我怎能不倍受鼓舞,加倍努力去写。

  对于自媒体们来说,我相信绝大多数人不是为了那么点利益去辛苦码字的,他们更多的是在寻找一种幸福感,一种被社会需要的自我实现。这个时候所产生的创作动力会远远大于为了赚钱贴广告的那种动力。获得粉丝们的回馈,对于自媒体们来说,这是你对他成果的需要。

  ZAKER直接抓取了自媒体们微信公众号上的内容,虽然可以某种程度上可以让更多的用户看到内容,但是这些读者对文章的反馈,自媒体们却永远也听不到了。这和自媒体人在个人博客上写作,在传统纸媒上写作又有什么分别。媒体人写文章,读者阅读,然后就没有然后了,不能获取读者的反馈,从本质上根本就不能再称作为是自媒体了。

  其实自媒体这个概念其实并不是什么新鲜事物,早在博客时期,一个个的名人博客其实某种程度上就是一种自媒体,只不过这个概念远未到火爆的时候。在微博与微信流行之后,自媒体这个概念才开始慢慢的流行起来,尤其是微博更是提出人人都是自媒体的口号。有人说自媒体是精英的影响力得到了更大的释放,在我看来恰恰相反,自媒体真正形成的根基在于是草根阶层终于有了一个与精英一较高低的舞台,用一句通俗的话来说,就是作者与读者之间形成了良好的互动。对于自媒体人来说,他可以不受传统媒体的影响,但是他一定会看重读者们发出的声音,可能他看完之后会呲之以笑,殊不知这在某种程度上已经受到了读者们很大的影响。

  中国各行各业都奉行一种拿来主义,就像现在很火的科技博客,经常把门户网站的文章拿过来,然后随意删减一下,加上一些文字编辑,然后美其名曰再创造。反过来劝劝真正的自媒体们,其实无须烦恼,毕竟每个出于本心写作的人,写出文章的根本目的还是希望把自己的想法观点分享出去,至于是在微信公众号上被人认同,还是ZAKER或者其他一些乱七八糟的网站上,我的这个目的已经达到。信息被传播的越广,可能我能认识到的朋友就会越多,我的价值观就可能获得更多人的认可,何乐而不为呢?

时间: 2024-09-20 05:41:53

自媒体们为何反对ZAKER抓取内容的相关文章

今日头条否认侵权遭质疑 靠抓取内容建立商业模式

今日头条移动客户端 国内资讯App应用"今日头条"日前宣布获得1亿美元投资,该消息宣布后即被质疑其涉嫌侵犯内容版权.今日头条昨日对此发表声明,否认侵权.但有关专家认为,今日头条已涉嫌侵权,至少侵犯传统媒体.新闻记者等的权利. 客户端可见纸媒内容 "今日头条"声明指出,自己并不修改合作网站页面内容,不展现自己的广告,对合作网站页面完整展现给用户,包括网址,广告,品牌,下载链接,微信公众账号等等.但是在用户实际使用的过程中,合作网站的网页被"自动优化"

php-【PHP求助】通过PHP Curl模拟浏览器远程抓取内容

问题描述 [PHP求助]通过PHP Curl模拟浏览器远程抓取内容 需要抓取的内容:页面做了限制:http://my.taobao.com/UvFc0vF8uvmx0vgTT 如图所示: 解决方案 你找到淘宝网的登陆接口,自己用账户名和密码发送到接口登陆后获取返回的cookie,后续的请求附带上获取的cookie信息就行. 也有个偷懒的办法,就是自己用浏览器先登录淘宝.然后用浏览器开发工具查看获取到的cookie信息,将这些cookie信息附带到你的php请求里面就行了,可以省略模拟登陆那个步骤

centos-nutch自定义要抓取内容

问题描述 nutch自定义要抓取内容 刚接触nutch,环境是VirtualBox虚拟机安装centos6.5 64位 ,在CentOS下使用svn从官网检出nutch 2.3 .初步的需求就是,根据我自定义的url,通过输入某些关键词(或html标签.或者正则表达式),来把匹配的网页内容抓取下来.后续再进行分析(后话) 我还在学习中,发现nutch2.3版本中,已经用bin/crawl命令取代了老版本的 bin/nutch crawl ,参数列表几乎完全都变了. 我尝试了如下操作: 这是2.3

技术-最近在抓取数据的时候遇到个问题,请问大神如何抓取内容我用的是C#

问题描述 最近在抓取数据的时候遇到个问题,请问大神如何抓取内容我用的是C# <html><head><link title="将较长的行自动换行" href="resource://gre-resources/plaintext.css" type="text/css" rel="alternate stylesheet"></head><body><pre&g

php基于curl实现随机ip地址抓取内容的方法_php技巧

本文实例讲述了php基于curl实现随机ip地址抓取内容的方法.分享给大家供大家参考,具体如下: 使用php curl 我们可以模仿用户行为,既可以设置我们访问的ip及浏览器信息还可以设置post方式. curl是一个特别牛逼的东西!~ 居然还可以生成随机的ip来访问,甚至可以让服务器分辨不出真实ip.这个很牛!有人说这个是不算bug的bug.不过有这个功能也给我们带来了很大的方便. php基于curl实现随机ip访问: <?php function curl($url,$ifpost = 0,

伪造COOKIE及来源地址进行远程提交抓取内容的函数

    '********************************************************************************    'Function(公有)    '名称:    远程抓取函数    '作用:    利用XMLHTTP远程抓取数据    '参数:    sMethod --- 发送方式     '    sUrl ------ 目标地址    '    iMode ----- 返回内容类型:0为二进制,1为文本,2为cookie,3

影响蜘蛛抓取内容的四个因素

  网站收录良好与否跟蜘蛛爬行频繁次数.抓取页面有关是众所周知的,但是对于蜘蛛抓取了哪些页面我们不知道,那么我们只能依靠蜘蛛爬行过的访问日志进行分析了.从日志中我们可以分析出很多的数据,那么今天笔者主要给大家讲解一下影响蜘蛛抓取的因素和爬行时间,不要小看这个日志,它可以帮助你知道网站对于蜘蛛来说,是不是意味着友好的状态,蜘蛛喜不喜欢自己的站,如果爬行量大的话,那么就可以简单的得出网站很合蜘蛛的胃口,如果蜘蛛几天都不来的话,那么就要检查一下,是不是网站没有蜘蛛喜欢的"食物"了,下面就说说

深入file_get_contents函数抓取内容失败的原因分析_php技巧

用file_get_contents来抓取页面内容不成功,可能是因为有些主机服务商把php的allow_url_fopen选项是关闭了,就是没法直接使用file_get_contents来获取远程web页面的内容.那就是可以使用另外一个函数curl.下面是file_get_contents和curl两个函数同样功能的不同写法file_get_contents函数的使用示例: 复制代码 代码如下: < ?php$file_contents = file_get_contents('http://w

谷歌开发实时索引系统:数秒内抓取内容更新

北京时间3月4日上午消息,据国外媒体今日报道,谷歌正在开发一套系统,使得任何规模的网站发布者都能够向谷歌自动提交内容,从而使其内容在发布后几秒钟内被谷歌索引. 新的篇章 美国搜索引擎技术网站SearchEngineLand主编丹尼·苏利文(Danny Sullivan)认为,这将为谷歌掀开新的篇章. 谷歌PubSubHubbub(以下简称"PuSH")实时同步协议开发主管布伦特·斯拉特金(Brett Slatkin)去年秋天曾表示,他希望谷歌有朝一日能够用PuSH协议来索引网络内容,而