大家都知道,高质量的原创内容,是搜索引擎排名的一个重要依据,而且重要程度还在逐步提升。但是,现实的情况是,原创文章在搜索引擎索引中并不一定是原载,原载的并不一定是自己的原创。
这是搜索引擎的尴尬,一面极力倡导原创,并提高给予原创内容的权重,一面却无法很正确的识别出文章的“源”。这更是作者的尴尬,辛辛苦苦写好的文章,在搜索引擎中搜索,自己的原出处没有好的排名,转载自己文章的网站却排在前面。
搜索引擎能否完全正确识别文章的原创性,我认为目前还是个问题。
网站权重?如果按综合权重,门户级的网站就可以任意转载,并以此来获得更高的权重。
网站年龄?很多较大的网站,他们的运营时间远比新的小站、博客长,而事实上原创内容大多来源于小站和博客。
文章收录时间?权重较高的站收录更新快,文章很快就能收录,如果大站很快从原出处转载文章,先于原出处收录,那么文章算是谁的原创呢?
PR值?权威度?还是其他神秘因素?
这将导致一个问题:文章被转载,创作者没有得到给予原创内容应有权重,就无法提升网站综合权重;网站权重不能提升,新的文章再次被转载,再次不能获得权重……恶性循环。
通过对一些经常发表原创文章的网站、博客观察,Google在判定原创上做的比较好,大多数都能正确识别;而很多搜索引擎对于原创性大部分不能识别。
即使对原创识别能力较强的Google,也只是大多数情况下能够正确识别,还有很大一部分作者,辛辛苦苦写出来的文章,成为了别人的成果。有些网站在转载时还能写上作者、原出处,而一部分网站转载时连作者都省去了,更有甚者拿别人的文章,做上自己的链接,冠上自己的名号发布……
一边号召原创,给予原创内容高的权重值,却一边打击原创作者,这样是不合适的。
搜索引擎应在提高原创内容权重值之前,完善相应算法,权重分配随着算法的完善程度提高,而不至于原创作者得不到应得的权重,进入一个恶性循环。