网站要实现良好的收录就不能存在过多重复性的内容,但对很多网站来说,有时重复性内容似乎不可避免,因为不论从站内因素还是站外因素,不论是图片站还是产品站,稍微不注意就会产生过于相似的页面。本文总结一下在日常的更新中,易产生重复内容的几点原因,希望对站长有帮助。当然,这几个原因并不是全部,只是我认为比较重要的几部分,如果大家有更多这方面的总结,欢迎写出来分享。
api易有重复内容
现在淘宝客是大多数站长的首选。很多站长希望网站收录较多、更新简单,所以就使用了api站点。这类站点的特点即使比较容易获得数据,收录量也会比较大。但缺点同样明显,那就是会产生大量的重复性页面。百度现在对于这方面非常敏感,很多有足够名气的站也会在更新之后被K被降权。其它行业也有类似情况,网站只要存在大量的同质内容,就比较危险。比如一些音乐网站,小说网站等。
排序产生相似页面
一些产品量比较大的网站,往往有很多的排序功能,比如按时间排列、按销售排名、按价格排名,这些不同的排序都是利用URL的动态参数而完成,所以算是不同的URL,但是,很多排序的页面内容都过于类似,所以也会形成很多的重复内容。大家可以想试想,一个产品如果有几种不同的排名组合,并且允许两两查询,那么产生的URL就是几十个,那么如果几百个产品、几千个甚至上万个产品,那么这样的URL就相当多,对于搜索引擎来说,这绝对非常不利。
网站图片比较多
一些图片站也是易产生重复内容的因素之一,特别是一些B2C类型的网站、图片欣赏站等,由于图片不能被搜索引擎抓取识别,它所能看到的是代码以及少有的一些文字,所以很多URL页面就会基本类似。这些重复内容不是和别的网站重复,更多的是和自身网站想比,所以,更加需要重视。当然,有些网站可能会写一些ALT文字做注释,但是这并不能保证完全减少重复页面。最好的方法就是多加文案,做区别。
采集重复内容
现在虽然采集很流行,但是采集必须要有一定的规律和技术才行。完全采集并不是可取的办法,我们需要找到最相关的行业,然后把这些内容搬到我们网站上来,同时穿插一些不同的东西,然后做到原创化与唯一化。如果做不到唯一化,而是大量的直接去采集,就会生成很多重复内容。大家虽然也很明白这个道理,但是很多依旧是抱着采集10篇收录一篇的心理,这样采集足够多的内容就会收录一部分。不过这样的效率比较低,可能当时收录以后也有可能被删除,因此建议大家不要做纯粹的采集站。
重复性是SEO优化过程中比较常见、也是比较容易被降权的一项因素,很多站长没有过多的注意到,或者即使注意到,并没有引起过多的重视,所以导致网站收录与权重比较低,从而影响关键词排名,但如果这个时候注意到并慢慢调整,网站依旧会恢复。本文的目的就是希望大家足够的重视这个方面,最终让自己的网站不要产生重复性内容。好了,今天到这,本文来自http://www.whale-baby.com/,转载请保留版权,谢谢!