在我们进行网站优化的时候我们经常会遇到处理各种各样的重复页面,造成这些原因有很多,但大多是是由于程序错误而产生,所以我们在做站的时候选择一套成熟的程序很有必要的,这会让你在做站的时候省去很多麻烦。天我们就结合我个人处理姐妹祛痘网的重复页面的经验来个大家讲讲如何处理重复页面。
301跳转重复链接
每个网站都难免会经历结构或者内容的调整。我在做姐妹祛痘网的时候也经历了这样的事,因为当初建这个站的时候,不是很注意目录结构的优化,导致后来用户体检不好,对搜索引擎也不是很好。所以决定改,而这一改就就需要吧旧的url变成新的,但是同时要保证旧的url可以访问,如果处理不好搜索就会导致有2个或者更多的url指向同一个页面,虽然对用户来讲是感觉不出什么,但是对搜索引擎来说确实个不好的体验,所以这个时候我们需要做的是用301将就得url跳转到新的url,这样既兼顾了用户体验,也照顾了搜索引擎,同时还还能将就得url权重转移到新的url上。所以在进行网站改版的时候一点要注意301跳转的处理。
robots.txt屏蔽掉重复的链接
这类问题多半是由于程序本身的漏洞,或者由伪静态而造成的,比如我的姐妹祛痘网论坛,用的是dz论坛程序,但是这个程序本身会有很多重复的url,所以如果处理不好那会造成很多的重复页面,我的处理方式,是先用吧url设置成伪静态的,然后用robots.txt 带有 “?”参数的页面,和以".php"结尾的页面。当然这只能避免大部分重复,如果你想细化,还需要分析网站日志,看看还有那些重复的url,然后屏蔽掉。
link标签解决重复
很多时候我们的,一些内容页比如产品页,只是在型号或者在颜色上有一些区别,而本身所指的是一种商品的时候,这个时候就需要规范url,< link rel="canonical" href="URL" / > 不过这个标签只对google有效,而百度却不支持此标签,针对百度我们只能屏蔽掉这个url< meta name="Baiduspider" contect= "noindex" > 。
以上3种处理重复的方式都需要灵和应用,基本是需要搭配了应用才能达到效果。最后附上姐妹祛痘网连接:www.jjmm5.com转载请保留此连接。