舍卒保帅:巧用robots.txt提升网站权重

  这不是什么绝窍,而是向大家提供一种思路。

  目前采集站很多,加上百度算法频繁调整,被降权,被K成光杆司令的站比比皆是。

  我的新站易拍屋www.epioo.com就更不例外了。这是一个网摘类站点,在会员收藏网页的同时不仅给网页截图还保存原网页代码,即完全备份一个页面,存在高度复制性。

  刚开始的时候百度收录3千页每天就有1千多IP,可是好景不长,几天下来,每天变成了0IP,一杆子降到底,收录也放缓了。

  我就在思索为什么高度复制的网页,百度只是降了权重,却没有拔毛。除了模板完全原创以外难道还有什么原因让百度认为易拍屋还是有点可亲呢?

  思来想去大概原因只有一个,就是我的网站里还有相当数量的网页列表页和标签页不存在太高的复制性,从百度收录偏好上来看也是如此,你可以查看site:epioo.com,标筌页收得最多。而标签页全是标题链接,对SEO非常有利,如果网站权重能提升的话,呵呵...

  为了进一步论证列表页不会被视为垃圾页,我特地观查了网图导航www.wt265.cn,该网站列表页也存在复制性,但是一直没有被降权,而且稳居百度网址排行第2位:

  http://up.baidu.com/rank_16.html

  看到这里就有一线点曙光了——舍卒保帅,自已K掉内容页!

  真的删除内容页不太可能,最简单的办法当然就是让robots.txt告诉亲爱的百度不要理会内容页了。

  如何设置robots.txt请参考 http://www.baidu.com/search/robots.html

  需要特别注意的是Disallow与Allow行的顺序是有意义的,robot会根据第一个匹配成功的Allow或Disallow行确定是否访问某个URL。

  GOOGLE和百度都支持使用"*"和"$":

  baiduspider支持使用通配符"*"和"$"来模糊匹配url。

  "$" 匹配行结束符。

  "*" 匹配0或多个任意字符。

  变废为宝,大家快用robots.txt打造一个伪原创站吧!

  admin5首发

时间: 2024-10-25 09:31:01

舍卒保帅:巧用robots.txt提升网站权重的相关文章

什么是robots.txt?_网站运营

robots.txt 文件对抓取网络的搜索引擎漫游器(称为漫游器)进行限制.这些漫游器是自动的,在其访问网页前会查看是否存在阻止其访问特定网页的 robots.txt 文件. 如何创建 robots.txt 文件? 可以在任何文本编辑器中创建此文件.该文件应为 ASCII 编码的文本文件,而非 HTML 文件.文件名应使用小写字母. 语法最简单的 robots.txt 文件使用两条规则: User-Agent:适用下列规则的漫游器 Disallow:要拦截的网页 这两行被视为文件中的一个条目.您

巧用robots文件提升页面抓取率

一.认识robots文件 我们知道,robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的,什么是不可以被查看的,蜘蛛知道了这些以后,就可以将所有的精力放在被我们允许访问的页面上面,从而将有限的权重集中起来. 同时,我们还不能互略最重要的一点就是,robots.txt是搜索引擎访问网站要查看的第一个文件.明白了这一点,我们就有必要,也可能针对这一条做一些文章. 二.将sitemap.xml写入robots文件 前面提到了,robots.txt文件是搜索引擎中访问网站要查看的第一个文

浅谈Robots.txt 文件给网站带来的好处

作为一名网站优化人员,我们都很清楚Robots.txt文件对我们网站的重要性,Robots.txt文件只是一个纯文本文件,它就像网站地图一样,给搜索引擎指明道路,当蜘蛛搜索一个站点时,它首先爬行来检查该网站的根目录下是否存在Robots.txt文件,如果存在的话,搜索引擎会按照该文件的内容来确定访问范围,如果该文件不存在的话,那么搜索引擎就会沿着链接来抓取.那么程序员在设置Robots.txt文件时候应该了解到这个文件给我们网站带来了哪些好处? 第一, Robots.txt文件大大节省服务器宽带

优化Robots.txt:扬己之长避己之短

Robots.txt文件是一个简单的TXT文本,但是专注网站建设及网站优化的Seoer们都清楚它的重要性,它的存在可以将不希望搜索引擎抓取的页面屏蔽起来,也可以像是一张地图一样为蜘蛛引路指航.当蜘蛛爬行到一个站点时,首先访问的便是是否存在Robots.txt文件,然后按照内容中的指引来进行索引访问,如果文件不存在的话那么就按照页面中的链接进行顺序的访问.因此我们可以利用它来屏蔽一些不需要搜索引擎要索引的目录,或者将网站地图在Robots.txt中描述引导蜘蛛爬行,这样对于网站安全性上或者节省服务

网站配置robots.txt文件供大家参考

robots文件是什么? 搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息. 您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容.robots.txt文件放在哪里? robots.txt文件应该放在网站根目录下.举例来说,当robots访问一个网站(比如http://www.ithov.com)时,首先会检查该网

博客推广新方法:巧用博客链轮链接,提升网站整体实力

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 自上次在a5投稿成功后,投稿了好几次了都失败了,心情失落的很.当然有自己心血所做,也有伪原创.归根到底是自己没有用心去做这件事,花了时间,也没有收到别人的尊敬.所以这次认真去做,开篇前,还是希望这次原创投稿能通过.好了,先说说今天想给大家要分享的内容是:巧用博客链轮链接,提升网站整体实力. 大家都知道,外链建设中有一种办法就是博客外链.很多人

robots.txt 指南-介绍[翻译]

原文:http://javascriptkit.com/howto/robots.shtml译者:Tony Qu,BluePrint翻译团队     有一种力量其实一直在渗入大量的网站和页面,我们通常看不到它们,而且它们通常也很蛮横,大部分人甚至不知道它的存在,大家不要误会,其实我说得是搜索引擎爬虫和机器人.每天,上百个这样的爬虫会出来对网站进行快速的搜索.不管是不是google打算对整个网络进行索引,还是spam机器人打算收集大量的 email地址,通常它们这样的寻找是漫无目的的.作为网站拥有

Robots META标签和robots.txt文件

我们知道,搜索引擎都有自己的"搜索机器人"(ROBOTS),并通过这些ROBOTS在网络上沿着网页上的链接(一般是http和src链接)不断抓取资料建立自己的数据库. 对于网站管理者和内容提供者来说,有时候会有一些站点内容,不希望被ROBOTS抓取而公开.为了解决这个问题,ROBOTS开发界提供了两个办法:一个是robots.txt,另一个是The Robots META标签. 一.robots.txt1.什么是robots.txt? robots.txt是一个纯文本文件,通过在这个文

教你robots.txt设置方法技巧

在SEO优化网站当中,做好robots.txt至关重要因为每个搜索引擎抓取网站信息第一步就是爬去robots.txt文件来引导搜索引擎爬取;合理的使用robots文件能够更好的集中网站的权重,避免一些不想被搜索引擎查看的文件抓取,是非常必要的一种SEO手段,但是好多做seo的朋友对于robots的文件使用不是特别了解,仅仅知道Disallow是禁止,allow是允许,以及一些常用的搜索引擎的访问禁止写法,对于在复杂的一些不知道如何去写,其实本人开始也对于robots不知道如何着手去写,但是随着做