百度对robots.txt的神速反应

  和社会脱轨有段时间了。最近在做一个优化的时候发先了一个有趣的问题-robots.txt文件对百度的限制抓去效果很神速。

  直接上数据吧,目标网站www.opine.cn,12月份改版,全新程序,老站的数据有一部分没有删除,放在了2个目录夹下。新改版的数据收录很快,当天收录就从200多上升到了300多的收录。因为当时我还没开始做这个站,直到12月末的时候,我上了robots文件,限制了旧数据目录。第三天,收录从300多下降到了200左右,在4号的时候,robots文件不小心被谁删了,第二天收录猛增了100多,都是老数据。赶紧把robots传上去,两天的时间,robots限制的文件又被百度藏起来了。一个多星期,反复的两次robots事件,收录也跌跌荡荡。数据从300到200在回到300,最后又变成现在的190.反映了一个问题,就是robots对百度的作用非常大,百度反应的速度也非常的快。

  

  大家要学会用robots.txt,不但可以节约很多时间,而且对收录和禁止收录都是非常有效的。在robots.txt里面加一个sitemap地址,减去繁琐的sitemap提交,让蜘蛛自己来爬吧。

  有点乱七八糟的感觉,大家多包含。

时间: 2024-10-16 10:40:01

百度对robots.txt的神速反应的相关文章

百度为什么抓取被robots.txt禁止的文件

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 前段时间互联网界对360不遵守robots.txt文件进行了群批,百度也强调自己是遵守robots.txt协议的.但从最近对某网站的分析来看,百度对robots.txt文件的遵守很不彻底.11月15号,我写了一篇文章各搜索蜘蛛对robots.txt文件改动的反应, 因为在11月13号左右,我在我从事的网站上放了robots.txt文件,明确禁

如何写robots.txt 文件?

robots.txt文件是放在网站的根目录下,作用是告诉搜索引擎网站的哪些文件,哪些目录可以被索引,哪些不要索引.因此,这个文件是相当的重要,正确书写好robots.txt文件,可以保证你的网页被搜索引擎正确地索引.收录. 书写robots.txt文件时,要使用纯文本的编辑器,使文件是纯文本的格式.robots.txt文件的结构还是比较简单的.它是由一行一行的纪录组成,每行由两个部份组成:<Field> : <value> <Field> 有两种,一个是User-age

网站优化跟踪 细看robots.txt规则的实际效果

10月20日,我对博客进行了大规模调整,就如同对待亟待成长的树一般修枝剪叶,以期能有较好的成长趋势.其中robots.txt被我充分的利用起来.如今一个工作周即将过去,robots.txt文件规则是否正确,是否已经生效?百度谷歌等搜素引擎是否响应了robots.txt规则进行索引调整?作为站长我需要深入研究一番,以便动态掌握博客收录状态. 经调查发现,谷歌对robots.txt反应比较迅速,第三天在网站管理工具里找到了迹象.百度表现不尽如人意,说百度不认robots.txt规则那是瞎扯,但反应周

细看robots.txt规则的实际效果

摘要: 10月20日,我对博客进行了大规模调整,就如同对待亟待成长的树一般修枝剪叶,以期能有较好的成长趋势.其中robots.txt被我充分的利用起来.如今一个工作周即将过去,robots.txt文件规 10月20日,我对博客进行了大规模调整,就如同对待亟待成长的树一般修枝剪叶,以期能有较好的成长趋势.其中robots.txt被我充分的利用起来.如今一个工作周即将过去,robots.txt文件规则是否正确,是否已经生效?百度谷歌等搜素引擎是否响应了robots.txt规则进行索引调整?作为站长我

解析各大搜索引擎对robots.txt文件的反应

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 一直都没有看到个具体的robots.txt文件在各个搜索引擎的执行情况如何,最近,我特意针对robots.txt文件对于各大搜索引擎做了个实验,看他们这一自己说是明文遵守的协议,落实到实际中去执行又是个什么状况.下面我就针对各大搜索引擎对robots.txt文件的反应测试数据,给大家详细讲解下,以供大家平时参考. 首先这个网站在百度,GOOG

了解robots.txt的用法 优化搜索引擎抓取和索引

通过给网站设置适当的robots.txt对Google和百度seo优化的作用是很明显的.WordPress博客网站也一样. 我们先看看robots.txt是什么,有什么作用? robots.txt是什么? 我们都知道txt后缀的文件是纯文本文档,robots是机器人的意思,所以顾名思义,robots.txt文件也就是给搜索引擎蜘蛛这个机器人看 的纯文本文件.robots.txt是搜索引擎公认遵循的一个规范文 档,它告诉Google.百度等搜索引擎哪些网页允许抓取.索引并在搜索结果中显示,哪些网页

分析Robots.txt规则误区 百度和Googlerobots工具使用

前段时间写了篇robots.txt文件怎么写,但是通过实际观察,有些朋友对于robots.txt文件的规则还是有一定的误区. 比如有很多人这样写: User-agent: * Allow: / Disallow: /mulu/ 不知道大家有没有看出来,这个规则其实是不起作用的,第一句Allow: / 指的是允许蜘蛛爬行所有内容,第二句Disallow: /mulu/指的是禁止/mulu/下面的所有内容. 表面上看这个规则想达到的目的是:允许蜘蛛爬行除了/mulu/之外的网站所有页面. 但是搜索引

Robots.txt的写法和利用百度站长平台工具自动生成

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 百度站长平台提供了一个很好的robots.txt自动生成工具,利用它我们可以很方便的写出robots.txt,通过robots.txt阻止搜索引擎收录你不想要被收录的页面及目录,还可以阻止及引导蜘蛛爬行更多的页面,减少蜘蛛的爬行量,提高蜘蛛的爬行效率,有效的提升更多的页面被收录. 前面我们介绍了通过IIS日志分析让你更好的了解网站运行情况,可

错误的robots.txt 百度K站没商量

相信很多站长都很清楚robots.txt文件,robots.txt是搜索引擎中访问网站的时候要查看的第一个文件,Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的.A5优化小组http://seo教程.admin5.com/认为robots.txt文件重要作用就是robots.tx可以屏蔽重复的内容收录,避免同一个网页被百度收录N次.robots.txt虽然很是重要,但是很少有站长能够正确配置伪静态文件,即使是大企业大人物的网站,也很难正确配置好robots.txt. 比如康盛