两个方法检查网站robots.txt是否合理

  看了很多网站优化的文章,都很少提及如何检查网站的robots.txt,大多就说明一下robots.txt要设置好。对于高手来讲,这是小菜一碟,可以轻松判断robots.txt是否合理,但对于一些菜鸟来讲,根本无法判断自己网站的robots.txt是否合理,一个错误的robots.txt文件会使搜索引擎机器无法挖掘你的网站,其结果是你的新内容无法列举在搜索引擎的索引中。这对网站站长来说是一个巨大的损坏。如果你做错了什么并重新编辑 robots.txt文件的话,它需要两个星期才能看到效果。因此一个正确的robots.txt是很重要的。今天我给大家介绍两个检查网站robots.txt的方法,希望对大家有用。

  一、 利用Google网站管理员工具检查

  Google网站管理员工具可以在线验证robots文件,分析网站的 robots.txt 文件,方法是:登入Google 网站管理员工具后,在"控制台"中,点击所需网站后,点击工具,然后点击分析 robots.txt。

  另外如果你不知道怎么写robots.txt,你可以通过Google 网站管理员工具提供的测试robots.txt文件并试用更改功能来设置一个正确的robots.txt文件,把你想要禁止的文件或目录通过 robots.txt格式制作好后,复制到google提供的robots区,然后你可以在robots.txt文件测网址区测试下你刚才写的 robots.txt文件是否正确。这样你就可以设置出一个正确的robots.txt了。

  具体视图如下:

  


  看了上面的图,相信你再菜也能写出一个正确的robots.txt了吧!呵呵

  二、 利用国外的http://tool.motoricerca.info/robots-checker.phtml验证首先通过http://tool.motoricerca.info/robots-checker.phtml登入,在如下图的框中输入:你的域名/robots.txt,(例如:http://www.xxx.com/robots.txt)

  (提醒:输入之前一定要把你robots.txt中的中文注释删除,否则无法这工具就不认为你所检查的是robots.txt,也就无法检查robots.txt是否合理了。)

  


  点击Check robots.txt后,如果robots.txt没错的话,一般会出现下面的结果

  


  如果出现其他结果的话,那肯定是有问题了,如果看不懂的话,可以用google翻译啊!

  文章来源:菜鸟建站网www.zqbest.com 。

时间: 2024-10-06 13:11:08

两个方法检查网站robots.txt是否合理的相关文章

网站robots.txt文件配置错误,让我的站点丧失抓起良机!

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 国外的检查robots.txt文件合法性的在线验证工具地址是:http://tool.motoricerca.info/robots-checker.phtml.不过要注意,使用这个工具,请把robots.txt里的汉字注释清除(我的广州空调维修站点就是吃这个亏了!!!),它识别不了汉字:如果有汉字在里面的话,它就不认为这是一个robots.

网站robots.txt使用中常见的误区

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 前几天写了robots.txt的规则误区并介绍百度和Google的robots工具的使用,介绍了几个robots.txt文件的规则的误区,然后发现其实不止那些,还有很多大家没有注意的误区. 今天重新列举一下常见的robots.txt实际使用中的误区: 误区1.Allow包含的范围超过Disallow,并且位置在Disallow前面. 比如有很

robots.txt禁止搜索引擎收录的方法

搜索引擎 一.什么是robots.txt文件? 搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息. 您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容. 二. robots.txt文件放在哪里?robots.txt文件应该放在网站根目录下.举例来说,当robots访问一个网站( 比如http://www.abc.

什么是robots.txt?_网站运营

robots.txt 文件对抓取网络的搜索引擎漫游器(称为漫游器)进行限制.这些漫游器是自动的,在其访问网页前会查看是否存在阻止其访问特定网页的 robots.txt 文件. 如何创建 robots.txt 文件? 可以在任何文本编辑器中创建此文件.该文件应为 ASCII 编码的文本文件,而非 HTML 文件.文件名应使用小写字母. 语法最简单的 robots.txt 文件使用两条规则: User-Agent:适用下列规则的漫游器 Disallow:要拦截的网页 这两行被视为文件中的一个条目.您

随意修改robots.txt 小心搜索引擎不收录你的站

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 Robots.txt是用来告诉bot的访问权限,因Robots.txt协议并不是一个规范,而只是约定俗成的,通常大多数搜索引擎会识别这个元数据,不索引这个页面,以及这个页面的链出页面,使用方法是将robots.txt文件放在网站根目录下.举例来说,当搜索引擎访问一个网站(比如http://www.admin5.com)时,通常首先会检查该网站

新站不收录不要忽略了robots.txt文件

今天无意中看到一位站长朋友的诉说,讲的是他新站为什么没有被收录,从发现问题的原因到解决问题中一系列的工作.感觉比较典型,很多人可能会遇到,现在贴出来分享给大家. 问题原因: 该站长在新站上线后不久,网站内部就出现了重大的bug(漏洞).该站长先用robots.txt文件屏蔽了搜索引擎的的抓取,然后对网站的bng进行修复. 问题处理: 等到网站的bug修复完成后,该网友再次对robots.txt文件进行了修改,允许所有搜索引擎的抓取.表面上看做到这一步就可以等搜索引擎过来抓取内容了,可是一个星期过

利用Robots.txt如何优化WordPress网站

很多建站新手对robots.txt文件的重要作用不是很清楚,利用这篇文章普及一下WordPress站点robots.txt文件编写知识. Robots协议(也称为爬虫协议.机器人协议等)的全称是"网络爬虫排除标准"(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取. 搜索引擎机器人访问网站时,首先会寻找站点根目录有没有 robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就按默认访问以

网站内的robots.txt文件的重要性

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 很多网站的FTP里你会发现一个robots.txt的文件,很多站长都只知道这个是限制蜘蛛访问的文件,此文件究竟还有没有其他作用呢?我们一起来学习一下. 什么是robots文件呢?这个文件是搜索引擎与网站之间的沟通桥梁,是两者之间约定好的语法文件,搜索引擎每抓取一个网站,就会先检查这个文件,就好像开门的钥匙一样.如果这个文件不存在,那么就代表不

网站优化:robots.txt使用教程

首先,我来介绍一下什么是robots.txt:robots.txt是搜索引擎中访问网站的时候要查 看的第一个文件.Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的.当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是 否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有 被口令保护的页面.最后,robots.txt必须放置在一个站点的根目录下. 大家可以参考一下谷歌.百度和腾讯的