一个站长的robots.txt亲身痛苦经历

  今天来说一个大家十分熟悉的东西robot文件,相信大家对这个不陌生吧!但是我发现很多站长朋友们忘记了这个文件的重要性,而且在设置的时候很随意。这种理解是失误的.我自已在一边听课一边自学,今天碰到了这个问题;随后,我就咨询了一位seo的老师,我问他:老师这个robots重要吗?当时,老师语重心长的对我说了一句;robots既可以成就你的网站;也可以毁掉你的网站。所以嘛,还是很重要的。

  言归正传吧!来和大家聊聊robots在我们网站的一些情况;在seo研究中心有一位和我是比较好的朋友,有一次,他的网站有收录上千,突然一个下午收录为0了。当时他慌了,因为网站收录没有了;流量也没有了,辛辛苦苦的忙了一个多月。到头来却发现;竹篮子打水一场空。当时他心灰意冷;就跑到群里聊天,到处去问;我网站被k了,求解决方法啊!心急如焚,然后,有很多人帮他忙;检查原因,经过一段很长的时间检查,大家发现了原因是他的网站robots屏蔽了百度蜘蛛抓取网站页面。

  

  为什么会出现这种情况呢?原因在于它在做网站的时候robots是完全屏蔽了百度蜘蛛抓取。大家知道一个事实吧!就是当你写好了规则;屏蔽了百度蜘蛛的时候,可以发现百度还是会抓取的。道理很简单,百度不可能做到人一样智能化。所以你屏蔽蜘蛛他还是会来抓取的。但是你也别慌啊!等过段时间百度就会把已经抓到的页面、但是你robots文件中有屏蔽的页面;他会从索引库删除,百度也会有一个发现的过程;到改正和纠错的过程。

  当时,我就记得他说了一句话,就是为什么会去屏蔽百度蜘蛛?因为网站刚做;而且他本人也学习了seo,所以也听过seo的老师讲过一些这方面的内容,明白自已做一个新站可以暂时屏蔽网站蜘蛛;等网站做好了再提交给搜索引擎,并且把robots文件修下,允许百度抓取;可能是他忘记了,把这关键一步给忘记了。导致他辛苦做的网站和外链;被百度删除了收录的页面,那段时间很痛苦;他整个人情绪也是十分低落的。

  今天,我通过这个朋友的经历也是希望大家能够去重视robots这个问题?很重要,请不要忽视了;顺带自已谈谈我做的robots的一些经验,我记得网站在新建的时候。我自已也是没有注意robots文件这个东西,觉得无所谓啊!然后昨天听老师讲到了这个问题;我自已开始重视了,然后我开始把一些很垃圾的页面和图片全部给屏蔽了,页面主要是一些动态页面,大家都知道;百度喜欢静态的;如果你网站是动态;会造成搜索引擎多次抓取,给搜索引擎印象又不友好。浪费蜘蛛时间和资源。你说他能对你又好吗?还有图片也是一些网上采集的图片;因为百度把一些原创图片给抓取了,如果你网站再用;这会导致百度认为你网站是抄袭的和伪原创的。这会导致百度不收录你的网站。

  说了这么多,我个人建议就是希望广大的站长朋友能够去重视这个问题!因为很重要;如有不懂怎么制作?可以去我博客留言,我会回复解答!希望你能够做好robots。

  文章作者:SEO每一说,来源:http://www.xuecnc.com/seo/post/0506.html

  欢迎加入seo交流群:208564536一起分享和交流seo。

  版权声明:转载请注明文章来源:谢谢合作。

时间: 2024-09-22 12:26:36

一个站长的robots.txt亲身痛苦经历的相关文章

站长不要忽视robots.txt的存在

认识了很多站长,大多数会使用robots.txt文件,只有40%左右的站长不知道robots.txt文件的重要性.当然了,如果你的网站完全没有让搜索引擎教程禁止的内容,可以不用robots.txt文件. 到底robots.txt是何许人也? robots.txt是一个纯文本文件,它就像网站地图一样,给搜索引擎指明道路..当搜索引擎蜘蛛爬取网站的时候,一般会确实你网站的目录下是否有robots.txt这个文件.如果有的话,会按照文件的内容来爬取该爬的网站内容.如果没有这个文件,蜘蛛就会跟着链接直接

新站不收录不要忽略了robots.txt文件

今天无意中看到一位站长朋友的诉说,讲的是他新站为什么没有被收录,从发现问题的原因到解决问题中一系列的工作.感觉比较典型,很多人可能会遇到,现在贴出来分享给大家. 问题原因: 该站长在新站上线后不久,网站内部就出现了重大的bug(漏洞).该站长先用robots.txt文件屏蔽了搜索引擎的的抓取,然后对网站的bng进行修复. 问题处理: 等到网站的bug修复完成后,该网友再次对robots.txt文件进行了修改,允许所有搜索引擎的抓取.表面上看做到这一步就可以等搜索引擎过来抓取内容了,可是一个星期过

两个方法检查网站robots.txt是否合理

看了很多网站优化的文章,都很少提及如何检查网站的robots.txt,大多就说明一下robots.txt要设置好.对于高手来讲,这是小菜一碟,可以轻松判断robots.txt是否合理,但对于一些菜鸟来讲,根本无法判断自己网站的robots.txt是否合理,一个错误的robots.txt文件会使搜索引擎机器无法挖掘你的网站,其结果是你的新内容无法列举在搜索引擎的索引中.这对网站站长来说是一个巨大的损坏.如果你做错了什么并重新编辑 robots.txt文件的话,它需要两个星期才能看到效果.因此一个正

关于WordPress的robots.txt文件的那些事

安装完wordpress站点后关于robots.txt文件的书写一直烦恼着很多站长,Robots.txt文件协议又叫搜索引擎机器人协议,搜索引擎爬虫在爬取网站的时候,首先会看网站根目录下是否有robots.txt文件,然后遵循robots.txt协议爬取网站主希望搜索引擎爬取的内容.robots.txt文件意在告诉搜索引擎爬虫哪些页面可以爬取,哪些页面不能爬取,可以有效的保护用户的隐私,同时也有利于节省蜘蛛的带宽,从而让蜘蛛爬取更加容易,促进收录. 先来简单的说下robots.txt文件的规则:

Robots.txt编写似雷区 稍有不慎“毒害甚深”(一)

每个人都有自己的隐私,网站也是这样,网站中也有不希望被蜘蛛看到的东西,比如会员密码等等,而想要遮挡住这部分隐私,一般情况下站长都会在第一时间想到Robots.txt.没错,Robots.txt文件的使用的确可以给蜘蛛指明道路,告诉它什么地方该去,什么地方不该去,也正是因为这点原因,很多站长都热衷于用Robots.txt,但是大家真的会用Robots.txt吗?对于它的编写规则大家又知道多少呢?本人不才,但对于这方面总归有点经验,在这分享出来,让大家有个参考,当然老鸟可以飞过了. Robots.t

浅谈网站地图链接放在robots.txt文件里的用处

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 把网站地图链接放在robots.txt文件里,好处就是站长不用到每个搜索引擎的站长工具或者相似的站长部分去提交自己的sitemap文件.这样的方法可以帮助站长减轻工作. 各大搜索引擎都发布了对网站地图的新的支持方式,就是在robots.txt文件里直接包括sitemap文件的链接.目前对此表示支持的搜索引擎公司有Google, Yahoo,而

利用Robots.txt如何优化WordPress网站

很多建站新手对robots.txt文件的重要作用不是很清楚,利用这篇文章普及一下WordPress站点robots.txt文件编写知识. Robots协议(也称为爬虫协议.机器人协议等)的全称是"网络爬虫排除标准"(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取. 搜索引擎机器人访问网站时,首先会寻找站点根目录有没有 robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就按默认访问以

切身经验,搜索引擎指南robots.txt文件技巧

相信各位站长都是动态CMS建站,那么,网站根目录下应该会有个Template模板文件夹,如果不想让搜索引擎抓取Template模板文件夹下的模板文件,那么在写robots.txt文件时候应该注意一点:(非常主要) 例一:"Disallow:/Template"是指/help.html 和/Template/index.html都不允许搜索引擎蜘蛛抓取.例二:"Disallow:/Template/"是指允许搜索引擎蜘蛛抓取/Template.html,而不能抓取/T

Robots META标签和robots.txt文件

我们知道,搜索引擎都有自己的"搜索机器人"(ROBOTS),并通过这些ROBOTS在网络上沿着网页上的链接(一般是http和src链接)不断抓取资料建立自己的数据库. 对于网站管理者和内容提供者来说,有时候会有一些站点内容,不希望被ROBOTS抓取而公开.为了解决这个问题,ROBOTS开发界提供了两个办法:一个是robots.txt,另一个是The Robots META标签. 一.robots.txt1.什么是robots.txt? robots.txt是一个纯文本文件,通过在这个文