通过网站日志来寻找百度蜘蛛爬行规律

  对于各位站长来说,百度的收录是关心的重中之重,因为网站大部分流量都来自百度。

  因此,了解百度蜘蛛的爬行规律从而更好的改善收录情况也是必须要掌握的。

  很多网站目前使用的都是虚拟空间,都能够提供日志。从虚拟主机后台登录,点击下载访问日志。

  日志是指在网站根目录下的logfiles或W3SVC文件夹里面日期.txt文本文件

  更多的是类似我的网站建站学习网www.3915.net的日志格式,如下:

  开始几行:

  #Software: Microsoft Log Parser

  #Version: 1.0

  #Date: 2008-09-30 23:57:04

  #Fields: LogFilename RecordNumber ComputerName SiteID DateTime ClientIpAddress ServerIpAddress ServerPort Method ProtocolVersion ProtocolStatus SubStatus TimeTaken BytesSent BytesReceived Win32Status UriStem UriQuery UserName

  说明用的软件,版本,创建日期,字段说明

  举例说明:

  d:\iislog\W3SVC\ra080930.ibl 818972 COMPUTER88221 837 2008-09-30.12:52:51 202.108.7.205 58.241.151.91 80 GET HTTP/1.1 200 0 437 35074 267 0 /index.php - -

  分别表示:

  日志文件名:d:\iislog\W3SVC\ra080930.ibl

  记录数:818972

  计算机名称:COMPUTER88221

  站点ID:837

  访问日期:2008-09-30 12:52:51

  客户端IP:202.108.7.205 (客户端IP很重要,有的IP是搜索引擎爬虫的IP)

  服务器IP:58.241.151.91

  服务端口:80

  模式:GET

  HTTP协议版本:HTTP/1.1

  协议返回状态:200 (这个很重要,200是成功的应答码)

  记录的内容大小:35074 267

  访问页面: /index.php (这点是站长分析和以后努力的方向)

  都是这种格式的日志如何去分析了,一个一个看的头都大了。

  现在网上很多网站日志分析工具,其实你只要打开日志“CRTL+F”查找几个你最关心的IP就OK了。

  各类蜘蛛IP收集,不一定完全准确。

  序号 IP 注释

  1 202.106.186.* 163蜘蛛

  2 202.108.36.* 163蜘蛛

  3 202.108.44.* 163蜘蛛

  4 202.108.45.* 163蜘蛛

  5 202.108.5.* 163蜘蛛

  6 202.108.9.* 163蜘蛛

  7 220.181.12.* 163蜘蛛

  8 220.181.13.* 163蜘蛛

  9 220.181.14.* 163蜘蛛

  10 220.181.15.* 163蜘蛛

  11 220.181.28.* 163蜘蛛

  12 220.181.31.* 163蜘蛛

  13 222.185.245.* 163蜘蛛

  14 202.165.100.* 3721蜘蛛

  15 220.181.19.* 百度蜘蛛

  16 159.226.50.* 百度蜘蛛

  17 202.108.11.* 百度蜘蛛

  18 202.108.22.* 百度蜘蛛

  19 202.108.23.* 百度蜘蛛

  20 202.108.249.* 百度蜘蛛

  21 202.108.250.* 百度蜘蛛

  22 61.135.145.* 百度蜘蛛

  23 61.135.146.* 百度蜘蛛

  24 64.124.85.* become.com

  25 61.151.243.* china蜘蛛

  26 202.165.96.* gais.cs.ccu.edu.tw

  27 216.239.33.* google蜘蛛

  28 216.239.35.* google蜘蛛

  29 216.239.37.* google蜘蛛

  30 216.239.39.* google蜘蛛

  31 216.239.51.* google蜘蛛

  32 216.239.53.* google蜘蛛

  33 216.239.55.* google蜘蛛

  34 216.239.57.* google蜘蛛

  35 216.239.59.* google蜘蛛

  36 64.233.161.* google蜘蛛

  37 64.233.189.* google蜘蛛

  38 66.102.11.* google蜘蛛

  39 66.102.7.* google蜘蛛

  40 66.102.9.* google蜘蛛

  41 66.249.64.* google蜘蛛

  42 66.249.65.* google蜘蛛

  43 66.249.66.* google蜘蛛

  44 66.249.71.* google蜘蛛

  45 66.249.72.* google蜘蛛

  46 72.14.207.* google蜘蛛

  47 61.135.152.* iask蜘蛛

  48 65.54.188.* msn蜘蛛

  49 65.54.225.* msn蜘蛛

  50 65.54.226.* msn蜘蛛

  51 65.54.228.* msn蜘蛛

  52 65.54.229.* msn蜘蛛

  53 207.46.98.* msn蜘蛛

  54 207.68.157.* msn蜘蛛

  55 194.224.199.* noxtrumbot

  56 220.181.8.* Outfox

  57 221.239.209.* Outfox

  58 217.212.224.* psbot

  59 219.133.40.* QQ蜘蛛

  60 202.96.170.* QQ蜘蛛

  61 202.104.129.* QQ蜘蛛

  62 61.135.157.* QQ蜘蛛

  63 219.142.118.* sina蜘蛛

  64 219.142.78.* sina蜘蛛

  65 61.135.132.* sohu蜘蛛

  66 220.181.26.* sohu蜘蛛

  220.181.19.*

  67 61.135.158.* tom蜘蛛

  68 66.196.90.* yahoo蜘蛛

  69 66.196.91.* yahoo蜘蛛

  70 68.142.249.* yahoo蜘蛛

  71 68.142.250.* yahoo蜘蛛

  72 68.142.251.* yahoo蜘蛛

  73 202.165.102.* yahoo中国蜘蛛

  74 202.160.178.* yahoo中国蜘蛛

  75 202.160.179.* yahoo中国蜘蛛

  76 202.160.180.* yahoo中国蜘蛛

  77 202.160.181.* yahoo中国蜘蛛

  78 202.160.183.* yahoo中国蜘蛛

  79 72.30.101.* yahoo蜘蛛

  80 72.30.102.* yahoo蜘蛛

  81 72.30.103.* yahoo蜘蛛

  82 72.30.104.* yahoo蜘蛛

  83 72.30.107.* yahoo蜘蛛

  84 72.30.110.* yahoo蜘蛛

  85 72.30.111.* yahoo蜘蛛

  86 72.30.128.* yahoo蜘蛛

  87 72.30.129.* yahoo蜘蛛

  88 72.30.131.* yahoo蜘蛛

  89 72.30.133.* yahoo蜘蛛

  90 72.30.134.* yahoo蜘蛛

  91 72.30.135.* yahoo蜘蛛

  92 72.30.216.* yahoo蜘蛛

  93 72.30.226.* yahoo蜘蛛

  94 72.30.252.* yahoo蜘蛛

  95 72.30.97.* yahoo蜘蛛

  96 72.30.98.* yahoo蜘蛛

  97 72.30.99.* yahoo蜘蛛

  98 74.6.74.* yahoo蜘蛛

  99 202.108.4.* 中搜蜘蛛

  100 202.108.4.* 中搜蜘蛛

  101 202.108.33.* 中搜蜘蛛

  102 202.96.51.* 中搜蜘蛛

  103 219.142.53.* 中搜蜘蛛

  对202.108的IP段一定要注意,这个网段的IP地址是位于北京网通电报大楼,属于全国互联网核心骨干机房,现在

  此IP段已经绝迹了。好多蜘蛛服务器都在这里面,尤其是百度的。

  相信通过这此分析,你就应该对你的网站上蜘蛛活动有所了解,进行下一步的计划了吧。

  文章来自:http://www.3915.net 本人QQ:290975802,愿结交有志的站长.

时间: 2024-10-29 03:44:07

通过网站日志来寻找百度蜘蛛爬行规律的相关文章

通过IP地址看网站日志寻找百度蜘蛛爬行规律

对于各位站长来说,百度的收录是关心的重中之重.了解百度蜘蛛的爬行规律从而更好的改善收录情况也是必须要掌握的.很多网站目前使用的都是虚拟空间,都能够提供日志. 日志是指在网站根目录下的logfiles文件夹里面日期.txt文本文件有很多介绍通过http查看返回命令的那种办法来查看蜘蛛,这里就不介绍了. 现在更多的网站是没有提供可以通过软件来查看的日志格式. 更多的是类似下面的日志格式,如下: 03:28:34 GET /goods.php 202.108.7.205 200 34696 390 第

apache下网站日志里面显示百度蜘蛛的方法

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 这些天研究SEO需要分析网站的日志,看百度蜘蛛的爬行轨迹和爬行时间,但是在wdcp后台看的web_log日志里面找了个遍硬是没有找到这些信息,相信很多朋友也一样有这个苦恼,于是百度搜索了一晚,再结合原有的apache日志格式,终于把这个难题给解决了,下面分享给大家 想要记录你网站的日志 1.首页,你要在 "站点编辑" 里面

最新详细的百度蜘蛛爬行检测代码诠释

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 最近在网上看了篇有关百度蜘蛛的爬行代码的解释,发现和现在的爬行有些改变,已至于开始时看我的小游戏站www.zz.la这个站的日志看不懂 是什么意思,经过多次研究终于明白其中,所以今重新整理解释如下: 做seo的朋友都知道,研究se爬行规律对于网站优化意义重大,特别是对百度蜘蛛Baiduspider的研究.本文解释一下百度蜘蛛爬行后返回代码 代

搜索引擎蜘蛛爬行规律探秘之二:外链是否有时效性

  <搜索引擎蜘蛛爬行规律探秘之一蜘蛛如何抓取链接>写完距今天已经20多天了,本来想一直写下去呢,但是写完第一篇之后,忽然没有了思路.今天跟朋友们说起来了外链的时效性,也就是说外链会不会失效. 本文不再讨论理论相关的内容了,而是会举一些例子来证明第一篇文章,同时也说一下链接的时效性吧. 首先,外链所在页面被删除了,外链是否有效? 答案外链所在页面删除了依然是有效.证据如下:   我在博客中国的博客(可能是因为流量超标在2006年被删除了)早就已经被删了,但是百度依然有快照.今天看了下首页的快照

如何通过网站日志来寻找蜘蛛爬行规律

对于各位站长来说,百度的收录是关心的重中之重.了解百度蜘蛛的爬行规律从而更好的改善收录情况也是必须要掌握的.很多网站目前使用的都是虚拟空间,都能够提供日志.日志是指在网站根目录下的logfiles文件夹里面日期.txt文本文件有很多介绍通过http查看返回命令的那种办法来查看蜘蛛,这里就不介绍了.现在更多的网站是没有提供可以通过软件来查看的日志格式.更多的是类似下面的日志格式,如下: 03:28:34 GET /goods.php 202.108.7.205 200 34696 390 第一 0

百度蜘蛛爬行IIS返回200 0 64终极合理解释

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 做网站之初就在A5论坛发现有人说关于蜘蛛爬行IIS返回200 0 64信息的相关文章,当时对这个根本不懂,所以没有去具体了解,直到08年底我才开对这个64有点想直到的欲望,所以也在网上找了不少这方面的文章来看,自己也一直分析其中的奥妙,截止11年6月22日凌晨4点左右,终于有了自己的结论,下面和大家分享: 首先分析一下网络上的一些说法: 1.

略析百度蜘蛛爬行

这几天一直在搞网站和产品推广,不懂的东西很多很多,但推广的那些事中,很多名词都非常的吸引我.首先是SEO,了解SEO的过程中,碰到了"外部链接",学习外部链接的时候又偶遇"蜘蛛爬行",一下子接收了那么多信息,感觉相当神奇,SEO的事也的确不简单. 而今天想跟大家谈谈"蜘蛛爬行"这个词.我相信我不是第一个提到它的,因为我是后来者,但我希望我的描述能让更多的人了解这个词,毕竟,很多专业的介绍都相当专业,正因为太专业,而让人觉得无法理解. 首先,介绍一

精简网站内容构造 为百度蜘蛛前进开辟道路

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 现在的很多网站内容建设都非常复杂,这种复杂不仅仅体现在网站的表面,在网站的代码中.内链等等方面都有体现,代码过于沉杂.导航不清晰.结构布局不合理.内链不完善等多方面的因素制约了百度蜘蛛在网站中的爬行,要知道百度蜘蛛对网站的爬行就像是过马路一样,如果有车阻挡,那么行人就不得不停下脚步.对网站来说,一名站长的首要任务就是要精简自己的站内构造,为百

搜索引擎蜘蛛爬行规律探秘之一蜘蛛如何抓取链接

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 搜索引擎蜘蛛,对于我们来说非常神秘,本文的配图使用蜘蛛侠的原因就在于此.当然我们也不是百度的也不是Google的,所以只能说探秘,而不是揭秘.本文内容比较简单,只是给不知道的朋友一个分享的途径,高手和牛人请绕行吧. 传统意义上,我们感觉搜索引擎蜘蛛(spider)爬行,应该类似于真正的蜘蛛在蜘蛛网上爬行.也就是比如百度蜘蛛找到一个链接,顺着这