搜索引擎蜘蛛为什么会不访问你的网站

  许多站长都有查看网站日志的习惯,这么做的主要目的就是为了分析蜘蛛爬行网站的情况,当然其中多数站长也只是简单的了解一下当天蜘蛛爬行的次数,这一点就足够发现问题了。有时候,我们会觉得自己的网站已经相当完美了,而正常优化过程中,蜘蛛却对此不感冒,让人很是着急。


 

  了解原理就很容易理解,搜索引擎借助蜘蛛在互联网这张大网中搜寻“猎物”,它唯一所能依据的线索就是链接了,找到新的链接后,根据复杂的算法最终对网站进行排名,储存在数据库中。很多网站可能会因为网站结构混乱失去蜘蛛到访的机会,然而蜘蛛不访问网站的因素有很多,下面我们一起总结一下:

  图片、flash等内容过多

  不得不说,搜索引擎发展到现在,已经比较的智能化了,去年google就推出了图片搜索功能,能够分析图片的色彩、像素比例而找到图片的出处。然而这项技术对于搜索引擎完全的识别图片中的信息还有不小的差距,而很多站长或是不懂得搜索引擎优化,或是考虑网站美观和内容丰富,往往会在页面中嵌入大量高清图片、flash,即使你的网站内容再好,蜘蛛也无法知道,只能绕道而行了。现在网络上有许多模拟蜘蛛抓取的工具,有类似情况的网站站长可以查询一下自己网站的信息,看看蜘蛛能够发现的信息和人眼看到的有多大差距。

  网站死链接过多

  我们可以想象,蜘蛛兴高采烈的来到你的网站,开始逐个链接的搜寻,以为发现了一堆好的内容,然而却是一堆打不开的链接等着她,一次、两次、三次,每次来都是这种情况,所以她生气了,就再也不会访问你的页面了。大部分的网站都存在死链接,只要我们能够及时的发现并清除掉就没有问题了,你可以利用强大的xenu,也可以查看你的网站日志,发现返回404状态码的一律清除。

  


  上图是用xenu扫描www.tcie.cn时的界面。

  外链与nofollow

  之所以蜘蛛能够成功的找到并访问你的站点,是因为其他网站上存在你网站的链接。想要蜘蛛更频繁的光临,在建立外链时就应该考虑外链网站权重,收录数越大、PR值越高,快照更新越快的网站权重就越高。另外有些无良站长在做友情链接时,会有意设置nofollow,这样的外链在蜘蛛眼里形同虚设,如果你网站的外链有这种现象,请及时撤除。

  


 

  网站代码复杂

  网站建设中,代码优化非常重要,冗长代码对网站无任何意义,而且还会影响打开速度和搜索引擎蜘蛛的判断。

  网站逻辑结构复杂

  正确的网站逻辑结构应该是扁平状的树形结构,也就是说,蜘蛛通过首页访问,能够达到任何一个栏目页,通过栏目页又能达到任何一个内容页,这个次数应该被限定在3次以内(较大的网站可以多几层)。如果网站层次太多,网站权重又不够高,蜘蛛就没有兴趣去一层层的搜寻了。

  网站地图错误

  网站地图是搜索引擎全面认识网站的好工具,对于蜘蛛而言,网站地图就像花名册,好的网站地图能让蜘蛛很有指向性的访问网站中的任何页面。所以,我们在制作网站地图时就需要谨慎行事了。网络上也有很多制作网站地图的工具,为了确保万无一失,大家也可以作为访客进行访问来加以验证。本文由网络营销公司http://www.tcie.cn提供,转载请注明出处。

时间: 2024-12-29 14:54:10

搜索引擎蜘蛛为什么会不访问你的网站的相关文章

王大君:搜索引擎蜘蛛什么时候来过你的网站

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 网站的排名.收录都要经常关注搜索引擎,大家经常会谈到蜘蛛抓取,那么怎么确定蜘蛛有没有来过你的网站呢? 通常网站的日志会告诉我们这些信息,这里以王大君网络营销博客为例.笔者使用的是虚拟空间,在笔者网站根目录下的log文件夹里面有一些ex日期.log文本文件.在这里王大君提醒大家,如果在你的log文件夹里没有文件,可能需要你到虚拟空间后台先下载日

PHP判断来访是搜索引擎蜘蛛还是普通用户的代码小结_php实例

1.推荐的一种方法:php判断搜索引擎蜘蛛爬虫还是人为访问代码,摘自Discuz x3.2 <?php function checkrobot($useragent=''){ static $kw_spiders = array('bot', 'crawl', 'spider' ,'slurp', 'sohu-search', 'lycos', 'robozilla'); static $kw_browsers = array('msie', 'netscape', 'opera', 'konq

PHP记录搜索引擎蜘蛛访问网站足迹的方法_php技巧

本文实例讲述了PHP记录搜索引擎蜘蛛访问网站足迹的方法.分享给大家供大家参考.具体分析如下: 搜索引擎的蜘蛛访问网站是通过远程抓取页面来进行的,我们不能使用JS代码来取得蜘蛛的Agent信息,但是我们可以通过image标签,这样我们就可以得到蜘蛛的agent资料了,通过对agent资料的分析,就可以确定蜘蛛的种类.性别等因素,我们在通过数据库或者文本来记录就可以进行统计了. 数据库结构: 以下为引用的内容: # # 表的结构 `naps_stats_bot` # CREATE TABLE `na

搜索引擎蜘蛛不访问网站的因素

摘要: 许多站长都有查看网站日志的习惯,这么做的主要目的就是为了分析蜘蛛爬行网站的情况,当然其中多数站长也只是简单的了解一下当天蜘蛛爬行的次数,这一 点就足够发现问题了.有 许多站长都有查看网站日志的习惯,这么做的主要目的就是为了分析蜘蛛爬行网站的情况,当然其中多数站长也只是简单的了解一下当天蜘蛛爬行的次数,这一 点就足够发现问题了.有时候,我们会觉得自己的网站已经相当完美了,而正常优化过程中,蜘蛛却对此不感冒,让人很是着急. 了解原理就很容易理解,搜索引擎借助蜘蛛在互联网这张大网中搜寻"猎物&

深入剖析搜索引擎蜘蛛工作对SEO的提升

搜索引擎蜘蛛是搜索引擎自身的一个程序,它的作用是对网站的网页进行访问,抓取网页的文字.图片等信息,建立一个数据库,反馈给搜索引擎,当用户搜索的时候,搜索引擎就会把收集到的信息过滤,通过复杂的排序算法将它认为对用户最有用的信息呈现出来.深入分析网站的SEO表现的时候,一般我们就会考虑搜索引擎蜘蛛的抓取质量,而其中能够帮我们优化网站可能会涉及到下面的几个蜘蛛抓取相关的概念: 1.爬取率:既定时间内网站被蜘蛛获取的页面数量. 2.爬取频率:搜索引擎多久对网站或单个网页发起一次新的爬行. 3.爬取深度:

从五个方面下手 让搜索引擎蜘蛛恋上你的站点

假如搜索引擎无法很好的游览到我们站点的内容,那么我们即使在站点投入多大的精力也都是竹篮打水一场空.为了避免该事情发生最好的解决之道就是我们能够很完整的去规划好我们整个站点的结构. 首先,我们在开始构建我们站点之前,我们都是需要先去好好的分析搜索引擎爬行的模式与规律,因为我们都知清楚搜索引擎是借助"蜘蛛"爬行我们站点源代码进行抓取链接,从而很好搜集我们的站点页面,从而入库到搜索引擎数据库,这就是搜索引擎简要的收录过程,同时搜索引擎会根据一定的算法,如页面的速度.社会信号等等进行权重的分配

搜索引擎蜘蛛爬行统计分析

一.搜索引擎蜘蛛爬行统计分析的必要性: 蜘蛛顺利爬行网页是网页被搜索引擎收录的前提条件,搜索引擎是否已爬行了网站,爬行了哪些页面以及返回哪些信息给蜘蛛,掌握了这些情况我们才能对网站进行有针对性的优化改良,因此查看蜘蛛爬行日志是一件非常重要但却非常痛苦的工作,尤其是SEOER及新站站长来说.比如从网上看到蜘蛛爬行某个页面后如果返回200 0 64 ,则表示此网页极有可能要被搜索引擎删除,HEAD 请求返回404也表示要删除网页,如果我们能根据日志及时发现此现象就能根据实际情况及时做出调整.又如,蜘

最新各大搜索引擎蜘蛛名称整理分享

各大seo 搜索引擎的蜘蛛会不断地访问抓取我们站点的内容,也会消耗一定的站点流量,有时候就需要屏蔽某些蜘蛛访问我们的站点.其实常用的搜索引擎就那么几个,只要在robots文件里把常用的几个搜索引擎蜘蛛放行就好,其它的统统通过通配符(*)禁止掉.阿修百度了一下搜索引擎蜘蛛名称,但得到的结果让阿修很是抑郁,几乎都是原文复制粘贴的文章,而且很多的资料都是过时的了,哪怕是最近发表的文章也是抄袭的旧资料根本就没修正和更新,并且关于蜘蛛名称.大小写众说不一,根本就找不到一个准确的资料.所以阿修决定根据自己空

搜索引擎蜘蛛spider相关知识汇总

中介交易 SEO诊断 淘宝客 云主机 技术大厅 什么是baiduspider? baiduspider是百度搜索引擎的一个自动程序.它的作用是访问互联网上的html网页,建立索引数据库,使用户能在百度搜索引擎中搜索到您网站的网页. baiduspider对一个网站服务器造成的访问压力如何? baiduspider会自动根据服务器的负载能力调节访问密度.在连续访问一段时间后,baiduspider会暂停一会,以防止增大服务器的访问压力.所以在一般情况下,baiduspider对您网站的服务器不会造