站长如何进行网站日志分析

  一个合格的站长或者seoer必须要能看懂网站的服务器日志文件,这个日志记录了网站被搜索引擎爬取的痕迹,给站长提供了蜘蛛是否来访的有力佐证,站长朋友可以通过网站日志来分析搜索引擎蜘蛛的抓取情况,分析网站的是否存在收录异常问题。并且我们可以根据这个日志文件判断蜘蛛来访频率以及抓取规律,这将非常有利于我们做优化。另外,学习分析网站日志文件也是站长必须具备的能力,也是你从一个初级seo进阶到seo高手的必由之路。但是前提是要主机服务商开通日志统计功能,一般虚拟主机提供商都不会开通,你可以申请开通,或者自己到服务器管理后台开通这个日志统计功能,不过日志也会占用空间的,我们在看完日志文件后,可以隔段时间清理下日志文件。那么如何分析服务器日志文件呢?听我娓娓道来。

  搜索引擎抓取网站信息必会在服务器上留下信息,这个信息就在网站日志文件里。我们通过日志可以了解搜索引擎的访问情况,一般通过主机服务商开通日志功能,再通过FTP访问网站的根目录,在根目录下可以看到一个log或者weblog文件夹,这里面就是日志文件,我们把这个日志文件下载下来,用记事本(或浏览器)打开就可以看到网站日志的内容。那么到底这个日志里面隐藏了什么玄机呢?其实日志文件就像飞机上的黑匣子。我们可以通过这个日志了解很多信息,那么到底这个日志给我们传递了什么内容呢?

  如果想要知道网站日志文件包含了什么内容,首先必须知道各搜索引擎的蜘蛛名称,比如百度的蜘蛛程序名称是baiduspider,Google的机器人程序名称是Google-Googlebot等等,我们在日志的内容里搜索上述的的蜘蛛名就可以知道哪个搜索引擎已经爬取过网站了,这里就留下了他们的蛛丝马迹。再者,必须能看懂常见的http状态码,最常见的HTTP状态码有200(页面抓取成功)、304(上次抓取的和这次抓取的没变化),404(未找到页面,错误链接)500(服务器未响应,一般由服务器维护和出故障,网站打不开时出现的),这些状态码是我们站长朋友必须能看懂的,服务器状态码的值是我们和蜘蛛交流的信号。知道了这些基本信息以后我们就可以根据网站日志进行分析了,一般来说我们只看百度和谷歌蜘蛛的爬行和抓取情况,当然有特殊需要的也可以对其他几个蜘蛛的爬行情况进行分析。网站日志中出现大量的谷歌蜘蛛和百度蜘蛛,说明搜索引擎蜘蛛时常来光顾你的网站。

  说到分析日志文件,我们就不得不说分析日志文件的时机了,那么在什么情况下我们要去分析日志文件呢?首先,新网站刚建立的时候,这个时候也是站长朋友最急切的时候,我们一般都会焦急的等待搜索引擎收录网站内容,经常会做的事情就是去百度或者Google用命令site:下网站域名看看是否被收录,这个时候,其实我们没必要频繁的查询网站是否被收录,要想知道搜索引擎是否关顾我们的网站。我们就可以借助网站日志文件来查看,怎么看?看网站日志是否有搜索引擎的蜘蛛来网站抓取过,看返回的状态码是200还是其他,如果返回200说明抓取成功,如果返回404说明页面错误,或者页面不存在,就需要做301永久重定向或者302暂时重定向。一般抓取成功后被搜索引擎放出来的时间也会晚点,一般谷歌机器人放出来的比较快,最快可秒杀,但是百度反应就慢了,最快也要一周左右,不过11月份百度算法调整后,放出来的速度还是很快的。其次,当网站收录异常时我们要把正常收录的日志和异常的日志进行对比分析,找出问题所在,这样可以解决网站收录问题,也是对完整优化大有裨益的。第三,网站被搜索引擎K掉后,我们必须要观察网站日志文件来亡羊补牢,一般这种情况下,日志文件里只有很少的几个蜘蛛爬行了首页和robots,我们要找出被K的原因并改正,再提交给搜索引擎,接下来就可以通过观察日志来看蜘蛛是否正常来临,慢慢过一段时间,如果蜘蛛数量增加或者经常来临并且返回200状态吗,那么恭喜你,你的网站又活了,如果半年都没反应,那么建议放弃该域名重新再战了。

  很多站长朋友不懂得如何利用网站日志文件,遇到网站收录问题就去提问别人,而不好好自检,这是作为站长或者seoer的悲哀。而且网上的很多软文都提到要做好日志文件的分析,但是那只是软文而已,说不定写文章的作者都没有去看日志文件。说到底,还是希望站长朋友一定不要忽略了网站日志文件,合理的利用好网站日志文件是一个站长或seoer必备的技能。再者说,看懂网站日志文件并不需要你有多么高深的编码知识,其实只要看得懂html代码和几个返回的状态码就可以了,一定不能懒,或者抱着侥幸心理去对待你的网站,这种心理会导致你输得很惨。如果你是一个小站长,或者你是一个seoer,如果你以前没有意识到网站日志文件的重要性,那么从看到我写的这篇文章开始要好好对待你的网站日志了。本文由潮流购物www.xiaotao5.com原创,感谢站长网!

时间: 2024-08-31 17:17:10

站长如何进行网站日志分析的相关文章

新手站长如何借网站日志分析网站

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 不想做好站长的站长不是好站长;不会做外链的站长不是好站长;不会分析网站日志的站长不是好站长.随着SEO工作的细化和进行,提供SEO工作的建议就显得由为重要,网站日志就是这样一种建议载体. 笔者认为网站日志可反应出网站内部的所有问题,同时也认为作为现互联网时代的站长和SEO工作者,一定要学会网站日志数据收集和分析,如果网站健康是SEO工作的第一

网站日志分析普遍忽视 从日志透出的优化误区浅析

很多站长在运营网站的时候,往往都本着内容为王,外链为皇的原则,很少通过数据分析来指导自己的网站运营,网站日志的分析更是被广泛的忽视!其实网站日志本身就是一个很好的工具,日志的数据往往就是易经的卦爻词,通过这些数据往往能够找到成功运营网站的密码!之所以把网站日志比作卦爻词,就是因为日志上的数据对于站长们而言,往往就是天数,其折射出来的运营方法需要站长进行重新的编译才能够领悟出来,下面笔者就结合自己的分析经验,跟广大站长朋友们分享一下分析日志的技巧! 因为日志中的数据非常多,也非常杂,这是妨碍站长进

略懂网站日志分析,网站更安全

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 作为一个站长,皇冠网小编觉得略懂网站日志分析,网站会更安全.网站日志可以从ftp或服务器上面下载.下载后,我们可以通过相应的来源ip段进行分析,判别这ip段是否属于真实的蜘蛛. 下面皇冠网小编就对皇冠网hg-seo.com站点的日志进行分析. 第一. 小编从服务器上面下载了8-2网站日志 第二. 打开网站日志 通过上图,我们可以看出,这里面很

360收购不到一岁的基于SaaS模式在线网站日志分析平台“日志宝”

冯大辉的http://www.aliyun.com/zixun/aggregation/32631.html">小道消息今日透露,360已经完成了对"日志宝"的收购.日志宝创始人兼CEO董方向我们证实了该消息,并表示此次收购是基于业务和资源的整合,但未透露具体收购细节,只是说收购形式为"股票+现金". 日志宝是一个基于SaaS模式的在线网站日志分析平台,专注于提供网站Web访问日志分析服务,目前兼容NCSA和W3C日志格式,于2012年5月7日正式上

新手死角:不容忽视的网站日志分析

新手接触网站建设及推广,很容易进入一个定式,那就是"内容为王.外链为皇",把所有的时间都用在这2个上面,诚然这些是网站建设里面的重点,但有些东西还是不能忽视的,比如网站的一些基础架构及内链建设. 我们做好了原创内容,发了很多的外链,成功的吸引了搜索引擎蜘蛛进入了我们的网站,是不是就成功了呢?其实这只是完成了一个基础的阶段,当蜘蛛进来了,网站结构及正确的链接循环是非要重要的,如果出现了问题,会造成蜘蛛爬行的困难,久之则其必将远离我们的网站,直到不来为止. 那怎么能够发现蜘蛛在爬行网站的过

大数据平台网站日志分析系统

1:大数据平台网站日志分析系统,项目技术架构图: 2:大数据平台网站日志分析系统,流程图解析,整体流程如下: ETL即hive查询的sql; 但是,由于本案例的前提是处理海量数据,因而,流程中各环节所使用的技术则跟传统BI完全不同: 1) 数据采集:定制开发采集程序,或使用开源框架FLUME 2) 数据预处理:定制开发mapreduce程序运行于hadoop集群 3) 数据仓库技术:基于hadoop之上的Hive 4) 数据导出:基于hadoop的sqoop数据导入导出工具 5) 数据可视化:定

网站日志分析研究和分析网站存在的SEO问题

从做SEO开始老大就一直给我灌输:"要做科学的SEO,不管流量是涨还是降都要知道其中来源,而要了解这些同时判断网站流量的走向就必须要靠日志分析,而不是凭感觉的猜测是哪些因素使用流量发生变化".因此从一开始就从数据入手,对于网站的数据时实监控,从数据中判断网站的问题所在,然后做出相应的改变.这也是我们网站能一直稳定发展从流量的直线下降到回升直到大涨的一个原因所在. 最近网站的流量一直涨得非常的快,但是网站某一部份的抓取量却直线下降,不过索引量还在不断的提升流量也在不断的上涨.也就因为这样

浅析通过网站日志分析发现的几点看法

网站日志是一个很好的工具,它是我们分析网站的一个很好的帮手,通过分析网站日志,我们可以获得很多有价值的东西,而笔者通过分析个人的几个网站日志,从另外的角度去分析用户的行为,有了一些发现,而这些发现同大家通常认可的理论有一定的差距,笔者把个案写出来,希望得到大家的指点. 首先,笔者通过对网站日志进行了处理,从网站日志中排除图像网页,如jpg,gif,jpeg以及css.同时,还排除了那些自动网页采集程序"网络蜘蛛"产生的数据.这些数据并不是真实用户所发出的请求.笔者是针对这种情况来排除采

python实现apahce网站日志分析示例_python

维护脚本一例,写得有点乱,只是作为一个实例,演示如何快速利用工具快速达到目的:应用到:shell与python数据交互.数据抓取,编码转换 复制代码 代码如下: #coding:utf-8#!/usr/bin/python'''程序说明:apache access.log日志分析 分析访问网站IP 来源情况 日期:2014-01-06 17:01 author:gyh9711  程序说明:应用到:shell与python数据交互.数据抓取,编码转换'''import osimport jsoni