怎样查看网站日志文件?

  什么是网站日志?

  所谓的网站日志,就是网站所在服什么是网站日志?

  所谓的网站日志,就是网站所在服务器接受用户的各种请求的时候进行的处理状况的记录,无论是正常处理或者是出了各种错误,都会在网站日志中记录下来,其文件结尾以.log为扩展名。

  怎样查看网站日志?

  220.181.108.180 – - [25/May/2011:20:21:56 +0800] “GET / HTTP/1.1″ 200 12447 “-” “Mozilla/5.0 (compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html)”

  下面我来详细的叙述一下这段网站日志都可以告诉我们哪些有用的信息。

  220.181.108.180——这是用户的IP地址,相信大家都能轻易看懂。知道了用户的IP,你甚至可以通过查询来得知用户是来自哪个国家、哪个省份、哪个城市的。查询得知,这个IP来自国内北京地区。不同的网站其用户群会有比较明显的区别,比如我的博客肯定大多数访问者是来自沈阳的,而有的网站其用户没有什么明显的地域区别。用户IP配合下面的关键词等信息可以让你更加有效的分析网站的用户体验做得够不够好。

  [25/May/2011:20:21:56 +0800]——这里讲的是发生该处理请求的具体时间。这里的时间是2011年5月25日20点21分56秒,后面的+0800则指的是时区,即所在地方相对应英国伦敦格林尼治时间,+0800代表的是东八区的时间。

  GET——这是服务器的处理动作,一共只有两种:GET和POST。在网站日志中绝大部分都是GET,只有在进行CGI处理的时候才会出现POST,否则绝大多数时间服务器的响应都是GET,也就是用户从服务器上获取了页面或者别的文件。注意了,GET后面还有一个“/”,这里代表的是用户访问的页面,只有一个斜杠自然代表访问的是网站首页。

  HTTP/1.1——这个代表用户访问该页面的时候,是通过HTTP1.1协议进行传输的,也就是超文本传输1.1版本协议。这个我们不必理会,因为网站日志中除了你可能用FTP之外,普通用户基本都是通过HTTP协议来进行访问的(个别提供FTP下载的网站除外)。

  200 12447——代表的是用户访问页面的时候返回的状态码。通常状态码有以下几种:200,301,302,304,404,500等。200代表用户成功的获取到了所请求的文件,如果是搜索引擎,则证明蜘蛛在这次爬行中顺利的发现了一些新的内容。而301则代表用户所访问的某个页面url已经做了301重定向(永久性)处理,302则是暂时性重定向,如果你的网站日志中有过多的302代码,那么你需要注意了,是不是把301做错了做成了302?赶紧修改,搜索引擎不喜欢302重定向。404则代表所访问的页面已经不存在了,或者说访问的url根本就是个错误的。500则是服务器的错误。状态码是比较多的,想要详细了解的朋友请自己去搜一下吧,网上相关的信息还是非常多的。后面的12447代表的是被访问页面的体积,我的博客由于采用了gzip压缩,所以首页只有不到12.5KB。 Mozilla/5.0 (compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html)——这一行则详细的说明了用户的一些状况。当然,我所选择的这一段网站日志实际上是百度蜘蛛作为用户被网站日志记录了下来。这一整行就代表了用户是百度的蜘蛛,注意一下,从今年的5月10号开始百度蜘蛛的字段发现了变化,变成了这行代码。原来的是Baiduspider+(+http://www.baidu.com/search/spider.htm)。实际上从这一部分日志中可以看到用户采用的是什么浏览器,通过哪个搜索引擎的哪个关键词来到了该页面等等。

  以上就是简单的对一段网站日志的分析,当然实际上大多数时候我们根本不需要这样人工查看网站日志,有大把的SEO工具可以供我们使用分析网站日志。不过当你的网站确实出现了一些问题的时候,那么一般的日志分析软件就无法帮助你了,你必须亲自查看日志,这个时候这篇文章说不定就派上用场了,是不?

时间: 2024-11-09 00:46:28

怎样查看网站日志文件?的相关文章

网站日志文件分析分析方法精华版

通过分析网站日志Log文件我们可以看到用户和搜索引擎蜘蛛访问网站的行为数据,这些数据能让我们分析出用户和蜘蛛对网站的偏好以及网站的健康情况.在网站日志分析中,我们主要需要分析的是蜘蛛行为. 在蜘蛛爬取及收录过程中,搜索引擎会给特定权重网站分配相应的资源量.一个搜索引擎友好型的网站应该充分利用这些资源,让蜘蛛可以迅速.准确.全面的爬取有价值.用户喜欢的内容,而不浪费资源在无用的.访问异常的内容上. 但由于网站日志中数据量过大,所以我们一般需要借助网站日志分析工具来查看.常用的日志分析工具有:光年日

查看网站日志中搜索引擎蜘蛛的来访记录的方法

摘要: 对于很多做网站的新手来说,都没有经过系统地授课进行网络技术和建站知识学习,做网站都是靠自学,遇到难题在论坛发帖提问,更不会懂得网站优化,对于较基本操作通过网站日志 对于很多做网站的新手来说,都没有经过系统地授课进行网络技术和建站知识学习,做网站都是靠自学,遇到难题在论坛发帖提问,更不会懂得网站优化,对于较基本操作--通过网站日志看蜘蛛来访情况都不知到哪里看,怎么看.前两天看到很多人发帖提问,回复者的答案却比较精炼,不具体,提问者还是云里雾里的,现我就以自己的网站来系统地操作一次,提交给大

网站日志文件分析方法精华版

经太过析站点日记Log文件我们可以看到用户和搜索引擎蜘蛛拜访网站的举止数据,这些数据能让我们阐发出用户与蜘蛛对站点的喜好以及站点的健康环境.在站点日记阐发中,咱们首要需要赏析的是蜘蛛举止. 在蜘蛛爬取及收录过程中,搜寻引擎会给特定权重站点分拨响应的资源量.一个搜寻引擎朋友型的站点理应虚浮操作这些资源,让蜘蛛可以急迅.精确.周全的爬取有价格.用户爱情的形式,而不撙节资源在无用的.走访异常的内容上. 但由于web日志中数据量过大, 所以咱们一般需要凭借web日记赏析工具来检查.经常使用的日记阐发工具

SEO新手要学会查看和分析网站日志

作为SEO新手一定要学会查看和分析网站日志,因为从观看这些网站日志代码当中,可以分析出一个网站大体的状况. 网站日志中常见的代码: 网站日志记录了网民访问网站后返回的一些代码,其中常见的是200.304.404,返回代码200说明这个网站访问是正常的,返回代码404说明有一些错误的链接,已经访问不到链接的这个网页,这个情况大多数是站长删除了这个网页,如果返回是304说明这个网站已经很久没有更新了. 网站日志中常见的蜘蛛: 在网站日志中你可以看到一些搜索引擎的蜘蛛,常见的有:baiduspider

lnav:Linux下一个基于控制台的高级日志文件查看器

服务器日志是一个由服务器创建并经常更新.用于抓取特定服务和应用的所有活动信息的日志文件.当你的应用或者服务出现问题时这个文件就会非常有用.从日志文件中你可以获取所有关于该问题的信息,例如基于警告或者错误信息它什么时候开始表现不正常. LNAV(Log file Navigator)是 Linux 下一个基于控制台的高级日志文件查看器.它和其它文件查看器,例如 cat.more.tail 等,完成相同的任务,但有很多普通文件查看器没有的增强功能(尤其是它自带多种颜色和易于阅读的格式). 它能在解压

lnav:Linux 下一个基于控制台的高级日志文件查看器

服务器日志是一个由服务器创建并经常更新.用于抓取特定服务和应用的所有活动信息的日志文件.当你的应用或者服务出现问题时这个文件就会非常有用.从日志文件中你可以获取所有关于该问题的信息,例如基于警告或者错误信息它什么时候开始表现不正常. LNAV(Log file Navigator)是 Linux 下一个基于控制台的高级日志文件查看器.它和其它文件查看器,例如 cat.more.tail 等,完成相同的任务,但有很多普通文件查看器没有的增强功能(尤其是它自带多种颜色和易于阅读的格式). 它能在解压

网站日志中的ip如何辨别搜索引擎类型及蜘蛛真假

如今好多草根站长都还不知道,如何查看网站日志,网站日志里面怎样辨别搜索引擎类型.ip段的各个含义及真假蜘蛛的判断,今天巧说seo论坛就为大家介绍下怎样分析网站日志里面的ip.首先要先把网站日志下载下来,下载方法: 1. ftp空间log文件夹 2. 登入你站点的服务器,通常网站日志位置C:WINDOWSsystem32LogFiles   上图便是我从服务器上面下载下来的8月2日的网站日志,通过上图我们可以看出里面都是一些英文字母的代码,对于很多seo优化站长来说看上去都很头痛,但对于一些优化皇

网站日志如何分析之实例解说

因为在端午节前.笔者做过一个实验,并且写了一篇实验报告<探究搜索引擎不收录网站内容与外链因素有无关系的实验>,具体实验内容,在这里就不再多说.因为笔者针对leyuanbaby.com做的这个实验结论,并没有达到想要的效果,所以我还没有死心,就通过网站日志来观察到底蜘蛛有没有爬行我未收录的链接.这个过程中,获得了一些关于分析网站日志心得,在这里分享给大家. 通过网站日志我们可以清晰的看到用户和搜索引擎蜘蛛访问网站的行为,并形成一个数据,这些数据可以让我们知道搜索引擎对于网站的态度,以及网站的健康

linux系统centOS6.5使用goaccess工具分析nginx网站日志

网站的log日志分析是每个站长经常做的必备工作,通过网站日志文件我们可以分析各大搜索引擎对网站的爬取情况.最近我的网站做了一些调整,所以想看下日志文件,但因为网站服务器环境是LNMP,所以我就找了一款nginx日志文件分析工具--goaccess.本文我们将一起分享如何在linux(centos)中安装goaccess来分析网站日志. 准备工作: 系统:CentOS6.5(我在本地搭建的虚拟机) web服务:nginx 日志文件:access.log文件(从自己的环境中拷贝具体日志文件) 工具: