简单的Nginx切割网站日志的脚本

今天在网上查阅Nginx的相关的优化,看到一篇关于Nginx切割日志的文章
于是自己设置了下,开始没生效,后来结果是我设置的路径有问题。
正常的Nginx的日志文件路径是在/usr/local/nginx/logs/
因为用的Lnmp一键配置环境,所以日志的路径为/home/wwwlogs/
脚本如下:
#nginx日志切割脚本

#!/bin/bash

#设置日志文件存放目录

logs_path="/home/wwwlogs/"

#设置pid文件

pid_path="/usr/local/nginx/logs/nginx.pid"

#重命名日志文件

mv ${logs_path}www.xxxx.com.log
${logs_path}www.xxxx.com_$(date -d "yesterday" +"%Y%m%d").log

#向nginx主进程发信号重新打开日志
kill -USR1 `cat ${pid_path}`
 
将这个脚本保存为nginx_log.sh
然后给这个脚本加上写权限 chmod +x nginx_log.sh
然后用crontab -e 进行定时处理设置
01 00 * * * /root/nginx_log.sh
这个时间是你自己设定的,最好是在服务器不忙的时候进行切割

时间: 2024-11-01 21:31:42

简单的Nginx切割网站日志的脚本的相关文章

linux中Zabbix监控Memcached PHP-FPM Tomcat Nginx MySQL 网站日志

Zabbix作为监控软件非常的灵活,支持的数据类型非常丰富,比如数字(无正负),数字(浮点),日志,文字等.我们需要做的就是使用脚本来收集好数据,然后zabbix收集并画图,设置告警线.这里我们来学习使用Zabbix监控Memcached.PHP-FPM.Tomcat.Nginx.MySQL及网站日志.  Memcached监控   自定义键值   UserParameter=memcached.stat[*],/data/sh/memcached-status.sh "$1" mem

nginx实用的日志分析脚本

nginx日志分析脚本:  代码如下 复制代码 vi /mnt/logs/checklog.sh #!/bin/bash echo -e  "####################`date +%F`" >> /mnt/logs/400.txt echo -e  "####################`date +%F`" >> /mnt/logs/URL.txt echo -e  "####################`

nginx多server日志分割脚本分享_linux shell

1,配置多个server日志只要在$website变量增加并用空格分开就行.2,循环创建日志目录3,分割后用xz 压缩,当然没安装可以用gzip bzip2等等.4,注意我配置nginx日志文件名为 "access_{{站点网站}}.log" "error_{{站点网站}}.log" 复制代码 代码如下: # !/usr/bin/bashlog_dir="/usr/local/nginx/logs"back_log_dir="/disk

debian vps网站自动备份脚本分享

debian系统占用内存少,负载均衡,但是如果没有控制面板的话,管理起来就只能通过ssh中使用linux命令来管理.对于不熟悉linux命令的人来说确实比较麻烦.本篇将详细地分步骤介绍如何在debian系统下,使用linux命令实现定时自动备份网站数据.(本文备份方法适用于所有linux系统非必须debian) vps系统环境 系统说明 vps主机内存256MB,硬盘空间 20GB:系统为debian 6 32位:安装的是lnmp. 先给一份手动备份网站的列子: cd /home/ mkdir

linux中切割Nginx网站日志的例子

为了方便小编找到了一个nginx日志切割脚本,代码如下  代码如下 复制代码 #!/bin/bash #function:cut nginx log files for lnmp v0.5 and v0.6 #author: http://www.111cn.net #set the path to nginx log files log_files_path="/home/wwwlogs/" log_files_dir=${log_files_path}$(date -d "

linux系统centOS6.5使用goaccess工具分析nginx网站日志

网站的log日志分析是每个站长经常做的必备工作,通过网站日志文件我们可以分析各大搜索引擎对网站的爬取情况.最近我的网站做了一些调整,所以想看下日志文件,但因为网站服务器环境是LNMP,所以我就找了一款nginx日志文件分析工具--goaccess.本文我们将一起分享如何在linux(centos)中安装goaccess来分析网站日志. 准备工作: 系统:CentOS6.5(我在本地搭建的虚拟机) web服务:nginx 日志文件:access.log文件(从自己的环境中拷贝具体日志文件) 工具:

nginx自动切割访问日志

  Web 访问日志 (access_log) 记录了所有外部客户端对Web服务器的访问行为,包含了客户端IP,访问日期,访问的URL资源,服务器返回的HTTP状态码等重要信息. 一条典型的Web访问日志如下: 112.97.37.90 - - [14/Sep/2013:14:37:39 +0800] "GET / HTTP/1.1" 301 5 "-" "Mozilla/5.0 (Linux; U; Android 2.3.6; zh-cn; Lenov

删除WDCP网站日志(Nginx或者Apache日志文件)

今天,有网友咨询需要解决WDCP面板站点环境中需要删除网站和系统日志文件,因为网站运行一年多以来导致日志数据巨大占用了大量的硬盘空间,几乎硬盘撑满,所以必须要删除日志.无论是系统日志还是网站日志,有些时候还是有用的,我们可以查看网站的访问情况以及分析网站的爬虫频率等,但大部分时候我们是不会去查看的. 所以,随着时间的积累,日志会越来越大的占用VPS主机硬盘容量,我们需要定期的处理.在WDCP面板中,无论我们启动的是NGINX还是APACHE环境,系统里都有日志文件的,一个是错误日志,一个是访问日

捕捉蜘蛛 教你简单分析网站日志

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 想要成为一名合格的SEOER,那么研究搜索引擎蜘蛛的行为就成为了你每日的必修课,所以这次我就来给大家简单的介绍一下如何去分析网站日志.既然是要分析网站日志,首先要满足的先决条件自然就是要有网站日志了,在这里我就不介绍如何去生成和获取网站日志. 因为一般情况下如果你用的是空间那么基本上绝大多数空间都有网站日志,通过都存放在空间的log文件夹下面