Linux基于LNMP的Nginx日志切割脚本

最近发现本站的访问日志数据文件大小快1G了,读写肯定是相当慢了,更别说下载分析一下了,于是就着手解决基于LNMP的Nginx日志切割脚本问题。

一、脚本源码

话不多说,先上切割脚本,将以下内容保存为 cut_nginx_logs.sh,并上传到 /root/ 目录。

#!/bin/bash
#function:cut nginx log files for lnmp v0.5 and v0.6
#author: http://lnmp.org

#set the path to nginx log files
log_files_path="/web/wwwlogs/"
log_files_dir=${log_files_path}$(date -d "yesterday" +"%Y")/$(date -d "yesterday" +"%m")
#set nginx log files you want to cut  日志文件名为yangjunwei.log,则填写yangjunwei,每个日志名用空格分隔
log_files_name=(access yangjunwei)
#set the path to nginx.
nginx_sbin="/usr/local/nginx/sbin/nginx"
#Set how long you want to save
save_days=30

############################################
#Please do not modify the following script #
############################################
mkdir -p $log_files_dir

log_files_num=${#log_files_name[@]}

#cut nginx log files
for((i=0;i<$log_files_num;i++));do
mv ${log_files_path}${log_files_name[i]}.log ${log_files_dir}/${log_files_name[i]}_$(date -d "yesterday" +"%Y%m%d").log
done

#delete 30 days ago nginx log files
find $log_files_path -mtime +$save_days -exec rm -rf {} \;

$nginx_sbin -s reload

二、脚本注解

脚本主要参数:

#设置nginx日志文件目录路径
log_files_path="/web/wwwlogs/"
#日志文件将会存放到/web/wwwlogs/年/月/日志文件名_年月日.log
log_files_dir=${log_files_path}$(date -d "yesterday" +"%Y")/$(date -d "yesterday" +"%m")
#设置要切割的日志的名字,如果日志目录下面的日志文件名为yangjunwei.log,则填写yangjunwei,每个日志名用空格分隔
log_files_name=(access yangjunwei)
#设置nginx文件的位置
nginx_sbin="/usr/local/nginx/sbin/nginx"
#设置日志保存的时间,天
save_days=30

如果是非LNMP一键安装包用户可以通过修改上述参数适应你的nginx环境。

三、脚本定时执行

将nginx日志切割脚本下载到/root/下面。再添加自动执行,执行:

$ crontab -e

输入:

$ 00 00 * * * /bin/bash /root/cut_nginx_logs.sh
# 每天0点整开始切割脚本。

最后,可用

$ /bin/bash cut_nginx_logs.sh
# 测试一下是否成功运行!

注:使用 /bin/bash 命令执行文件,因此文件有只读权限即可。

如 crontab 未安装,可执行:

$ yum install vixie-cron crontab