Linux基于LNMP的Nginx日志切割脚本
最近发现本站的访问日志数据文件大小快1G了,读写肯定是相当慢了,更别说下载分析一下了,于是就着手解决基于LNMP的Nginx日志切割脚本问题。
一、脚本源码
话不多说,先上切割脚本,将以下内容保存为 cut_nginx_logs.sh,并上传到 /root/ 目录。
#!/bin/bash #function:cut nginx log files for lnmp v0.5 and v0.6 #author: http://lnmp.org #set the path to nginx log files log_files_path="/web/wwwlogs/" log_files_dir=${log_files_path}$(date -d "yesterday" +"%Y")/$(date -d "yesterday" +"%m") #set nginx log files you want to cut 日志文件名为yangjunwei.log,则填写yangjunwei,每个日志名用空格分隔 log_files_name=(access yangjunwei) #set the path to nginx. nginx_sbin="/usr/local/nginx/sbin/nginx" #Set how long you want to save save_days=30 ############################################ #Please do not modify the following script # ############################################ mkdir -p $log_files_dir log_files_num=${#log_files_name[@]} #cut nginx log files for((i=0;i<$log_files_num;i++));do mv ${log_files_path}${log_files_name[i]}.log ${log_files_dir}/${log_files_name[i]}_$(date -d "yesterday" +"%Y%m%d").log done #delete 30 days ago nginx log files find $log_files_path -mtime +$save_days -exec rm -rf {} \; $nginx_sbin -s reload
二、脚本注解
脚本主要参数:
#设置nginx日志文件目录路径 log_files_path="/web/wwwlogs/" #日志文件将会存放到/web/wwwlogs/年/月/日志文件名_年月日.log log_files_dir=${log_files_path}$(date -d "yesterday" +"%Y")/$(date -d "yesterday" +"%m") #设置要切割的日志的名字,如果日志目录下面的日志文件名为yangjunwei.log,则填写yangjunwei,每个日志名用空格分隔 log_files_name=(access yangjunwei) #设置nginx文件的位置 nginx_sbin="/usr/local/nginx/sbin/nginx" #设置日志保存的时间,天 save_days=30
如果是非LNMP一键安装包用户可以通过修改上述参数适应你的nginx环境。
三、脚本定时执行
将nginx日志切割脚本下载到/root/下面。再添加自动执行,执行:
$ crontab -e
输入:
$ 00 00 * * * /bin/bash /root/cut_nginx_logs.sh # 每天0点整开始切割脚本。
最后,可用
$ /bin/bash cut_nginx_logs.sh # 测试一下是否成功运行!
注:使用 /bin/bash 命令执行文件,因此文件有只读权限即可。
如 crontab 未安装,可执行:
$ yum install vixie-cron crontab