Shell脚本分割Nginx日志,并定期清理[不重启nginx]

之前写过一篇关于 Shell脚本分割Nginx日志,并定期清理 的文章,链接:http://www.webyang.net/Html/web/article_255.html 但是需要reload nginx,有些人对重启nginx有心理阴影,所以又改了下:

  1. #!/bin/bash
  2. #nginx access log segmentation shell script
  3. #日志目录
  4. log_dir="/usr/local/nginx/logs/"
  5. cd $log_dir
  6. time=`date +%Y%m%d --date="-1 day"`
  7. #日志保存天数
  8. save_days=15
  9. #日志文件名所处'/'分割的位置,key('/'数+1)
  10. num=6;
  11.  
  12. #此处待优化(取得文件不带后缀的文件名)
  13. website=`ls $log_dir*.log | xargs -n 1 | cut -f 1 -d "." | cut -f $num -d "/"`
  14. #日志目录下所有的日志文件为文件夹,循环新建对应的时间文件
  15. for i in $website
  16. do
  17. #判断目录是否存在
  18. if[!-d $log_dir$i ];then
  19. mkdir "$i"
  20. fi
  21.  
  22. cp $log_dir$i.log $log_dir$i/$i-$time.log
  23. true>$log_dir$i.log
  24. done
  25.  
  26. find $log_dir -mtime +$save_days -exec rm -rf {} \;

设置crontab,每天凌晨跑一次。


展示: web1.log => web1/web1-20160322.log web1/web1-20160323.log web2.log => web2/web2-20160322.log web2/web2-20160323.log

其他还有 cronolog、logrotate等方式,可以参考:http://www.tuicool.com/articles/BF36rq

猜你喜欢

转载自ycdyx.iteye.com/blog/2295767