码迷,mamicode.com
首页 > 其他好文 > 详细

nginx之自动日志切割--请注意这里不是脚本

时间:2018-04-17 12:42:29      阅读:683      评论:0      收藏:0      [点我收藏+]

标签:nginx   日志   切割   

之前安装 nginx 都是自己编译安装,然后打成 rpm 包。换了一个新公司之后,发现服务器的 nginx 都是 yum 安装的,这也没什么问题,业务量不大。

之后我发现在 nginx 的日志存储目录下,日志都被切割了,这很正常,但是经过我查看,在 crontab 下面并没有脚本文件进行 nginx 的日志切割,这

使我有点摸不到头脑,以我之前的观念都是脚本进行日志切割,然后放到定时任务中按天执行。


之后搜索了网上的文章,找到了切割 nginx的日志是一个服务执行的

服务名: logrotate ,安装方式: yum -y install logrotate

Ubuntu下安装方式: apt-get -y install logrotate

不知道是不是自己之前买的云服务器一般都是最基本的安装,可能没有安装到这个软件吧

如果是yum方式安装的nginx,系统默认会自动通过logrotate这个日志管理软件,按天进行分割。


查看 logrotate 在服务器中的文件位置

[root@123~]# rpm -ql logrotate
/etc/cron.daily/logrotate
/etc/logrotate.conf
/etc/logrotate.d
/usr/sbin/logrotate
/usr/share/doc/logrotate-3.7.8
/usr/share/doc/logrotate-3.7.8/CHANGES
/usr/share/doc/logrotate-3.7.8/COPYING
/usr/share/man/man5/logrotate.conf.5.gz
/usr/share/man/man8/logrotate.8.gz


logrotate的配置文件是/etc/logrotate.conf,而/etc/logrotate.d/是用于存储其他配置文件的目录。该目录里的所有文件都会被主动的读入 /etc/logrotate.conf中执行。

[root@123~]# ls /etc/logrotate.d/
nginx           ppp             syslog          wpa_supplicant  yum

看到配置文件下面有 nginx 的配置文件,内容如下:

[root@123~]# cat /etc/logrotate.d/nginx 
/var/log/nginx/*log {    #为nginx日志的存储目录,可以根据实际情况进行修改
    daily                #日志文件将按天轮循
    rotate 10            #一次存储10个日志文件。对于第11个日志文件,时间最久的那个日志文件将被删除
    missingok            #在日志轮循期间,任何错误将被忽略,例如“文件无法找到”之类的错误
    notifempty           #如果是空文件的话,不进行转储
    compress             #在轮循任务完成后,已轮循的归档将使用gzip进行压缩
    sharedscripts        #运行postrotate脚本,作用是在所有日志都轮转后统一执行一次脚本。如果没有配置这个,那么每个日志轮转后都会                          #执行一次脚本
    postrotate           #在所有其它指令完成后,postrotate和endscript里面指定的命令将被执行。在这种情况下,rsyslogd进程将立即再                          #次读取其配置并继续运行。注意:这两个关键字必须单独成行    
        /bin/kill -USR1 $(cat /var/run/nginx.pid 2>/dev/null) 2>/dev/null || :
    endscript
}

daily:日志文件将按天轮循
weekly:日志文件将按周轮循
monthly:日志文件将按月轮循
nocompress:不需要压缩时,用这个参数
copytruncate:用于还在打开中的日志文件,把当前日志备份并截断
nocopytruncate:备份日志文件但是不截断
create mode owner group:转储文件,使用指定的文件模式创建新的日志文件
nocreate:不建立新的日志文件
delaycompress 和 compress 一起使用时,转储的日志文件到下一次转储时才压缩
nodelaycompress 覆盖 delaycompress 选项,转储同时压缩。
size size 当日志文件到达指定的大小时才转储,Size 可以指定 bytes (缺省)以及KB (sizek)或者MB (sizem).
dateext:定义日志文件后缀是日期格式,也就是切割后文件是:xxx.log-20160402.gz这样的格式。如果该参数被注释掉,切割出来是按数字递增,即前面说的 xxx.log-1这种格式
delaycompress:总是与compress选项一起用,delaycompress选项指示logrotate不要将最近的归档压缩,压缩将在下一次轮循周期进行。这在你或任何软件仍然需要读取最新归档时很有用
create 640 nginx adm:以指定的权限和用书属性,创建全新的日志文件,同时logrotate也会重命名原始日志文件。
rotate count 指定日志文件删除之前转储的次数,0 指没有备份,5 指保留5 个备份


logrotate的切割时间默认是在 /etc/anacrontab 里面配置的:

START_HOURS_RANGE 就是配置的 logrotate 的执行时间

[root@123~]# cat /etc/anacrontab
# /etc/anacrontab: configuration file for anacron

# See anacron(8) and anacrontab(5) for details.

SHELL=/bin/sh
PATH=/sbin:/bin:/usr/sbin:/usr/bin
MAILTO=root
# the maximal random delay added to the base delay of the jobs
RANDOM_DELAY=45
# the jobs will be started during the following hours only
START_HOURS_RANGE=3-22

#period in days   delay in minutes   job-identifier   command
1	5	cron.daily		nice run-parts /etc/cron.daily
7	25	cron.weekly		nice run-parts /etc/cron.weekly
@monthly 45	cron.monthly		nice run-parts /etc/cron.monthly


一般使用脚本都是执行完了切割日志的命令之后是对 nginx 进行平滑重启,即 reload

下面提供一种新的方法:请在测试环境下测试完成之后在进行生产环境的更改,根据所在环境或者配置不同可能存在差异

#向nginx主进程发送USR1信号,重新打开日志文件,否则会继续往mv后的文件写数据的。原因在于:linux系统中,内核是根据文件描述符来找文件的。如果不这样操作导致日志切割失败。

kill -USR1 `ps axu | grep "nginx: master process" | grep -v grep | awk '{print $2}'`


如果你也和我一样遇到了,日志自动切割但是并没有发现定时任务中运行,请收藏此文章。



参考文章:https://www.cnblogs.com/ilanni/p/5365420.html

此文章更为详细:https://www.cnblogs.com/kevingrace/p/6307298.html



nginx之自动日志切割--请注意这里不是脚本

标签:nginx   日志   切割   

原文地址:http://blog.51cto.com/10309478/2104320

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!