Nginx访问日志、Nginx日志切割、静态文件不记录日志和过期时间
分类:
其他好文 时间:
2018-04-26 00:59:06
阅读次数:
169
12.10 Nginx访问日志
12.11 Nginx日志切割
12.12 静态文件不记录日志和过期时间
分类:
其他好文 时间:
2018-04-25 17:10:01
阅读次数:
127
[root@vm_web~]#cat/etc/logrotate.d/nginx/web/servers/tengine/logs/*.log{#日志所在的目录daily#日志文件按日轮询,还可以是weeklymonthlyyearlydateext#让旧日志文件以创建日期命名compress#在轮询任务完成后,已轮询的归档以gzip进行压缩create0644dmadmindmadmin#以指定
分类:
其他好文 时间:
2018-04-24 23:22:42
阅读次数:
312
Kafka是最初由Linkedin公司开发,是一个分布式、分区的、多副本的、多订阅者,基于zookeeper协调的分布式日志系统(也可以当做MQ系统),常见可以用于web/nginx日志、访问日志,消息服务等等,Linkedin于2010年贡献给了Apache基金会并成为顶级开源项目。 主要应用场景 ...
分类:
其他好文 时间:
2018-04-20 21:56:40
阅读次数:
163
一、为什么对日志进行分割。1.nginx日志默认情况下统统写入到一个文件中,文件会变的越来越大.2.单个的日志文件非常不方便查看分析。二、简析日志分割。不论是windows还是linux,对日志的分割都是一条思路。即:1.对现有日志文件进行重命名。2.生成新的日志文件。3.定制脚本,定时执行.三、日志分割实操。windows系统:1.logcut.bat#定义时间(年月日)for /f "
之前安装 nginx 都是自己编译安装,然后打成 rpm 包。换了一个新公司之后,发现服务器的 nginx 都是 yum 安装的,这也没什么问题,业务量不大。之后我发现在 nginx 的日志存储目录下,日志都被切割了,这很正常,但是经过我查看,在 crontab 下面并没有脚本文件进行 nginx 的日志切割,这使我有点摸不到头脑,以我之前的观念都是脚本进行日志切割,然后放到定时任务中按天执行。之
分类:
其他好文 时间:
2018-04-17 12:42:29
阅读次数:
683
参考:通过ngxtop实时监控webserver的访问情况一、部署准备:python2.7.3+、SQLite(否则会报错)编译安装SQLitecd?/usr/local/src?&&?wget????#下载安装包,最新安装包请参考tar?xf?sqlite-autoconf-3230100.
分类:
其他好文 时间:
2018-04-11 17:10:39
阅读次数:
209
Nginx分析:优点:工作在七层,正则表达式比HAproxy强大并发量可以达到几万次nginx还可以作为web服务器使用缺点:仅支持http、https、mail协议,应用面小监控检查仅通过端口,无法使用url检查HAproxy优点:可以通过url进行健康检查效率、负载均衡速度、高于Nginx、低于lvsHAproxy支持TCP,可以对mysql进行负载均衡调度算法丰富缺点:正则弱于Nginx日志
分类:
其他好文 时间:
2018-03-29 21:22:23
阅读次数:
160