今天在巡检的时候,突然想到Zabbix能否监控Linux的防火墙服务呢? 显然是可以的,但是Zabbix 5下默认的模板“Template OS Linux by Zabbix agent”(“Template OS Windows by Zabbix agent”也不会监控Window的防火墙服务... ...
分类:
系统相关 时间:
2020-08-05 14:32:18
阅读次数:
90
创建目录/data/zabbix 新建docker-compose.yml文件,执行docker-compose up -d version: '3'services: zabbix_mysql: container_name: "zabbix_mysql" restart: "always" im ...
分类:
其他好文 时间:
2020-08-04 16:41:43
阅读次数:
76
这其实是去年就踩的一个坑了,之前又踩到一个类似的,于是想起在这里来分享一下.背景是这样的:我们的项目依赖于一个外部服务,该外部服务提供REST接口供我方调用,本地测试和测试环境都没有问题,但是一上生产环境就发现网络不通.(本地测试/测试环境,生产环境网络通过不通的域名访问该外部服务),且在生产环境通过curl等命令能够正常调用对方接口.最终排查原因出现在域名上,在生产环境中通过java的httpc
分类:
其他好文 时间:
2020-08-04 10:01:09
阅读次数:
65
问题现象: 解决办法: 安装依赖包: yum -y install libssh2-devel ...
分类:
其他好文 时间:
2020-08-03 14:53:32
阅读次数:
107
0、需求随着ELKStack在应用系统中的数据规模的急剧增长,每天千万级别数据量(存储大小:10000000*10k/1024/1024=95.37GB,假设单条数据10kB,实际远大于10KB)的累积成为日常需求。如何以相对简单的图形化效果展示数据的增量呢?本文给出思路和实现。1、问题分解1.1ES集群的数据量统计ES自带的命令行统计举例:curl‘localhost:9200/_cat
分类:
其他好文 时间:
2020-08-03 09:45:38
阅读次数:
81
node节点flannel网络问题导致该node上的pod与其他node节点网络不通的排查思路与解决方法一、问题发现在部署一个replicas:4的nginxdeployment之后在master节点通过curl+podIP+端口的形式测试时,发现两次访问不到,两次可以访问得到。二、问题排查1、通过pingpod的ip地址,发现node1节点的pod全都ping不通,问题很有可能就出在node1节
分类:
其他好文 时间:
2020-08-03 00:49:43
阅读次数:
307
yuminstall-yzsh#安装zshsh-c"$(curl-fsSLhttps://raw.githubusercontent.com/robbyrussell/oh-my-zsh/master/tools/install.sh)"#安装ohmyzshorsh-c"$(wgethttps://raw.githubusercontent.com/robbyrussell/oh-my-zsh/m
分类:
其他好文 时间:
2020-07-31 19:20:37
阅读次数:
76
新装系统curlhttps报错curl"https://www.baidu.com"curl:(60)SSLcertificateproblem:unabletogetlocalissuercertificateMoredetailshere:http://curl.haxx.se/docs/sslcerts.htmlcurlperformsSSLcertificateveri
分类:
Web程序 时间:
2020-07-31 18:04:38
阅读次数:
104
zabbix4.4自定义告警监控mysql主从复制zabbix自带的模板基本上已经能满足大部分的监控需求,对于一些特殊指标需要自己定义key,企业中也需要自定义模板,以mysql主从为例,自定义监控项一、安装zabbix基于LNMP的zabbix4.4源码编译安装二、配置mysql主从复制mysql5.7主从复制配置三、配置钉钉、邮箱告警zabbix4.4邮箱、钉钉报警四、编写mysql主从监控脚
分类:
数据库 时间:
2020-07-31 12:38:46
阅读次数:
94
线上Zabbix监控服务器DB采用的是MySQL一主一从。监控历史数据公司要求保留2年,历史数据相关的表做了表分区,过期数据自动删除。随着线上Zabbix监控设备数的不断增加,服务器磁盘空间增长的很厉害,3.7T的磁盘空间目前已经用了3.3T。尝试用pt-online工具压缩数据表,由于历史数据没有主键不能压缩。最后考虑把Zabbix历史相关的数据表由Innodb引擎转换成TokuDB引擎从而来减
分类:
数据库 时间:
2020-07-31 12:34:18
阅读次数:
103