随着公司应用需求的增加,需要不断的扩展,服务器数量也随之增加,当服务器数量不断增加,我们会发现一台puppetmaster压力大,解析缓慢,而且时不时出现"time out"之类的报错,那这时有什么优化的办法吗?其实不然,我们可以利用Nginx多端口实现负载均衡,这样在很大程度上优化了puppet的...
分类:
其他好文 时间:
2014-09-09 22:52:59
阅读次数:
244
成本的相对廉价,技术的成熟,功能的强大此方案将越来越受中小企业的青睐。
一.实验前准备
虚拟机版本:Vwareserver1.0.6
Linux版本:redhat5.5enterprise服务器版
Oralce版本:oracle10g10.2.1
Oracle集群软件:clusterware
Vwa...
分类:
数据库 时间:
2014-09-09 22:52:49
阅读次数:
327
*************************************************************
案例一:资源引起的问题(实验虚拟机)
*************************************************************
WAS集群练习遇到的小问题:
WAS集群练习,遇到的HTTP500错误,如下图所示:
htt...
分类:
其他好文 时间:
2014-09-09 21:32:39
阅读次数:
184
环境:操作系统Centos6.5X86_64(final)Nginx-Master:192.168.2.32Nginx-Backup:192.168.3.31VIP:192.168.2.33Web3:192.168.2.29Web4:192.168.2.301、分别在Nginx-Master和Nginx-Backup上安装nginx[root@Nginx-Master~]#rpm-ihttp://nginx.org/packages/centos/6/noarch/RPMS/ng..
分类:
Web程序 时间:
2014-09-09 18:36:30
阅读次数:
387
***********************************************声明************************************************
原创作品,出自 “深蓝的blog” 博客,欢迎转载,转载时请务必注明出处(http://blog.csdn.net/huangyanlong),否则作者保留追究版权法律责任。
表述有错误之处...
分类:
其他好文 时间:
2014-09-09 18:22:19
阅读次数:
189
原文地址:LVS+Keepalived+Squid+Nginx+MySQL主从 高性能集群架构配置 作者:gron
原文链接:http://www.linuxidc.com/Linux/2012-07/65547.htm
架构图
先进行优化
vi /etc/sysctl.conf
# 编辑sysctl.conf文件添加以下内容
net.ipv4.t...
分类:
数据库 时间:
2014-09-09 18:21:59
阅读次数:
452
***********************************************声明************************************************
原创作品,出自 “深蓝的blog” 博客,
欢迎转载,转载时请务必注明出处(http://blog.csdn.net/huangyanlong),否则作者保留追究版权法律责任。
表述有...
分类:
其他好文 时间:
2014-09-09 18:18:49
阅读次数:
211
apache2.2.14负载均衡不需要再用插件:配置文件 httpd.conf 加入配置:LoadModule proxy_module modules/mod_proxy.so LoadModule proxy_ajp_module modules/mod_proxy_ajp.so LoadMo....
分类:
其他好文 时间:
2014-09-09 17:39:49
阅读次数:
224
简单说,分布式是以缩短单个任务的执行时间来提升效率的,而集群则是通过提高单位时间内执行的任务数来提升效率。 例如: 如果一个任务由10个子任务组成,每个子任务单独执行需1小时,则在一台服务器上执...
分类:
其他好文 时间:
2014-09-09 16:24:29
阅读次数:
156
安装SparkMaster、Slave1、Slave2这三台机器上均需要安装Spark。首先在Master上安装Spark,具体步骤如下:第一步:把Master上的Spark解压:我们直接解压到当前目录下:此时,我们创建Spark的目录“/usr/local/spark”:把解压后的“spark-1...
分类:
其他好文 时间:
2014-09-09 15:36:49
阅读次数:
137