码迷,mamicode.com
首页 >  
搜索关键字:使用luci/ricci来创建管理 rhcs 集群    ( 20899个结果
Tomcat集群配置日志服务器
1整体架构2中央日志服务器配置2.1配置时钟同步2.1.1方式一中央日志服务器和Tomcat节点均向同一个时钟源(例如:pool.ntp.org)进行对时即可。说明:本小节下面命令均以root用户执行,并且在中央日志服务器和Tomcat节点均要执行。首先,需要关闭ntpd服务:servicentpdstopchkcon..
分类:其他好文   时间:2014-08-13 19:27:18    阅读次数:345
Linux下Hadoop 2.2.0 集群配置攻略
Hadoop 2.2.0 集群配置攻略  用户输入标识: chmod +x jdk-7u45-linux-x64.rpm  为黑色带底纹  系统输出标识: java version "1.7.0_51" 为绿色小字 2014年3月20-日 by lilihao Q 404536204 1. 安装sun jdk (1). 到Oracle的官方网站...
分类:系统相关   时间:2014-08-13 18:55:57    阅读次数:543
HBase备份之ExportSnapshot或CopyTable
文章《HBase备份之导入导出》介绍了使用HBase的自带工具Export和Import来实现在主集群和从集群之间拷贝表的目的。本篇介绍一种相比导入导出而言,更快速的一种备份办法。即ExportSnapshot。 1、ExportSnapshot 和Export类似,ExportSnapshot也是使用MapReduce方式来进行表的拷贝。不过和Export不同,ExportSnapsho...
分类:其他好文   时间:2014-08-13 18:55:47    阅读次数:287
HDFS Federation
HDFS联邦 本指南提供了一个HDFS联邦特性的综述,以及如何配置和管理联邦的集群。 背景 HDFS有两个主要的层次: 1.      Namespace a)        包含很多的目录,文件和block b)        他提供所有的文件系统操作像创建,删除,修改该和list文件和目录的命名空间 2.      Block Storage Service有两个部分 a)...
分类:其他好文   时间:2014-08-13 14:59:36    阅读次数:245
求推荐几本书
我要买几本Java的书 大家推荐推荐 现在主要的工作是  代码重构,提高性能,提高可拓展性,降低耦合,集群,分布式数据库 这些方面 数据库查询优化 hibernate优化 而我对这些都不太了解。。。。  求大神指点迷津...
分类:其他好文   时间:2014-08-13 13:09:46    阅读次数:172
在gfs2中关闭selinux
在构建iSCSI存储集群时,请勿在gfs2中使用selinux
分类:系统相关   时间:2014-08-13 12:30:56    阅读次数:243
Spark教程-构建Spark集群-运行Ubuntu系统(2)
安装Java1.打开终端,建立新目录“/usr/lib/java”,如下图所示:2.把下载的JDK文件移到刚刚创建的“/usr/lib/java”中,如下图所示3.解压JDK文件,如下图所示:解压完成的文件目录如下图所示:4.修改环境变量:进入如下图所示的配置文件中:按下“i”进入INSERT模式,...
分类:其他好文   时间:2014-08-13 12:30:46    阅读次数:211
mysql读写分离
Mysql高级集群-读写分离AmoebaAmoeba相当于一个SQL请求的路由器, 目的是为负载均衡、读写分离、高可用性提供机制,而不是完全实现它们。用户需要结合使用MySQL的 Replication等机制来实现副本同步等功能。amoeba对底层数据库连接管理和路由实现也采用了可插拨的机制,第三方可..
分类:数据库   时间:2014-08-13 03:48:55    阅读次数:297
Spark1.0.x入门指南
Spark1.0.x入门指南 1 节点说明 ? IP Role 192.168.1.111 ActiveNameNode 192.168.1.112 StandbyNameNode,Master,Worker 192.168.1.113 DataNode,Master,Worker 192.168.1.114 DataNode,Worker HDFS集群和Spark...
分类:其他好文   时间:2014-08-12 17:45:25    阅读次数:278
hadoop版本升级到2.4.1
测试环境介绍:Hadoop1.0.3升级到Hadoop2.4.1当前老环境(三副本环境):Namenode192.168.1.10Datanode192.168.1.11(SecondNamenode)Datanode192.168.1.12Datanode192.168.1.13由于Hadoop2.4.1支持HA集群,所有需要在增加一台Namenode机器新环境规划如下:Namenode192.168.1...
分类:其他好文   时间:2014-08-12 17:35:54    阅读次数:299
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!