Mysql内建的复制功能是构建大型,高性能应用程序的基础。将Mysql的数据分布到多个系统上去,这种分布的机制,是通过将Mysql的某一台主机的数据复制到其它主机(slaves)上,并重新执行一遍来实现的。复制过程中一个服务器充当主服务器,而一个或多个其它服务器充当从服务器。主服务器将更新写入二进制 ...
分类:
数据库 时间:
2017-09-24 16:20:26
阅读次数:
254
1.启动不起来 查看JobManager日志: 解决方案:/etc/hosts中配置的主机名都是小写,但是在Flink配置文件(flink-config.yaml、masters、slaves)中配置的都是大写的hostname,将flink配置文件中的hostname都改为小写或者IP地址 2.运 ...
分类:
其他好文 时间:
2017-09-16 23:23:02
阅读次数:
1825
# redis 配置文件示例 # 当你需要为某个配置项指定内存大小的时候,必须要带上单位, # 通常的格式就是 1k 5gb 4m 等酱紫: # # 1k => 1000 bytes # 1kb => 1024 bytes # 1m => 1000000 bytes # 1mb => 1024*10 ...
分类:
其他好文 时间:
2017-09-10 20:50:11
阅读次数:
149
一, 创建用户: 命令:CREATE USER 'username'@'host' IDENTIFIED BY 'password'; 说明:username - 你将创建的用户名, host - 指定该用户在哪个主机上可以登陆,如果是本地用户可用localhost, 如果想让该用户可以从任意远程主 ...
分类:
数据库 时间:
2017-09-06 00:37:59
阅读次数:
220
redis配置文件详解及实现主从同步切换redis复制Redis复制很简单易用,它通过配置允许slaveRedisServers或者MasterServers的复制品。接下来有几个关于redis复制的非常重要特性:一个Master可以有多个Slaves。Slaves能过接口其他slave的链接,除了可以接受同一个master下面slaves..
分类:
其他好文 时间:
2017-09-04 15:14:19
阅读次数:
324
前期部署 1.JDK安装,配置PATH 2.下载spark-1.6.1-bin-hadoop2.6.tgz,并上传到服务器解压 3.在 /usr 下创建软链接到目标文件夹 4.修改配置文件,目标目录 /usr/spark/conf/ 再配置slaves ...
分类:
系统相关 时间:
2017-08-29 14:31:40
阅读次数:
261
在Slave 服务器上(192.168.23.11) (1)定义区域 定义一个从区域 zone "ZONE_NAME" IN { type slave ; file "slaves/ZONE_NAME.zone"; masters { MASTER_IP } }; 例如:在/etc/named.rf ...
分类:
其他好文 时间:
2017-08-26 20:47:00
阅读次数:
247
前期准备: 1.默认已经搭建好了hadoop环境(我的hadoop版本是2.5.0) 2.这里我用的Hbase是0.98.6,spark是1.3.0 一、搭建Hbase 1、上传Hbase安装包,将/opt/software下的hbase安装包解压到/opt/app目录下 2、进入hbase目录下, ...
分类:
其他好文 时间:
2017-08-26 18:29:41
阅读次数:
151
(一)HA下配置spark 1,spark版本型号:spark-2.1.0-bin-hadoop2.7 2,解压,修改配置环境变量 3,修改spark-env.sh文件 4,修改slaves文件 5,分发及启动 各个节点jps情况: [root@ha1 spark-2.1.0]# jps 2464 ...
分类:
其他好文 时间:
2017-08-06 20:45:14
阅读次数:
209
一、配置文件 1.core-site.xml 2、hdfs-site.xml 3、yarn-site.xml 4、slaves 二、建立本地连接 三、创建MapReduceProject 1、File -- new - Other --MapReduceProject 2、建立测试文件 3、run ...