码迷,mamicode.com
首页 >  
搜索关键字:spark executor worker    ( 10463个结果
Ubuntu 安装 spark
环境: Unbunt 12.04 Hadoop 2.2.x Sprak 0.9 Scala scala-2.9.0.final.tgz 步骤 1. 下载 scala 2. 解压scala,然后修改/etc/profile,添加如下 export SCALA_HOME=/home/software/scala-2.9.0.final export PATH=$P...
分类:其他好文   时间:2014-06-05 11:52:46    阅读次数:484
Redis的Keyspace notifications功能初探
本文出处:http://blog.csdn.net/chaijunkun/article/details/27361453,转载请注明。由于本人不定期会整理相关博文,会对相应内容作出完善。因此强烈建议在原始出处查看此文。 最近在做一套系统,其中要求若干个Worker服务器将心跳信息都上报给中央服务器。当一定时间中央服务器没有得到心跳信息时则认为该Worker失效了,发出告警。...
分类:其他好文   时间:2014-06-05 07:03:13    阅读次数:559
Spark开源学习模块
Spark开源的各模块组成结构...
分类:其他好文   时间:2014-06-03 04:07:29    阅读次数:263
Spark 1.0.0版本发布
前言 今天Spark终于跨出了里程碑的一步,1.0.0版本的发布标志着Spark已经进入1.0时代。1.0.0版本不仅加入了很多新特性,并且提供了更好的API支持。Spark SQL作为一个新的组件加入,支持在Spark上存储和操作结构化的数据。已有的标准库比如ML、Streaming和GraphX也得到了很大程度上的增强,对Spark和Python的接口也变得更稳定。以下是几个主要的改进点...
分类:其他好文   时间:2014-06-03 00:43:41    阅读次数:269
php-fpm的启动脚本
#master进程可以理解以下信号 #2)SIGINT立刻终止 #15)SIGTERM立刻终止 #3)SIGQUIT平滑终止 #10)SIGUSR1重新打开日志文件 #12)SIGUSR2平滑重载所有worker进程并重新载入配置和二进制程序。 [root@node2~]#psaux|grep"php-fpm:master" root35910.00.9472442472?Ss19:560:00php-fp..
分类:Web程序   时间:2014-06-02 14:18:58    阅读次数:304
scala 语法要点
前段时间看了下scala做了下笔记,为后续看spark做点准备,笔记内容见图片。...
分类:其他好文   时间:2014-06-01 15:35:40    阅读次数:182
Spark 1.0.0 横空出世 Spark on yarn 部署(hadoop 2.4)
就在昨天,北京时间5月30日20点多。Spark 1.0.0终于发布了:Spark 1.0.0 released 根据官网描述,Spark 1.0.0支持SQL编写:Spark SQL Programming Guide 个人觉得这个功能对Hive的市场的影响很小,但对Shark冲击很大,就像win7和winXP的关系,自相残杀嘛? 这么着急的发布1.x 版是商业行为还是货真价实的体现,让我们拭目以待吧~~~~ 本文是CSDN-撸大湿原创,如要转载请注明出处,谢谢:http://blog.csdn.net...
分类:其他好文   时间:2014-06-01 08:55:43    阅读次数:460
java android ExecutorService 线程池解析
ExecutorService:它也是一个接口,它扩展自Executor接口,Executor接口更像一个抽象的命令模式,仅有一个方法:execute(runnable);Executor接口简单,可是非常重要,重要在这样的设计的模式上。。Java5以后,通过Executor来启动线程比用Threa...
分类:移动开发   时间:2014-05-31 20:10:38    阅读次数:388
Apache Spark源码走读之12 -- Hive on Spark运行环境搭建
Hive是基于Hadoop的开源数据仓库工具,提供了类似于SQL的HiveQL语言,使得上层的数据分析人员不用知道太多MapReduce的知识就能对存储于Hdfs中的海量数据进行分析。由于这一特性而收到广泛的欢迎。Hive的整体框架中有一个重要的模块是执行模块,这一部分是用Hadoop中MapRed...
分类:其他好文   时间:2014-05-30 14:23:07    阅读次数:409
【spark系列3】spark开发简单指南
分布式数据集创建之textFile 文本文件的RDDs能够通过SparkContext的textFile方法创建,该方法接受文件的URI地址(或者机器上的文件本地路径,或者一个hdfs://, sdn://,kfs://,其他URI).这里是一个调用样例:scala> val distFile...
分类:其他好文   时间:2014-05-29 18:58:27    阅读次数:429
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!