随着处理器提升速度下降和数据量的不断增长,很多公司和组织(既有互联网公司也有传统的企业还有一些研究机构)都要求他们的应用能够Scale out到更大的分布式系统上(比如整个数据中心)。这些应用又分为以下几种类型:...
分类:
其他好文 时间:
2014-08-05 19:28:10
阅读次数:
245
WEB UI和Metrics子系统为外部观察监测Spark内部运行情况提供了必要的窗口,本文将简略的过一下其内部代码实现。
分类:
Web程序 时间:
2014-08-05 11:06:49
阅读次数:
311
Unbuntu系统是我们开发Hadoop时最常用的操作系统,下面带领大家一步步完成Vmware虚拟机下Unbuntu系统的安装创建Vmware中的虚拟系统:我们选择的是“Typical”的方式,点击“Next”进入下一步:选择稍后安装操作系统,点击“Next”进入下一步:选择安装Linux系统的Ub...
分类:
其他好文 时间:
2014-08-05 11:04:59
阅读次数:
309
Worker所起的作用有以下几个:
1. 接受Master的指令,启动或者杀掉Executor
2. 接受Master的指令,启动或者杀掉Driver
3. 报告Executor/Driver的状态到Master
4. 心跳到Master,心跳超时则Master认为Worker已经挂了不能工作了
5. 向GUI报告Worker的状态...
分类:
其他好文 时间:
2014-08-05 00:50:08
阅读次数:
364
本文主要介绍了Spark SQL里目前的CLI实现,代码之后肯定会有不少变动,所以我关注的是比较核心的逻辑。主要是对比了Hive CLI的实现方式,比较Spark SQL在哪块地方做了修改,哪些地方与Hive CLI是保持一致的。
基本上Spark SQL在CLI这块的实现很靠近Hive Service项目里的CLI模块,主要类继承体系、执行逻辑差不多都一样。Spark SQL修改的关键逻辑在CLIService内的SessionManager内的OperationManager里,将非元数据查询操作的q...
分类:
数据库 时间:
2014-08-05 00:44:58
阅读次数:
939
【互动问答分享】第6期决胜云计算大数据时代Spark亚太研究院公益大讲堂
分类:
其他好文 时间:
2014-08-04 17:08:57
阅读次数:
211
1 概述
Spark的on Yarn模式,其资源分配是交给Yarn的ResourceManager来进行管理的,但是目前的Spark版本,Application日志的查看,只能通过Yarn的yarn logs命令实现。
在部署和运行Spark Application的过程中,如果不注意一些小的细节,也许会导致一些问题的出现。
2 防火墙
部署好Spark...
分类:
其他好文 时间:
2014-08-04 14:23:27
阅读次数:
297
在Eclipse里利用Sbt构建开发Scala程序的一般步骤,并用实例讲解了整个流程。...
分类:
系统相关 时间:
2014-08-04 02:03:06
阅读次数:
476
1、创建项目sp
create new project->scala->NOT SBT->next->设置项目名称'sp'
2、导入相关jar包
File->Project Structure->Libraries->点绿色'+'->java->找到spark-assembly-1.0.0-hadoop2.2.0.jar->OK
按照类似的方法导入scala-compiler.jar,...
分类:
其他好文 时间:
2014-08-03 20:39:35
阅读次数:
262
Apache Crunch是FlumeJava的实现,为不太方便直接开发和使用的MapReduce程序,开发一套MR流水线,具备数据表示模型,提供基础原语和高级原语,根据底层执行引擎对MR Job的执行进行优化。从分布式计算角度看,Crunch提供的许多计算原语,可以在Spark、Hive、Pig等地方找到很多相似之处,而本身的数据读写,序列化处理,分组、排序、聚合的实现,类似MapReduce各阶段的拆分都可以在Hadoop里找到影子。
本文介绍Crunch在数据表示模型、操作原语、序列化处理方面的设计和...
分类:
其他好文 时间:
2014-08-03 18:02:06
阅读次数:
267