1、下载并编译spark源码下载sparkhttp://spark.apache.org/downloads.html我下载的是1.2.0版本解压并编译,在编译前,可以根据自己机器的环境修改相应的pom.xml配置,我的环境是hadoop2.4.1修改个小版本号即可,编译包括了对hive、yarn、ganglia等的支持tarxzf~/source/spark-1..
分类:
其他好文 时间:
2014-12-29 18:36:06
阅读次数:
5133
转自:http://www.cnblogs.com/hseagle/p/3673132.html概要本篇主要阐述在TaskRunner中执行的task其业务逻辑是如何被调用到的,另外试图讲清楚运行着的task其输入的数据从哪获取,处理的结果返回到哪里,如何返回。准备spark已经安装完毕spark运...
分类:
Web程序 时间:
2014-12-18 14:52:05
阅读次数:
267
转自http://www.cnblogs.com/hseagle/p/3673123.html概要本文以wordCount为例,详细说明spark创建和运行job的过程,重点是在进程及线程的创建。实验环境搭建在进行后续操作前,确保下列条件已满足。下载spark binary 0.9.1安装scala...
分类:
Web程序 时间:
2014-12-18 14:49:26
阅读次数:
187
转自http://www.cnblogs.com/hseagle/p/3664933.html版本:未知楔子源码阅读是一件非常容易的事,也是一件非常难的事。容易的是代码就在那里,一打开就可以看到。难的是要通过代码明白作者当初为什么要这样设计,设计之初要解决的主要问题是什么。在对Spark的源码进行具...
分类:
Web程序 时间:
2014-12-18 13:17:29
阅读次数:
285
好久没更新博客了,之前学了一些R语言和机器学习的内容,做了一些笔记,之后也会放到博客上面来给大家共享。一个月前就打算更新Spark Sql的内容了,因为一些别的事情耽误了,今天就简单写点,Spark1.2马上就要出来了,不知道变动会不会很大,据说添加了很多的新功能呢,期待中...首先声明一下这个版本...
分类:
数据库 时间:
2014-12-07 01:20:23
阅读次数:
585
本文以Spark1.1.0版本为基础。 经过前一段时间的学习,基本上能够对Spark的工作流程有一个了解,但是具体的细节还是需要阅读源码,而且后续的科研过程中也肯定要修改源码的,所以最近开始Spark的源码的学习。首先以重要文件为基础分别分析,然后再整体的分析。(一)DAGScheduler....
分类:
其他好文 时间:
2014-12-01 14:16:48
阅读次数:
164
2014年最热门的IT技术大赛,由Spark亚太研究院联合国内领先的IT技术创新。面向云计算大数据从业者、Spark技术爱好者及数百所高校在读学生。无论是对Spark有浓厚兴趣的初学者、或者Spark应用高手,还是Spark源码级别大牛,都可以借助本次大赛,一展才华,就Spark技术与应用实践展开交流及切磋。...
分类:
其他好文 时间:
2014-10-14 19:40:09
阅读次数:
221
主要包含使用maven和sbt编译spark源码。还有配置idea等。...
分类:
其他好文 时间:
2014-09-07 01:07:54
阅读次数:
202
本文就拟牛顿法L-BFGS的由来做一个简要的回顾,然后就其在spark mllib中的实现进行源码走读。
分类:
其他好文 时间:
2014-08-25 20:55:34
阅读次数:
2698
1.下载spark源码,在spark源码目录下面有个make-distribution.sh文件,修改里面的参数,使编译后能支持hive,修改后执行该文件。(要预先安装好maven才能编译)。2.将编译好的spark源码部署到机器上,然后将hive/conf中的hive-site.xml拷贝到spa...
分类:
其他好文 时间:
2014-08-25 10:02:34
阅读次数:
271