码迷,mamicode.com
首页 >  
搜索关键字:spark 安装、介绍    ( 7164个结果
Big Analytice with Cassandra
近期读的几篇关于Cassandra 大数据分析的几篇文章,记录下:Big Analytics with R, Cassandra, and Hive中文翻译:http://www.csdn.net/article/2012-05-20/2805705Cassandra联姻Spark 大数据分析将迎来...
分类:其他好文   时间:2014-12-15 17:00:04    阅读次数:192
Spark 中 map 与 flatMap 的区别
通过一个实验来看Spark 中 map 与 flatMap 的区别。...
分类:其他好文   时间:2014-12-14 21:22:16    阅读次数:282
大数据学习之路
http://www.chinahadoop.cn/page/developer什么是大数据开发师?围绕大数据系平台系统级的研发人员, 熟练Hadoop、Spark、Storm等主流大数据平台的核心框架。深入掌握如何编写MapReduce的作业及作业流的管理完成对数据的计算,并能够使用Hadoop提...
分类:其他好文   时间:2014-12-14 19:54:40    阅读次数:280
内存计算技术资料整理
先来看一下一张技术的全景图,其中涉及内存计算的技术标成红色。 1)事务处理:主要分为Cache(Memcached, Redis, GemFire)、RDBMS、NewSQL(以VoltDB为首的)三部分,缓存和NewSQL数据库是关注的重点。2)流式处理:Storm本身只是计算的框架,而Spark-Streaming才实现了内存计算式的流处理。3)分析阶段的对比:Ø  通用处理:MapReduc...
分类:其他好文   时间:2014-12-13 15:11:40    阅读次数:484
【Spark亚太研究院系列丛书】Spark实战高手之路-第3章Spark架构设计与编程模型第1节()
一、MapReduce已死,Spark称霸? 由于Hadoop的MapReduce高延迟的死穴,导致Hadoop无力处理很多对时间有要求的场景,人们对其批评越来越多,Hadoop无力改变现在而导致正在死亡。正如任何领域一样,死亡是一个过程,...
分类:其他好文   时间:2014-12-12 23:41:39    阅读次数:563
【Spark亚太研究院系列丛书】Spark实战高手之路-第3章Spark架构设计与编程模型第1节:为什么Spark是大数据必然的现在和未来?(1)
一、MapReduce已死,Spark称霸由于Hadoop的MapReduce高延迟的死穴,导致Hadoop无力处理很多对时间有要求的场景,人们对其批评越来越多,Hadoop无力改变现在而导致正在死亡。正如任何领域一样,死亡是一个过程,Hadoop正在示例这样的一个过程,Hadoop的死亡过程在20...
分类:其他好文   时间:2014-12-12 23:31:32    阅读次数:194
PHP5.4开启zend opcache缓存
PHP5.5整合了zend opcache,但是5.4以下的需要自己安装。介绍一下开启opcache方法,环境为wamp(php5.4.16)下载dll文件把php_opcache.dll放进php/ext目录配置php.inizend_extension = "c:/wamp/bin/php/ph...
分类:Web程序   时间:2014-12-12 14:48:40    阅读次数:454
【Spark亚太研究院系列丛书】Spark实战高手之路-第2章动手实战Scala第3小节(2)
3,动手实战Scala中的泛型 泛型泛型类和泛型方法,也就是我们实例化类或者调用方法的时候可以指定其类型,由于Scala的泛型和Java的泛型是一致的,这里不再赘述。 ? ? 4,动手实战Scala中的隐式转换、隐式参数、...
分类:其他好文   时间:2014-12-12 00:07:24    阅读次数:215
【Spark亚太研究院系列丛书】Spark实战高手之路-第2章动手实战Scala第3小节:动手实战Scala函数式编程(2)
3,动手实战Scala中的泛型 泛型泛型类和泛型方法,也就是我们实例化类或者调用方法的时候可以指定其类型,由于Scala的泛型和Java的泛型是一致的,这里不再赘述。4,动手实战Scala中的隐式转换、隐式参数、隐式类 隐式转换是很多人学习Scala的难点,这是Scala的精髓之一:下面看一下隐藏参...
分类:其他好文   时间:2014-12-11 23:55:35    阅读次数:230
hbase0.98.8源码编译(基于hadoop2.4.1)
上一篇介绍了hadoop2.4.1的编译过程,以及hive和spark的编译,这次简单介绍hbase的编译过程。hbase0.98.8默认使用hadoop2.2.0进行编译,笔者的hadoop环境是2.4.1版本,为避免包不一致引发的各种错误,需要对hbase进行重新编译。1、生成编译使用的pom文件修改$HBASE_HOME/pom.xm..
分类:其他好文   时间:2014-12-11 19:24:03    阅读次数:245
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!