码迷,mamicode.com
首页 >  
搜索关键字:spark streaming updatestatebykey    ( 7560个结果
Learn ZYNQ (9)
创建zybo cluster的spark集群(计算层面): 1.每个节点都是同样的filesystem,mac地址冲突,故: vi ./etc/profile export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/b...
分类:其他好文   时间:2014-07-05 17:29:31    阅读次数:549
使用gulp构建nodejs,你只需要记住5个函数
gulp是一个nodejs的streaming构建工具,所谓的streaming大致意思就是把构建流程想成一个个链接的管道(pipe)。 为什么要这样做呢? 要解释原因,就不得不提到unix。unix本身只提供了数量相对较少的命令,但是你可以命令的组合完成很强大的功能。命令和命令之间的衔接通常就用的是pipe。 类似,使用gulp,你仅仅只需要记住5个命令。这5个命令就是gulp提供给我们的一套streaming构建的架子,也就相当于提供了unix中的pipe功能。至于说pipe中每个命令的功能,则可以使...
分类:Web程序   时间:2014-07-03 18:29:11    阅读次数:277
Spark on Yarn部署
Spark on Yarn 集群部署...
分类:其他好文   时间:2014-07-03 18:26:02    阅读次数:264
Spark SQL 初探
早在Spark Submit 2013里就有介绍到Spark SQL,不过更多的是介绍Catalyst查询优化框架。经过一年的开发,在今年Spark Submit 2014上,Databricks宣布放弃Shark 的开发,而转投Spark SQL,理由是Shark继承了Hive太多,优化出现了瓶颈,如图:          今天把Spark最新的代码签了下来,测试了一下: 1、编译Spar...
分类:数据库   时间:2014-07-03 16:06:04    阅读次数:534
Spark源码系列(五)RDD是如何被分布式缓存?
这一章想讲一下Spark的缓存是如何实现的。这个persist方法是在RDD里面的,所以我们直接打开RDD这个类。 def persist(newLevel: StorageLevel): this.type = { // StorageLevel不能随意更改 if (storageL...
分类:其他好文   时间:2014-07-03 12:53:15    阅读次数:314
Spark部署及应用
在飞速发展的云计算大数据时代,Spark是继Hadoop之后,成为替代Hadoop的下一代云计算大数据核心技术,目前Spark已经构建了自己的整个大数据处理生态系统,如流处理、图技术、机器学习、NoSQL查询等方面都有自己的技术,并且是Apache顶级Project,可以预计的是2014年下半年.....
分类:其他好文   时间:2014-07-03 10:43:37    阅读次数:181
如何成为云计算大数据Spark高手
Spark是发源于美国加州大学伯克利分校AMPLab的集群计算平台,它立足于内存计算,性能超过Hadoop百倍,从多迭代批量处理出发,兼收并蓄数据仓库、流处理和图计算等多种计算范式,是罕见的全能选手。Spark采用一个统一的技术堆栈解决了云计算大数据的如流处理、图技术、机器学习、NoSQL查询...
分类:其他好文   时间:2014-07-03 10:19:26    阅读次数:208
nginx搭建支持http和rtmp协议的流媒体服务器之一
实验目的: 让Nginx支持flv和mp4格式文件,支持RTMP协议的直播和点播; 同时打开RTMP的HLS功能 ?资料: HTTP Live Streaming(缩写是 HLS)是一个由苹果公司提出的基于HTTP的流媒体网络传输协议。 HLS只请求基本的HTTP报文,与实时传输协议(RTP)不同,HLS可以穿过任何允许HTTP数据通过的防火墙或者代理服务器。 它也很容易使用内容分...
分类:其他好文   时间:2014-07-02 16:37:24    阅读次数:170
Spark-1.0.0 standalone分布式安装教程
Spark目前支持多种分布式部署方式:一、Standalone Deploy Mode;二Amazon EC2、;三、Apache Mesos;四、Hadoop YARN。第一种方式是单独部署,不需要有依赖的资源管理器,其它三种都需要将spark部署到对应的资源管理器上。 除了部署的多种方式之...
分类:其他好文   时间:2014-07-02 13:48:43    阅读次数:299
spark操作hbase
在Spark是一种计算框架,在Spark环境下,不仅支持操作单机文件,HDFS文件,同时也可以用Spark对Hbase操作。  企业中数据源会从HBase取出,这就涉及到了读取hbase数据,本文为了尽可能的让大家能尽快实践和操作Hbase,使用的是Spark Shell 来进行Hbase操作。 一、环境: Haoop2.2.0 Hbase版本0.96.2-hadoop2, r158109...
分类:其他好文   时间:2014-07-01 09:29:54    阅读次数:499
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!