码迷,mamicode.com
首页 >  
搜索关键字:spark streaming updatestatebykey    ( 7560个结果
Apache Spark源码走读之19 -- standalone cluster模式下资源的申请与释放
本文主要讲述在standalone cluster部署模式下,应用(Driver Application)所需要的资源是如何获得,在应用退出时又是如何释放的。
分类:其他好文   时间:2014-07-22 22:48:15    阅读次数:243
Darwin Streaming Server用vs2005编译运行过程
原创。一:编译Darwin6.0.3版本是最新版本,也提供了.dsw文件。但是使用vs2005和vc6是编译不过的。所以,采用Darwin5.5.5版本。使用vc6打开WinNTSupport文件夹下的.dsw工程,直接batch build,可一步生成。使用vc编译速度快,但是调试和看代码不如20...
分类:Windows程序   时间:2014-07-22 22:43:14    阅读次数:314
ONVIF流媒体播放流程
rtsp://192.168.1.120:554/snl/live/1/3OPTIONS rtsp://192.168.1.120:554/snl/live/1/3 RTSP/1.0 CSeq: 2 User-Agent: LibVLC/2.1.3 (LIVE555 Streaming Media ...
分类:其他好文   时间:2014-07-22 22:35:33    阅读次数:459
Spark SQL Catalyst源码分析之Analyzer
本文详细介绍了Spark SQL的Catalyst里,Analyzer是如何Sql parser的解析的UnResolved逻辑计划,进行resolve的。...
分类:数据库   时间:2014-07-22 14:49:52    阅读次数:396
Spark源码系列(八)Spark Streaming实例分析
这一章要讲Spark Streaming,讲之前首先回顾下它的用法,具体用法请参照《Spark Streaming编程指南》。Example代码分析val ssc = new StreamingContext(sparkConf, Seconds(1));// 获得一个DStream负责连接 监听端...
分类:其他好文   时间:2014-07-22 08:01:34    阅读次数:351
Spark快速上手之交互式分析
1.1  Spark交互式分析 运行Spark脚本前,启动Hadoop的HDFS和YARN。Spark的shell提供 了简单方式去识别API,同样也有一个强大的工具去交互式地分析数据。两种语言有这样的交换能力,分别是Scala 和 Python。下面将演示如何使用Python来分析数据文件。 进入Spark安装主目录,输入下面的命令,python命令行模式将会启动。 ./bin/pysp...
分类:其他好文   时间:2014-07-22 00:29:38    阅读次数:239
Spark学习体系
1:Spark生态和安装部署 Spark生态 Spark(内存计算框架) SparkSteaming(流式计算框架) Spark SQL(ad-hoc) Mllib(Machine Learning) GraphX(bagel将被取代) 安装部署 Spark安装简介 Spark的源码编译 Spark Standalone安装 Spark Standalone H...
分类:其他好文   时间:2014-07-22 00:27:35    阅读次数:317
rtsp交互命令简介及过程参数描述
Real Time Streaming Protocol或者RTSP(实时流媒体协议),是由Real network 和 Netscape共同提出的如何有效地在IP网络上传输流媒体数据的应用层协议。RTSP提供一 种可扩展的框架,使能够提供可控制的,按需传输实时数据,比如音频和视频文件。源数据可以包...
分类:其他好文   时间:2014-07-22 00:03:34    阅读次数:289
Spark1.0.0伪分布安装指南
?一、下载须知 软件准备: spark-1.0.0-bin-hadoop1.tgz? ?下载地址:spark1.0.0 scala-2.10.4.tgz ? ?下载下载:Scala 2.10.4 hadoop-1.2.1-bin.tar.gz ? 下载地址:hadoop-1.2.1-bin.tar.gz jdk-7u60-li...
分类:其他好文   时间:2014-07-21 23:30:01    阅读次数:525
打造基于hadoop的网站日志分析系统(5)之spark在日志分析系统里的简单应用
1.下载spark和运行 wget?http://apache.fayea.com/apache-mirror/spark/spark-1.0.0/spark-1.0.0-bin-hadoop2.tgz 我这里下载的是1.0.0版,由于我们只是测试spark的用法所以不需要配置spark集群,只需把下好的文件...
分类:Web程序   时间:2014-07-21 10:21:45    阅读次数:206
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!