码迷,mamicode.com
首页 >  
搜索关键字:spark 安装、介绍    ( 7164个结果
Spark Streaming原理简析
执行流程数据的接收StreamingContext实例化的时候,需要传入一个SparkContext,然后指定要连接的spark matser url,即连接一个spark engine,用于获得executor。实例化之后,首先,要指定一个接收数据的方式,如val lines = ssc.socketTextStream("localhost", 9999)这样从socket接收文本数据。这个步骤...
分类:其他好文   时间:2015-03-19 16:25:47    阅读次数:155
spark1.3.0集成kafka的新办法
SimplifiedParallelism:NoneedtocreatemultipleinputKafkastreamsandunion-ingthem.WithdirectStream,SparkStreamingwillcreateasmanyRDDpartitionsasthereisKafkapartitionstoconsume,whichwillallreaddatafromKafkainparallel.Sothereisone-to-onemappingbetweenKafkaandRDDp..
分类:其他好文   时间:2015-03-18 18:29:45    阅读次数:630
孙其功陪你学之——Spark MLlib之K-Means聚类算法
看到 程序员的自我修养 – SelfUp.cn 里面有Spark MLlib之K-Means聚类算法。 但是是java 语言的,于是我按照例程用Scala写了一个,分享在此。 由于在学习 spark mllib 但是如此详细的资料真的很难找,在此分享。 测试数据 1 2 3 4 5 6 7...
分类:编程语言   时间:2015-03-18 18:00:39    阅读次数:466
Spark1.2.1集群环境搭建——Standalone模式
机器准备 笔者有三台机器,左侧栏为ip,右侧为hostname,三台机器都有一个名为spark的用户。 192.168.248.150?spark-master 192.168.248.153?ubuntu-worker 192.168.248.155?spark-worker1 根据机器信息加入到...
分类:其他好文   时间:2015-03-17 08:15:16    阅读次数:143
Spark源码学习1.6——Executor.scala
Executor.scala一、Executor类首先判断本地性,获取slaves的host name(不是IP或者host: port),匹配运行环境为集群或者本地。如果不是本地执行,需要启动一个handler来监控所有的executor进程,避免阻塞。然后,初始化Spark执行环境。向Spark...
分类:其他好文   时间:2015-03-16 12:42:09    阅读次数:165
跟我一起数据挖掘(22)——spark入门
Spark简介Spark是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用...
分类:其他好文   时间:2015-03-15 00:29:47    阅读次数:172
Spark API编程动手实战-08-基于IDEA使用Spark API开发Spark程序-01
创建一个Scala IDEA工程:点击“Next”:点击“Finish”完成工程的创建:修改项目的属性:首先修改Modules选项:在src下创建两个文件夹,并把其属性改为source:再修改Libraries:因为要开发Spark程序,所以需要把Spark的开发需要的jar包导进来:导入包完成后,...
分类:Windows程序   时间:2015-03-14 16:54:25    阅读次数:241
本地开发spark代码上传spark集群服务并运行(基于spark官网文档)
打开IDEA 在src下的main下的scala下右击创建一个scala类 名字为SimpleApp ,内容如下import org.apache.spark.SparkContextimport org.apache.spark.SparkContext._import org.apache.sp...
分类:Web程序   时间:2015-03-14 16:54:22    阅读次数:141
Spark API编程动手实战-08-基于IDEA使用Spark API开发Spark程序-02
接下来进行打包,使用Project Structure的Artifacts:使用From modules with dependencies:选择Main Class:点击“OK”:把名称改为SparkDemoJar:因为每台机器上都安装了Scala和Spark,所以可以把Scala和Spark相关...
分类:Windows程序   时间:2015-03-14 16:46:12    阅读次数:219
spark 1.3 发布了
悄悄地,spark 还是像往常一样,发布了1.3版本,从release notes可以看出,这一版本比较大的变化是1. 增加了DataFrame API,这样以后操作一些结构化的数据集时将会变的非常方便,它可以通过数据源如Hive tables, JSON data, a JDBC databa.....
分类:其他好文   时间:2015-03-14 13:44:25    阅读次数:192
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!