码迷,mamicode.com
首页 >  
搜索关键字:RDD    ( 1327个结果
Apache Spark RDD(Resilient Distributed Datasets)论文
Spark RDD(Resilient Distributed Datasets)论文 概要 1: 介绍 2: Resilient Distributed Datasets(RDDs) 2.1 RDD 抽象 2.2 Spark 编程接口 2.2.1 例子 – 监控日志数据挖掘 2.3 RDD 模型的 ...
分类:Web程序   时间:2017-09-21 17:51:51    阅读次数:334
spark2.x由浅入深深到底系列六之RDD java api用JdbcRDD读取关系型数据库
学习任何的spark技术之前,请先正确理解spark,可以参考:正确理解spark以下是用sparkRDDjavaapi实现从关系型数据库中读取数据,这里使用的是derby本地数据库,当然可以是mysql或者oracle等关系型数据库:packagecom.twq.javaapi.java7; importorg.apache.spark.api.java.Java..
分类:数据库   时间:2017-09-21 09:50:49    阅读次数:292
spark2.x由浅入深深到底系列六之RDD 支持java8 lambda表达式
学习spark任何技术之前,请正确理解spark,可以参考:正确理解spark我们在http://7639240.blog.51cto.com/7629240/1966131中已经知道了,一个scala函数其实就是java中的一个接口,对于java8lambda而言,也是一样,一个lambda表达式就是java中的一个接口。接下来我们先看看spark..
分类:编程语言   时间:2017-09-21 09:44:11    阅读次数:202
spark2.x由浅入深深到底系列六之RDD java api详解三
学习任何spark知识点之前请先正确理解spark,可以参考:正确理解spark本文详细介绍了sparkkey-value类型的rddjavaapi一、key-value类型的RDD的创建方式1、sparkContext.parallelizePairsJavaPairRDD<String,Integer>javaPairRDD= sc.parallelizePairs(Arrays.asList(newT..
分类:编程语言   时间:2017-09-20 00:52:23    阅读次数:332
spark2.x由浅入深深到底系列六之RDD java api详解四
学习spark任何的知识点之前,先对spark要有一个正确的理解,可以参考:正确理解spark本文对join相关的api做了一个解释SparkConfconf=newSparkConf().setAppName("appName").setMaster("local"); JavaSparkContextsc=newJavaSparkContext(conf); JavaPairRDD<Integer,Intege..
分类:编程语言   时间:2017-09-20 00:43:09    阅读次数:220
spark wordcont Spark: sortBy和sortByKey函数详解
在很多应用场景都需要对结果数据进行排序,Spark中有时也不例外。在Spark中存在两种对RDD进行排序的函数,分别是 sortBy和sortByKey函数。sortBy是对标准的RDD进行排序,它是从Spark 0.9.0之后才引入的(可以参见SPARK-1063)。而sortByKey函数是对P ...
分类:其他好文   时间:2017-09-19 23:00:28    阅读次数:224
spark2.x由浅入深深到底系列六之RDD java api调用scala api的原理
RDDjavaapi其实底层是调用了scala的api来实现的,所以我们有必要对javaapi是怎么样去调用scalaapi,我们先自己简单的实现一个scala版本和java版本的RDD和SparkContext一、简单实现scala版本的RDD和SparkContextclassRDD[T](value:Seq[T]){ //RDD的map操作 defmap[U](f:T=>U)..
分类:编程语言   时间:2017-09-18 11:03:03    阅读次数:213
spark2.x由浅入深深到底系列六之RDD java api详解二
packagecom.twq.javaapi.java7; importorg.apache.spark.SparkConf; importorg.apache.spark.api.java.JavaRDD; importorg.apache.spark.api.java.JavaSparkContext; importorg.apache.spark.api.java.function.Function2; importorg.apache.spark.api.java.function.VoidFunc..
分类:编程语言   时间:2017-09-18 10:58:10    阅读次数:190
spark2.x由浅入深深到底系列六之RDD java api详解一
以下对RDD的三种创建方式、单类型RDD基本的transformationapi、采样Api以及pipe操作进行了javaapi方面的阐述一、RDD的三种创建方式从稳定的文件存储系统中创建RDD,比如localfileSystem或者hdfs等,如下://从hdfs文件中创建 JavaRDD<String>textFileRDD=sc.textFile("hd..
分类:编程语言   时间:2017-09-18 10:53:03    阅读次数:264
spark总结5 RDD
创建RDD 有两种方式 1 通过hdfs支持的文件系统创建 RDD, RDD里面没有真正要计算的数据,只记录了一下元数据 2 从过scala集合或者数组以并行化的方式创建RDD collect 把结果收集起来放到 scala数组里面 reduce 汇聚 方法传进去 count rdd有多少元素 to ...
分类:其他好文   时间:2017-09-16 18:56:19    阅读次数:141
1327条   上一页 1 ... 69 70 71 72 73 ... 133 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!