码迷,mamicode.com
首页 >  
搜索关键字:spark pagerank graphx    ( 7196个结果
spark的编译
1.下载spark源码包2.下载scala3.下载maven4.防止maven内溢出: export MAVEN_OPTS="-Xmx2g -XX:ReservedCodeCacheSize=512m" 5.在spark目录下,有pom文件的那里 执行: 执行maven安装 ./build/mvn ...
分类:其他好文   时间:2020-06-01 01:15:14    阅读次数:74
c#,pagerank算法实现一
PageRank让链接来"投票" 一个页面的“得票数”由所有链向它的页面的重要性来决定,到一个页面的超链接相当于对该页投一票。一个页面的PageRank是由所有链向它的页面(“链入页面”)的重要性经过递归算法得到的。一个有较多链入的页面会有较高的等级,相反如果一个页面没有任何链入页面,那么它没有等级 ...
分类:编程语言   时间:2020-05-31 23:17:15    阅读次数:114
吴翰清(道哥)眼中的机器智能:计算机的再发展
吴翰清?(道哥)眼中的机器智能:计算机的再发展 阿里妹导读:人类社会的发展离不开技术的革新。一项新技术的成熟需要经历哪些考验?为什么说对于计算机、AI 的发展而言,算力和数据都是重要的生产资料?如何实现数据的智能化?通过本文,吴翰清(道哥)将从人类社会的发展讲起,梳理总结技术革新的规律和脉络,分享他 ...
分类:其他好文   时间:2020-05-31 16:05:32    阅读次数:74
第2天Python实战Spark大数据分析及调度-RDD编程
Spark提供的主要抽象是resilient distributed dataset(RDD) 弹性分布式数据集,它是跨集群节点划分的元素的集合,可以并行操作。通过从Hadoop文件系统(或任何其他Hadoop支持的文件系统)中的文件或驱动程序中现有的Scala集合开始并进行转换来创建RDD。用户还 ...
分类:编程语言   时间:2020-05-31 16:03:22    阅读次数:92
Apache Spark
Apache Spark Apache Spark是一个开源集群运算框架,最初是由加州大学柏克莱分校AMPLab所开发。相对于Hadoop的MapReduce会在运行完工作后将中介数据存放到磁盘中,Spark使用了存储器内运算技术,能在数据尚未写入硬盘时即在存储器内分析运算。Spark在存储器内运行 ...
分类:Web程序   时间:2020-05-31 00:41:36    阅读次数:95
Spark之RDD编程
Spark对数据的核心抽象——弹性分布式数据集(Resilient Distributed Dataset),简称RDD。RDD其实就是分布式的元素集合。在Spark中,对数据的所有操作不外乎创建RDD、转化已有RDD以及调用RDD操作进行求值。而在这背后,Spark会自动将RDD中的数据分发到集群 ...
分类:其他好文   时间:2020-05-30 22:18:13    阅读次数:105
spark基础入门
第1章 Spark 概述 1.1 什么是 Spark 官网:http://spark.apache.org Spark 的产生背景 Spark 是一种快速、通用、可扩展的大数据分析引擎,2009 年诞生于加州大学伯克利分校 AMPLab,2010 年开源,2013 年 6 月成为 Apache 孵化 ...
分类:其他好文   时间:2020-05-30 22:09:09    阅读次数:75
Spark Structured Streaming
###概述 Structured Streaming 是 Spark 2.0 引入的功能,有以下特点 基于 Spark SQL engine 可以直接使用 DataSet/DataFrame API,就像处理离线的批数据一样 Spark SQL engine 持续地、增量地处理流数据 支持 stre ...
分类:其他好文   时间:2020-05-29 21:22:01    阅读次数:77
Spark分区
一、Spark数据分区方式简要 在Spark中,RDD(Resilient Distributed Dataset)是其最基本的抽象数据集,其中每个RDD是由若干个Partition组成。在Job运行期间,参与运算的Partition数据分布在多台机器的内存当中。这里可将RDD看成一个非常大的数组, ...
分类:其他好文   时间:2020-05-29 20:55:31    阅读次数:55
spark企业运用
Spark SQL 1、Spark SQL 是 Spark 的一个模块,可以和 RDD 进行混合编程、支持标准的数据源、可以集成和替代 Hive、可以提供 JDBC、ODBC 服务器功能。 2、Spark SQL 的特点: (1)和 Spark Core 的无缝集成,可以在写整个 RDD 应用的时候 ...
分类:其他好文   时间:2020-05-29 19:38:34    阅读次数:75
7196条   上一页 1 ... 29 30 31 32 33 ... 720 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!