码迷,mamicode.com
首页 >  
搜索关键字:spark streaming    ( 7556个结果
《Spark大数据处理:技术、应用与性能优化》
链接:https://pan.baidu.com/s/1nGkLfRy9izODONbMbLO8rA 提取码:rjpn ...
分类:其他好文   时间:2020-05-10 23:13:35    阅读次数:61
Spark内核源码解析四:SparkContext原理解析和源码解析
源码解析 主构造函数代码 private[spark] var (schedulerBackend, taskScheduler) = SparkContext.createTaskScheduler(this, master) createTaskScheduler,创建TaskScheduler ...
分类:其他好文   时间:2020-05-10 23:08:55    阅读次数:63
真香!PySpark整合Apache Hudi实战
1. 准备 Hudi支持Spark 2.x版本,你可以点击如下 "链接" 安装Spark,并使用pyspark启动 spark avro模块需要在 packages显示指定 spark avro和spark的版本必须匹配 本示例中,由于依赖spark avro_2.11,因此使用的是scala2.1 ...
分类:Web程序   时间:2020-05-10 17:37:32    阅读次数:124
Spark读取Mysql,Redis,Hbase数据(一)
1、读取Mysql数据 object JdbcRddDemo { def getConn() = { Class.forName("com.mysql.jdbc.Driver").newInstance() DriverManager.getConnection("jdbc:mysql://hado ...
分类:数据库   时间:2020-05-10 17:31:37    阅读次数:97
Spark 与 JDBC、Hbase之间的交互
JDBC 以MySQL为例 读取 import java.sql.DriverManager import org.apache.spark.rdd.JdbcRDD import org.apache.spark.{SparkConf, SparkContext} /** * Author atgu ...
分类:数据库   时间:2020-05-09 23:21:09    阅读次数:86
spark利用sparkSQL将数据写入hive两种通用方式实现及比较
1.写在前面 在利用spark计算引擎将kafka或其他源数据组件的数据入hive形成数仓的过程中有两种方式,一种方式是利用spark Rdd的API将数据写入hdfs形成hdfs文件,之后再将文件和hdfs文件和hive表做加载映射。第二种方式是利用sparkSQL将获取的数据Rdd转换成data ...
分类:数据库   时间:2020-05-09 19:20:15    阅读次数:100
使用apache livy导致的结果集不一致问题记录
spark sql使用自己封装的livy 引擎执行时有丢失数据情况。排查发现livy session页面中的sql有中文乱码。 之后在livy 源码中未找到相关序列化指定字符集的代码。回头排查自己的代码 修改完毕后重新执行 观察livy session中的sql。 果然乱码没了,执行结果集跟spar ...
分类:Web程序   时间:2020-05-09 16:39:29    阅读次数:91
Spark案例练习-UV的统计
关注公众号:分享电脑学习回复"百度云盘" 可以免费获取所有学习文档的代码(不定期更新)云盘目录说明:tools目录是安装包res 目录是每一个课件对应的代码和资源等doc 目录是一些第三方的文档工具 承接上一篇文档《Spark案例练习-PV的统计》 参数说明: 继续上面的PV代码编写即可 思路:UV ...
分类:其他好文   时间:2020-05-09 01:15:58    阅读次数:65
每日一题 为了工作 2020 0508 第六十六题
package spark.action.factory; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.sql ...
分类:其他好文   时间:2020-05-08 21:18:36    阅读次数:120
spark常用操作(二)
//spark读取数据 Dataset<Row> df = spark.read().textFile(currentSrcPath, 1); Dataset<Row> df = spark.read().json(path); Dataset<Row> df = spark.read().orc( ...
分类:其他好文   时间:2020-05-08 18:23:41    阅读次数:85
7556条   上一页 1 ... 37 38 39 40 41 ... 756 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!