码迷,mamicode.com
首页 >  
搜索关键字:spark 1.0.0    ( 7001个结果
CDH| Spark升级
升级之Spark升级 在CDH5.12.1集群中,默认安装的Spark是1.6版本,这里需要将其升级为Spark2.1版本。经查阅官方文档,发现Spark1.6和2.x是可以并行安装的,也就是说可以不用删除默认的1.6版本,可以直接安装2.x版本,它们各自用的端口也是不一样的。 Cloudera发布 ...
分类:其他好文   时间:2020-04-22 13:33:45    阅读次数:98
spark写mysql
import java.sql.{DriverManager, PreparedStatement} import java.time.LocalDateTime import java.time.format.DateTimeFormatter import org.apache.spark.rd ...
分类:数据库   时间:2020-04-22 10:24:45    阅读次数:83
spark读取mysql
import java.sql.DriverManager import java.time.{LocalDateTime, ZoneOffset} import org.apache.spark.rdd.JdbcRDD import org.apache.spark.{SparkConf, Spa ...
分类:数据库   时间:2020-04-22 10:13:02    阅读次数:86
Spark RDD转DataFrame
import org.apache.spark.sql.{Row, SparkSession} import org.apache.spark.sql.types.{IntegerType, StringType, StructField, StructType} /** * RDD转DataFra ...
分类:其他好文   时间:2020-04-22 10:11:22    阅读次数:67
Spark2.x读Hbase1-2.x
import org.apache.hadoop.hbase.HBaseConfiguration import org.apache.hadoop.hbase.mapreduce.TableInputFormat import org.apache.hadoop.hbase.util.Bytes ...
分类:其他好文   时间:2020-04-22 09:16:07    阅读次数:55
spark streaming 读取kafka两种方式的区别
1】Receiver是使用高层次的consumer Api来实现的。 receiver 接收的消息都是存储在spark Executor中的,然后spark启动jobq去处理那些消息 然而,默认情况下,这种方式会因为底层的失败丢失数据。 如果要启用高可靠机制,让数据零丢失,就必须启用spark st ...
分类:其他好文   时间:2020-04-20 11:59:44    阅读次数:64
入门大数据---Spark学习
一. Spark简介 1.1 前言 Apache Spark是一个计算系统,它的处理速度很快,很通用,并且能集群部署。可以通过Scala,Java,Python和R来操作API。它还提供了了一些高级工具,比如Spark SQL(通过SQL操作),MLlib(机器学习用的),Graphx(图形化操作用 ...
分类:其他好文   时间:2020-04-20 11:44:10    阅读次数:80
scala版本的wordcount
package com.atguigu.bigdata.spark import org.apache.spark.rdd.RDD import org.apache.spark.{SparkConf, SparkContext} object WordCount { def main(args: ...
分类:其他好文   时间:2020-04-19 18:04:25    阅读次数:66
小记--------sparkSQL - spark基础知识
1.RDD 是spark的核心数据结构,全称是弹性分布式数据集。 本质上是一种分布式的内存抽象,表示一个只读的数据分区集合。一个RDD通常只能通过其他的RDD转换而创建,RDD定义了各种丰富的转换操作,通过转换操作,新的RDD包含了如何从其他RDD衍生所必须的信息。这些信息构成了RDD之间的依赖关系 ...
分类:数据库   时间:2020-04-19 01:15:39    阅读次数:108
centos7安装spark集群
安装前准备: 1.3台主机 2.安装jdk 3.免密登陆 开始安装spark 1.解压安装包 tar -zxvf spark-2.4.5-bin-hadoop2.7.tgz 2.修改配置文件 cd conf cp spark-env.sh.template spark-env.shcp slaves ...
分类:其他好文   时间:2020-04-19 00:31:12    阅读次数:85
7001条   上一页 1 ... 39 40 41 42 43 ... 701 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!