码迷,mamicode.com
首页 >  
搜索关键字:spark 安装、介绍    ( 7164个结果
基于spark1.3.1的spark-sql实战-02
Hive Tables 将HIVE_HOME/conf/hive-site.xml 文件copy到SPARK_HOME/conf/下  When not configured by the hive-site.xml, the context automatically creates metastore_db and warehouse in the current direct...
分类:数据库   时间:2015-05-19 19:07:19    阅读次数:217
基于spark1.3.1的spark-sql实战-01
OK !好久不见,大家都忙着各自的事情,me too, 博客也好久木有更新了,因为一直比较忙 spark sql 三个核心部分: 1. 可以加载各种结构化数据源(e.g., JSON, Hive, and?Parquet). 2. ?可以让你通过SQL ,spark ...
分类:数据库   时间:2015-05-19 15:07:52    阅读次数:369
org.apache.hadoop.hive.contrib.serde2.RegexSerDe not found
异常信息如下:atorg.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:569)atorg.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:166)atorg.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:..
分类:Web程序   时间:2015-05-19 15:04:10    阅读次数:228
org.apache.hadoop.hive.contrib.serde2.RegexSerDe not found
异常信息如下:atorg.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:569)atorg.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:166)atorg.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:..
分类:Web程序   时间:2015-05-19 15:03:31    阅读次数:198
基于spark1.3.1的spark-sql实战-01
OK !好久不见,大家都忙着各自的事情,me too, 博客也好久木有更新了,因为一直比较忙 spark sql 三个核心部分: 1. 可以加载各种结构化数据源(e.g., JSON, Hive, and Parquet). 2.  可以让你通过SQL ,spark 内部程序或者外部工具,通过标准的数据库连接(JDBC/ODBC)连接spark,比如一个商业智能的工具Tableau 3.当...
分类:数据库   时间:2015-05-19 14:49:14    阅读次数:297
spark streaming限制吞吐
使用spark.streaming.receiver.maxRate这个属性限制每秒的最大吞吐。官方文档如下:Maximum rate (number of records per second) at which each receiver will receive data. Effective...
分类:其他好文   时间:2015-05-19 12:36:22    阅读次数:226
Spark(七) -- Scala快速入门
Scala作为Spark的开发语言,想要成为Spark高手,精通Scala是必须要走的一条路 然后一门语言并不是你想精通就能够精通的,更何况是Scala这种面向对象又面向函数的编程语言,个人觉得其学习的门槛会比C#,Java等面向对象语言要高 所以,这篇文章是建立在有一点编程语言知识的基础上的(如学过C#或者Java等),其实所有语言都是大同小异的,学会了一门语言在学其他的就不会像刚开始那么吃力...
分类:其他好文   时间:2015-05-19 10:46:47    阅读次数:151
Flume结合Spark测试
近日,在测试Flume结合Kafka结合SparkStreaming的实验。今天把Flume与Spark的简单结合做出来了,这里记录一下,避免网友走弯路。有不周到的地方还希望路过的大神多多指教。实验比较简单,分为两部分:一、使用avro-client发送数据二、使用netcat发送数据首先Spark程序需要Flume..
分类:Web程序   时间:2015-05-19 07:32:40    阅读次数:1969
spark优化之临时目录
官方是这样说的:Directory to use for "scratch" space in Spark, including map output files and RDDs that get stored on disk. This should be on a fast, local di...
分类:其他好文   时间:2015-05-18 18:19:14    阅读次数:232
spark sql中进行sechema合并
spark sql中支持sechema合并的操作。直接上官方的代码吧。val sqlContext = new org.apache.spark.sql.SQLContext(sc)// sqlContext from the previous example is used in this exa...
分类:数据库   时间:2015-05-18 16:35:11    阅读次数:294
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!