前提:安装好jdk1.7,hadoop安装步骤:1、安装scala下载地址:http://www.scala-lang.org/download/配置环境变量:export SCALA_HOME=/..../scalaexport PATH=.:$SCALA_HOME/bin ....验证:sca....
分类:
其他好文 时间:
2014-06-28 14:08:09
阅读次数:
404
导读看这篇文章的时候,最好是能够跟着代码一起看,我是边看代码边写的,所以这篇文章的前进过程也就是我看代码的推进过程。作业执行上一章讲了RDD的转换,但是没讲作业的运行,它和Driver Program的关系是啥,和RDD的关系是啥?官方给的例子里面,一执行collect方法就能出结果,那我们就从co...
分类:
其他好文 时间:
2014-06-28 13:54:31
阅读次数:
257
一、控制Hive中Map和reduce的数量Hive中的sql查询会生成执行计划,执行计划以MapReduce的方式执行,那么结合数据和集群的大小,map和reduce的数量就会影响到sql执行的效率。除了要控制Hive生成的Job的数量,也要控制map和reduce的数量。1、map的数量,通常情...
分类:
其他好文 时间:
2014-06-23 07:48:43
阅读次数:
288
Spark已正式申请加入Apache孵化器,从灵机一闪的实验室“电火花”成长为大数据技术平台中异军突起的新锐。本文主要讲述Spark的设计思想。Spark如其名,展现了大数据不常见的“电光石火”。具体特点概括为“轻、快、灵和巧”。轻:Spark 0.6核心代码有2万行,Hadoop 1.0为9万行,...
分类:
其他好文 时间:
2014-06-23 07:25:53
阅读次数:
418
一:sqoop增量导入的两种方式Incremental import arguments:ArgumentDescription--check-column (col)Specifies the column to be examined when determining which rows to...
分类:
数据库 时间:
2014-06-23 00:58:09
阅读次数:
345
Hive 是基于Hadoop 构建的一套数据仓库分析系统,它提供了丰富的SQL查询方式来分析存储在Hadoop 分布式文件系统中的数据,可以将结构
化的数据文件映射为一张数据库表,并提供完整的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行,通过自己的SQL 去查询分析需
要的内容,这套SQL 简称Hive SQL,使不熟悉mapreduce 的用户很方便的利用SQL 语言...
分类:
数据库 时间:
2014-06-22 22:41:52
阅读次数:
342
Hive 桶 分区 map array struct...
分类:
其他好文 时间:
2014-06-22 21:57:10
阅读次数:
184
Spark Application可以在集群中并行运行,其关键是抽象出RDD的概念(详见RDD
细解),也使得Spark Application的开发变得简单明了。下图浓缩了Spark的编程模型。
1:Spark应用程序的结构
Spark应用程序可分两部分:driver部分和executor部分初始化SparkContext和主体程序
...
分类:
其他好文 时间:
2014-06-22 21:48:06
阅读次数:
311
写在前面一:
数据仓库ETL工具有很多,基于大数据环境下的分析,Hive用的多些。本文介绍国外的 一款开源ETL工具——Kettle。
写在前面二:
所用软件说明:
一、什么是Kettle
Kettle是一款国外开源的ETL工具,纯java编写,绿色无需安装,数据抽取高效稳定(数据迁移工具)。Kettle中有两种脚本文件,transformation和job,transf...
分类:
其他好文 时间:
2014-06-22 12:01:20
阅读次数:
619
spark 内存计算 分布式计算平台 Databricks...
分类:
其他好文 时间:
2014-06-21 21:23:20
阅读次数:
319