码迷,mamicode.com
首页 > 其他好文 > 详细

spark-2.0.0与hive-1.2.1整合

时间:2016-10-14 16:38:28      阅读:218      评论:0      收藏:0      [点我收藏+]

标签:

SparkSQL与Hive的整合

1. 拷贝$HIVE_HOME/conf/hive-site.xml和hive-log4j.properties到 $SPARK_HOME/conf/

2. 在$SPARK_HOME/conf/目录中,修改spark-env.sh,添加

export HIVE_HOME=/opt/hive-1.2.1

export SPARK_CLASSPATH=$HIVE_HOME/lib:$SPARK_CLASSPATH

3. 另外也可以设置一下Spark的log4j配置文件,使得屏幕中不打印额外的INFO信息:

log4j.rootCategory=WARN, console

(但还是有信息提示)

进入$SPARK_HOME/bin执行 spark-sql

技术分享

 

spark-2.0.0与hive-1.2.1整合

标签:

原文地址:http://www.cnblogs.com/hbwxcw/p/5960638.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!