码迷,mamicode.com
首页 > 其他好文 > 详细

hive的高级应用

时间:2019-06-17 00:44:22      阅读:86      评论:0      收藏:0      [点我收藏+]

标签:哪些   参数   class   pwd   文件   sql脚本   应用   查询   查看   

一、进入hive之前的操作

1、简介

进入hive客户端之前的操作

hive [-hiveconf x=y]* [<-i filename>]* [<-f filename>|<-e query-string>]

2、设置参数相关的

(1)-hiveconf

      -hiveconf ===set key=value

      hive -hiveconf hive.exec.mode.local.auto=true

      在进入客户端之前先设置参数再启动hive

(2)-i(init)

      如果一次性需要设置多个参数,可以将多个参数的设置写入一个文件中(一行一个参数设置)。在启动hive客户端之前,设置一系列参数。

3、执行sql相关的

(1)-f

      hive -f 脚本文件路径

===source的

      A、启动hive客户端

      B、source ...

      C、退出客户端

(2)-e

      hive -e "show databases"

      A、启动hive客户端

      B、执行sql语句

      C、退出客户端

二、进入hive客户端之后的操作

1、quit 退出客户端

2、set key=value 设置参数对应的值的

      set hive.cli.print.header=true;

      只对当前客户端生效,一旦退出就失效了

3、set key;  查询对应参数的值的

      set hive.cli.print.header;

4、set -v

      查看hive中所有参数信息,了解即可

5、add FILE [file] 添加脚本文件到hive的classpath下

6、add jar path  添加jar文件的classpath下的

7、list FILE  查看hive的class path下有哪些文件的

8、list jars

9、! [cmd] 在hive的客户端执行linux命令

      !ls

      !pwd

10、dfs [dfs cmd]   在hive客户端,执行hadoop的命令的

      hadoop hdfs 操作命令:

      hadoop fs -...

      hdfs dfs -...

      hadoop |hdfs 启动hadoop的客户端的,因为hive相当于hadoop的一个客户端,所以在执行hadoop命令的时候,不用写hadoop | hdfs。

      dfs -ls|-mkdir ...

11、source 脚本文件路径 加载sql脚本的

      sql脚本

      一系列的sql语句 

      很多sql语句一起执行,写在一个脚本中。

      source /home/hadoop/tmpdata/hive.sql;

hive的高级应用

标签:哪些   参数   class   pwd   文件   sql脚本   应用   查询   查看   

原文地址:https://www.cnblogs.com/zhangxiaofan/p/11037433.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!