码迷,mamicode.com
首页 > 其他好文 > 详细

hive基本操作与应用

时间:2018-05-16 22:31:47      阅读:159      评论:0      收藏:0      [点我收藏+]

标签:create   into   wordcount   split   star   cal   group   python   创建文件   

通过hadoop上的hive完成WordCount

启动hadoop

cd /home/local/hadoop
./sbin/start-dfs.sh
cd /home/local/hive/lib
service mysql start
start-all.sh

Hdfs上创建文件夹

hdfs dfs -mkdir demo
hdfs dfs -ls /home/hadoop

上传文件至hdfs

hdfs dfs -put ./zxc.txt demo
hdfs dfs -ls /home/hadoop/demo

 启动Hive

hive

  创建原始文档表

create table docs(line string)

  导入文件内容到表docs并查看

load data inpath ‘/home/hadoop/demo/zxc.txt‘ overwrite into table docs
select * from docs

  用HQL进行词频统计,结果放在表word_count里

create table word_count as select word,count(1) as count from (select explode(split(line," ")) as word from docs) word group by word order by word;

  查看统计结果

show tables;
select * from word_count;

  

hive基本操作与应用

标签:create   into   wordcount   split   star   cal   group   python   创建文件   

原文地址:https://www.cnblogs.com/onlythisone/p/9048146.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!