码迷,mamicode.com
首页 > 其他好文 > 详细

hive 数据迁移

时间:2015-08-27 19:27:52      阅读:175      评论:0      收藏:0      [点我收藏+]

标签:

1. 设置默认需要导出的hive数据库
vi ~/.hiverc
use logbase;
2. 创建数据临时目录
hdfs dfs -mkdir /tmp/hive-export
3.生成导出数据脚本
hive -e "show tables " | awk ‘{printf "export table %s to @/tmp/hive-export/%s@;\n",$1,$1}‘ | sed "s/@/‘/g" > export.hql
手工去掉第一行(因为第一行是tab_name,不是实际表)
4.手工导出数据到hdfs
hive -f export.hql
5. 下载hdfs数据到本地并传送到目标hadoop集群的/tmp/hive-export 目录
hdfs dfs -get /tmp/hive-export/*
hdfs dfs -put * /tmp/hive-export
 7.构造导入语句
cp export.sql import.sql
sed -i ‘s/export table/import table/g‘ import.sql


参考官网:

https://cwiki.apache.org/confluence/display/Hive/LanguageManual+ImportExport

hive 数据迁移

标签:

原文地址:http://my.oschina.net/u/2438020/blog/498237

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!