码迷,mamicode.com
首页 >  
搜索关键字:hive    ( 5904个结果
Spark(四): Spark-sql 读hbase
SparkSQL是指整合了Hive的spark-sql cli, 本质上就是通过Hive访问HBase表,具体就是通过hive-hbase-handler, 具体配置参见:Hive(五):hive与hbase整合 目录: SparkSql 访问 hbase配置 测试验证 SparkSql 访问 hb ...
分类:数据库   时间:2016-09-01 22:41:11    阅读次数:221
Hbase总结(一)-hbase命令,hbase安装,与Hive的区别,与传统数据库的区别,Hbase数据模型
Hbase总结(一)-hbase命令 Hbase总结(一)-hbase命令 下面我们看看HBase Shell的一些基本操作命令,我列出了几个常用的HBase Shell命令,如下: 名称 命令表达式 创建表 create '表名称', '列名称1','列名称2','列名称N' 添加记录 put ' ...
分类:数据库   时间:2016-09-01 18:26:55    阅读次数:412
Hive基础(4)---Hive的内置服务
版权声明:<—— 本文为作者呕心沥血打造,若要转载,请注明出处@http://blog.csdn.net/gamer_gyt <—— 版权声明:<—— 本文为作者呕心沥血打造,若要转载,请注明出处@http://blog.csdn.net/gamer_gyt <—— 目录(?)[+] 目录(?)[+ ...
分类:其他好文   时间:2016-08-31 20:36:59    阅读次数:199
记一次从oracle到hive的历史数据迁移(一)
介绍一下具体场景需要从现有在用的oracle中将历史数据迁移出来并导入到hive中,存在几个问题:1、现有oracle数据库在使用无法整个库导出,数据库服务器没有权限;2、由于各个数据提供方的各次升级,oracle数据库采取添加字段而不删除字段的方式更新,而hive中建立的表数据结构..
分类:数据库   时间:2016-08-31 12:24:47    阅读次数:210
大数据 hadoop pig hive 关系
初接触hadoop技术的朋友肯定会对它体系下寄生的个个开源项目糊涂了,我敢保证Hive,Pig,HBase这些开源技术会把你搞的有些糊涂,不要紧糊涂的不止你一个,如某个菜鸟的帖子的疑问,when to use Hbase and when to use Hive?....请教了^_^没关系这里我帮大 ...
分类:其他好文   时间:2016-08-31 11:55:01    阅读次数:113
Hive是什么!
Hive是什么! 一直想抽个时间整理下最近的所学,断断续续接触hive也有半个多月了,大体上了解了很多Hive相关的知识。那么,一般对陌生事物的认知都会经历下面几个阶段: 为什么会出现?解决了什么问题? 如何搭建?如何使用? 如何精通? 我会在本篇粗略的介绍下前两个问题,然后给一些相关的资料。第三个 ...
分类:其他好文   时间:2016-08-31 09:28:03    阅读次数:189
远景能源一面
0:自我介绍(重点讲的是数据挖掘项目) 1:MR机制怎么实现Fpgrowth过程。 2:Spring有什么特点,流程。 3:MR工作机制 4:HBase和MySQL数据库区别 5:Hbase存储的特点 6:Hive和Hbase区别 7:java集合类有哪些 8:java安全的集合类有哪些 9:con ...
分类:其他好文   时间:2016-08-30 21:08:56    阅读次数:158
用nifi把hdfs数据导到hive
全景图:1. ListHDFS & FetchHDFS:ListHDFS:FetchHDFS:2. EvaluateJsonPath:{"status": {"code":500,"message":"FAILED","detail":"DTU ID not exists"}}如果json里有数组,... ...
分类:其他好文   时间:2016-08-30 19:41:03    阅读次数:1305
Hive的严格模式
在hive里面可以通过严格模式防止用户执行那些可能产生意想不到的不好的效果的查询,从而保护hive的集群。 用户可以通过 set hive.mapred.mode=strict 来设置严格模式,改成unstrict则为飞严格模式。 在严格模式下,用户在运行如下query的时候会报错。 1. 分区表的 ...
分类:其他好文   时间:2016-08-29 12:38:45    阅读次数:645
hadoop的Hive操作hdfs文件第一天
hadoop的Hive操作hdfs文件第一天hive的具体练习以下4个目标1.第一普通的hdfs文件能导入到hive中以供我们查询。createtabledept(deptIDint,deptNamestring,addressstring);loaddatalocalinpath‘/home/dyq/Documents/dept‘overwriteintotabledept;select*fromdept;hive>select..
分类:其他好文   时间:2016-08-28 16:44:33    阅读次数:156
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!