一、MySQL的安装 Hive的数据,是存在HDFS里的。此外,hive有哪些数据库,每个数据库有哪些表,这样的信息称之为hive的元数据信息。 元数据信息不存在HDFS,而是存在关系型数据库里,hive默认用的是derby数据库来存储。即hive工作时,除了要依赖Hadoop,还要依赖关系型数据库 ...
分类:
数据库 时间:
2019-08-08 00:22:09
阅读次数:
104
一、Hive介绍 Apache官网给出的logo,一半是Hadoop大象的头,一半是蜜蜂的身体,也是寓意着它是基于Hadoop,哈哈,纯属个人理解,进入正题。 Hive是基于Hadoop的一个数据仓库工具,可以将sql语句转换成MapReduce任务来运行。可以用来数据提取、转化、加载(ETL),这 ...
分类:
其他好文 时间:
2019-08-07 23:02:06
阅读次数:
242
Hadoop集群的各部分一般都会使用到多个端口,有些是daemon之间进行交互之用,有些是用于RPC访问以及HTTP访问。而随着Hadoop周边组件的增多,完全记不住哪个端口对应哪个应用,特收集记录如此,以便查询。 这里包含我们使用到的组件:HDFS, YARN, HBase, Hive, ZooK ...
分类:
其他好文 时间:
2019-08-07 19:07:50
阅读次数:
85
好程序员大数据学习路线分享hive的运行方式,hive的属性设置:1、在cli端设置(只针对当前的session)3、在java代码中设置(当前连接)2、在配置文件中设置(所有session有效)设置属性的优先级依次降低。cli端只能设置非hive启动需要的属性。(log属性,元数据连接属性)查找所有属性:hive>set;查看当前属性的值:通常是hadoophive>set-v;
分类:
其他好文 时间:
2019-08-07 17:28:26
阅读次数:
100
1. Phoenix Phoenix是HBase的开源SQL皮肤。可以使用标准JDBC API代替HBase客户端API来创建表,插入数据和查询HBase数据。 特点 1) 容易集成:如Spark,Hive,Pig,Flume和Map Reduce。 2) 性能好:直接使用HBase API以及协处 ...
分类:
其他好文 时间:
2019-08-06 13:54:25
阅读次数:
231
好程序员大数据学习路线之hive表的查询 1.join查询 1、永远是小结果集驱动大结果集(小表驱动大表,小表放在左表)。2、尽量不要使用join,但是join是难以避免的。 leftjoin、leftouterjoin、leftsemijoin(左半开连接,只显示左表信息) hive在0.8版本以后开始支持leftjoin leftjoin和leftouterjoin效果差不多
分类:
其他好文 时间:
2019-08-05 17:29:51
阅读次数:
111
这里小编介绍两种导入数据的方式,一种是基于hive,一种是基本文件生成HFile。1.hive-hbase-handler导数据这种方式需要一个jar包支持:下载地址:将其放入$HBASE_HOME/lib并将原有的jar包复制。其次修改hive-site.xml:#加入:<property><name>hive.aux.jars.path</
分类:
其他好文 时间:
2019-08-05 17:17:58
阅读次数:
189
Hive 数据仓库,Hive 的本质其实就相当于将 HDFS 中已经存储的文件在Mysql中做了一个双射关系,以方便使用 HQL 去管理查询 用于数据分析、清洗,Hive 适用于离线的数据分析和清洗,延迟较高 基于 HDFS、MapReduce,Hive存储的数据依旧在DataNode上,编写的 H ...
分类:
其他好文 时间:
2019-08-05 14:23:06
阅读次数:
90
/opt/cloudera/parcels/CDH/jars /opt/cloudera/parcels/CDH-6.2.0-1.cdh6.2.0.p0.967373/lib/hive/lib /opt/cloudera/parcels/CDH-6.2.0-1.cdh6.2.0.p0.967373/ ...
分类:
其他好文 时间:
2019-08-05 12:21:20
阅读次数:
145