为什么要查询表数据量 在做数据仓库管理时,数据导入hive或向表生成数据后形成的数据资产,表里的数据量和占用存储空间是总要的元数据属性。为方便数据使用时对数据有基本的了解,需要对表的数据量做统计。 使用 analyze table 主动生成元数据信息 analyze table tableName ...
分类:
其他好文 时间:
2020-06-05 13:27:53
阅读次数:
669
1、修改配置文件后重启hdfs集群,出现了两个namenode都是standby的问题。 经过不断地排查,发现在自己进行关闭和重启namenode的组件的时候,没有通过pip文件正常关闭,只能挨个关闭,这个也不是重点。 经过修改pip文件的路径,解决了这个批量关闭启动的问题,原因是/tmpe目录系统 ...
分类:
数据库 时间:
2020-06-05 13:12:31
阅读次数:
111
新建项目 打开IDEA,并新建一个Web项目 添加Tomcat服务器,并添加包依赖 创建数据库,数据表,并添加内内容 创建Servlet,进行登陆验证 作者使用的Mysql 5.6版本,并且部署于服务器,所以先要去网上下载JDBC驱动(下载地址,mysql数据库与JDBC版本对应查看地址),下载zi ...
分类:
其他好文 时间:
2020-06-05 13:01:37
阅读次数:
67
CDH6.3.2启用Kerberos集成使用phoenix标签(空格分隔):大数据平台构建一、下载并安装Phoenixparcel二、安装CSD文件三、在ClouderaManager中添加Phoenix服务(前提是已经安装了HBase服务)四、配置HBase以用于Phoenix五、验证Phoenix安装与冒烟测试六、导入数据验证测试七、七:关于phoinex的schema与hbase的names
分类:
其他好文 时间:
2020-06-05 00:31:53
阅读次数:
121
今天晚上,我们老师给我们布置了一个任务,用spark读取一些json数据,然后做一些数据分析的任务 我以为重头戏是数据分析的部分,没想到自己被读取json数据拦了1个多小时,写篇博客记录下 orz 常规的读取数据: val userInfo = spark.read.format("json"). ...
分类:
Web程序 时间:
2020-06-04 21:21:41
阅读次数:
129
同样的代码,只改了类型,分别为stringbuilder和stringbuffer,只比较一下,执行引擎为hive。 当数据量为100000条,string builder耗时280秒,stringbuffer耗时261秒。 当数据量为1000000条,string builder耗时878秒,st ...
分类:
其他好文 时间:
2020-06-04 13:51:29
阅读次数:
59
大家可能都知道很熟悉Spark的两种常见的数据读取方式(存放到RDD中):(1)、调用parallelize函数直接从集合中获取数据,并存入RDD中;Java版本如下: JavaRDD<Integer> myRDD = sc.parallelize(Arrays.asList(1,2,3)); Sc ...
分类:
其他好文 时间:
2020-06-04 10:38:09
阅读次数:
76
这几天由于项目的需要,需要将Flume收集到的日志插入到Hbase中,有人说,这不很简单么?Flume里面自带了Hbase sink,可以直接调用啊,还用说么?是的,我在本博客的《Flume-1.4.0和Hbase-0.96.0整合》文章中就提到如何用Flume和Hbase整合,从文章中就看出整个过 ...
分类:
Web程序 时间:
2020-06-04 10:26:08
阅读次数:
83
1.java编译报错 错误 Error: A JNI error has occurred, please check your installation and try again 👆下面还有其他报错但我没有截到,但问题的原因都是这个👆 这个错误一般情况是由于java 版本 与javac 版本 ...
分类:
其他好文 时间:
2020-06-04 01:04:18
阅读次数:
78
首先准备一个hadoop源码包,我选择的hadoop版本是:hadoop-2.7.7-src.tar.gz,在hadoop-2.7.7的源码包的根目录下有一个文档叫做BUILDING.txt,这其中说明了编译hadoop所需要的一些编译环境相关的东西。不同的hadoop版本的要求都不一样,对应的版本参照BUILDING.txt安装对应软件(必须联网)安装openssl-develyum-yinst
分类:
其他好文 时间:
2020-06-04 00:52:14
阅读次数:
51