HBase在WAL机制开启的情况下,不考虑块缓存,数据日志会先写入HLog,然后进入Memstore,最后持久化到HFile中。HFile是存储在hdfs上的,WAL预写日志也是,但Memstore是在内存的 ...
分类:
其他好文 时间:
2020-12-07 12:09:37
阅读次数:
4
?进行数据分析的时候,我们会根据分析的数据内容选择合适的图表来进行数据可视化分析和展示,对较大数据进行汇总分析时,我们常常会用到数据透视表,但是,excel里做数据透视表很复杂,总是记不了步骤,也经常点错,每次使用都得重头做一遍。是否有什么软件可以拖拖拽拽,快速制作数据透视表?有!就是Smartbi ...
分类:
其他好文 时间:
2020-12-07 12:00:40
阅读次数:
4
前言 在本机模拟器的ubuntu18版本上进行的部署测试,参考的官方文档: hadoop: 链接地址 hive: 链接地址 使用的版本: hadoop: 3.2.1 hive: 3.1.2 全程是使用root账号进行的配置。 hadoop安装配置 hadoop使用的是虚拟集群,即单机模拟集群,dat ...
分类:
其他好文 时间:
2020-12-05 10:52:38
阅读次数:
7
按位使用数据以及union 例如:typedef union tagData{ long x:2; long y:4; long data;}data_item,*pdata_item; 上述是一个联合体,联合体的对象用的空间是类型中占用内存最大的哪个,例如上例中data_item变量占用4个字节。 ...
分类:
其他好文 时间:
2020-12-04 11:18:07
阅读次数:
7
设计Spark程式过程中最初始的是创建RDD数据集,该数据集来自定义的源数据,当RDD数据集初始后,再通过算子对RDD数据集作转换生成后续的数据集。Spark中提供了多种创建RDD数据集的方法,比如:通过内存集合创建、或使用本地文件创建以及HDFS文件创建RDD数据集。最常见的是第三种方式,生产环境下通常会读取并基于HDFS上存储的数据来创建并进行离线批处理。典型的RDD创建流程为,通过输入算子(
分类:
其他好文 时间:
2020-12-04 10:59:58
阅读次数:
4
为什么会出现浏览器兼容问题? 由于各大主流浏览器由不同的厂家开发,所用的核心架构和代码也很难重和,这就为各种莫名其妙的Bug(代码错误)提供了温床。再加上各大厂商出于自身利益考虑而设置的种种技术壁垒,都让CSS应用起来比想象得要麻烦。浏览器的兼容问题是我们必须去克服的。 CSS Bug、CSS Ha ...
分类:
其他好文 时间:
2020-12-03 11:59:22
阅读次数:
5
什么是Hive? Hive:由Facebook开源用于解决海量结构化日志的数据统计工具。 Hive 是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张表,并提供类SQL查询功能。 本质是:将SQL转化成MapReduce程序。 1、Hive 处理的数据存储在HDFS; 2、Hiv ...
分类:
其他好文 时间:
2020-12-03 11:43:46
阅读次数:
3
HBase读写流程 在网上找了一张图,这个画的比较简单,就拿这个图来说吧。 写流程 1.当Client发起一个Put请求时,首先访问Zookeeper获取hbase:meta表。 2.从hbase:meta表查询即将写入数据的Region位置。 3.Client向目标RegionServer发出写命 ...
分类:
其他好文 时间:
2020-12-02 12:39:17
阅读次数:
7
zookeeper技术介绍[python书籍福利]Zookeeper技术介绍ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和
分类:
编程语言 时间:
2020-12-02 11:57:17
阅读次数:
3
首先还是修改flink安装目录的conf目录下flink-conf.yaml文件,找到如下的三个配置,把原本的注释放开,然后配置自己的hdfs地址和zookeeper地址。 需要注意的是,我这里的hdfs是之前的ha集群,mycluster是我的hdfs的集群名,至于后边的内容会在hdfs中创建路径 ...
分类:
其他好文 时间:
2020-12-01 12:17:20
阅读次数:
7