码迷,mamicode.com
首页 >  
搜索关键字:hadoop 2.7.2 大数据 hdfs ha    ( 28781个结果
HBase中Memstore存在的意义以及多列族引起的问题和设计
HBase在WAL机制开启的情况下,不考虑块缓存,数据日志会先写入HLog,然后进入Memstore,最后持久化到HFile中。HFile是存储在hdfs上的,WAL预写日志也是,但Memstore是在内存的 ...
分类:其他好文   时间:2020-12-07 12:09:37    阅读次数:4
不需建模型,轻松处理数据的透视分析
?进行数据分析的时候,我们会根据分析的数据内容选择合适的图表来进行数据可视化分析和展示,对较大数据进行汇总分析时,我们常常会用到数据透视表,但是,excel里做数据透视表很复杂,总是记不了步骤,也经常点错,每次使用都得重头做一遍。是否有什么软件可以拖拖拽拽,快速制作数据透视表?有!就是Smartbi ...
分类:其他好文   时间:2020-12-07 12:00:40    阅读次数:4
部署单机版的hadoop+hive小记
前言 在本机模拟器的ubuntu18版本上进行的部署测试,参考的官方文档: hadoop: 链接地址 hive: 链接地址 使用的版本: hadoop: 3.2.1 hive: 3.1.2 全程是使用root账号进行的配置。 hadoop安装配置 hadoop使用的是虚拟集群,即单机模拟集群,dat ...
分类:其他好文   时间:2020-12-05 10:52:38    阅读次数:7
按位使用数据以及union
按位使用数据以及union 例如:typedef union tagData{ long x:2; long y:4; long data;}data_item,*pdata_item; 上述是一个联合体,联合体的对象用的空间是类型中占用内存最大的哪个,例如上例中data_item变量占用4个字节。 ...
分类:其他好文   时间:2020-12-04 11:18:07    阅读次数:7
图解Spark系列:RDD的创建与执行
设计Spark程式过程中最初始的是创建RDD数据集,该数据集来自定义的源数据,当RDD数据集初始后,再通过算子对RDD数据集作转换生成后续的数据集。Spark中提供了多种创建RDD数据集的方法,比如:通过内存集合创建、或使用本地文件创建以及HDFS文件创建RDD数据集。最常见的是第三种方式,生产环境下通常会读取并基于HDFS上存储的数据来创建并进行离线批处理。典型的RDD创建流程为,通过输入算子(
分类:其他好文   时间:2020-12-04 10:59:58    阅读次数:4
为什么会出现浏览器兼容问题?
为什么会出现浏览器兼容问题? 由于各大主流浏览器由不同的厂家开发,所用的核心架构和代码也很难重和,这就为各种莫名其妙的Bug(代码错误)提供了温床。再加上各大厂商出于自身利益考虑而设置的种种技术壁垒,都让CSS应用起来比想象得要麻烦。浏览器的兼容问题是我们必须去克服的。 CSS Bug、CSS Ha ...
分类:其他好文   时间:2020-12-03 11:59:22    阅读次数:5
Hive的基本介绍
什么是Hive? Hive:由Facebook开源用于解决海量结构化日志的数据统计工具。 Hive 是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张表,并提供类SQL查询功能。 本质是:将SQL转化成MapReduce程序。 1、Hive 处理的数据存储在HDFS; 2、Hiv ...
分类:其他好文   时间:2020-12-03 11:43:46    阅读次数:3
大数据学习(14)—— HBase进阶
HBase读写流程 在网上找了一张图,这个画的比较简单,就拿这个图来说吧。 写流程 1.当Client发起一个Put请求时,首先访问Zookeeper获取hbase:meta表。 2.从hbase:meta表查询即将写入数据的Region位置。 3.Client向目标RegionServer发出写命 ...
分类:其他好文   时间:2020-12-02 12:39:17    阅读次数:7
zookeeper技术介绍[python书籍福利]
zookeeper技术介绍[python书籍福利]Zookeeper技术介绍ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和
分类:编程语言   时间:2020-12-02 11:57:17    阅读次数:3
flink高可用(standlone)的配置和问题解决
首先还是修改flink安装目录的conf目录下flink-conf.yaml文件,找到如下的三个配置,把原本的注释放开,然后配置自己的hdfs地址和zookeeper地址。 需要注意的是,我这里的hdfs是之前的ha集群,mycluster是我的hdfs的集群名,至于后边的内容会在hdfs中创建路径 ...
分类:其他好文   时间:2020-12-01 12:17:20    阅读次数:7
28781条   上一页 1 ... 28 29 30 31 32 ... 2879 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!