什么是Hive? Hive:由Facebook开源用于解决海量结构化日志的数据统计工具。 Hive 是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张表,并提供类SQL查询功能。 本质是:将SQL转化成MapReduce程序。 1、Hive 处理的数据存储在HDFS; 2、Hiv ...
分类:
其他好文 时间:
2020-12-03 11:43:46
阅读次数:
3
Flink的优势和特点: 一、同时支持高吞吐、低延迟、高性能 Flink是目前开源社区中唯一一套集高吞吐、低延迟、高性能三者于一身的分布式流式数据处理框架。Apache Spark也只能兼顾高吞吐和高性能特点,主要是因为Spark Streaming流式计算中无法做到低延迟保障;而流式计算框架Apa ...
分类:
其他好文 时间:
2020-12-03 11:33:38
阅读次数:
5
HBase读写流程 在网上找了一张图,这个画的比较简单,就拿这个图来说吧。 写流程 1.当Client发起一个Put请求时,首先访问Zookeeper获取hbase:meta表。 2.从hbase:meta表查询即将写入数据的Region位置。 3.Client向目标RegionServer发出写命 ...
分类:
其他好文 时间:
2020-12-02 12:39:17
阅读次数:
7
zookeeper技术介绍[python书籍福利]Zookeeper技术介绍ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和
分类:
编程语言 时间:
2020-12-02 11:57:17
阅读次数:
3
>.ClouderaManager功能 1.1>.管理监控集群主机(主要监控硬件和软件的信息); 1.2>.同一管理配置(主要是针对服务,比如hdfs,hbase等等); 1.3>.管理维护Hadoop平台系统; 2>.ClouderaManager的一些常见名词 2.1>.主机-host 2.2> ...
分类:
其他好文 时间:
2020-12-01 11:54:36
阅读次数:
3
前段时间跟一个朋友聊起kafka,flint,spark这些是不是某种分布式运算框架。我自认为的分布式运算框架最基础条件是能够把多个集群节点当作一个完整的系统,然后程序好像是在同一台机器的内存里运行一样。当然,这种集成实现方式有赖于底层的一套消息系统。这套消息系统可以把消息随意在集群各节点之间自由传 ...
分类:
其他好文 时间:
2020-11-30 16:09:25
阅读次数:
9
主要内容 1. 协同过滤思想2. 推荐系统架构3. 推荐系统流程4. 推荐系统处理数据流程。5. python 文件预处理 Hive 数据。6. dubbo 服务使用。 一、协同过滤 协同过滤(Collaborative Filtering)技术,是推荐系统中应用最为广泛的技术之一,协同过滤算法主要 ...
分类:
其他好文 时间:
2020-11-30 15:32:24
阅读次数:
7
###Spark中的UDF Spark1.6只能创建临时UDF,不支持创建持久化的UDF。 从Spark-2.0开始,SparkSQL支持持久化的UDF,目前看来是支持UDAF ###Spark中的UDF 过程 (1)自定义UDF类,实现UDF1/2/3....22中的接口之一,其中UDF后跟的数字 ...
分类:
其他好文 时间:
2020-11-26 15:06:55
阅读次数:
6
MapReduce既是一个编程模型,也是一个计算组件,处理的过程分为两个阶段,Map阶段:负责把任务分解为多个小任务,Reduce负责把多个小任务的处理结果进行汇总。其中Map阶段主要输入是一对Key-Value,经过map计算后输出一对Key-Value值;然后将相同Key合并,形成Key-Value集合;再将这个Key-Value集合转入Reduce阶段,经过计算输出最终Key-Value结果集。
分类:
其他好文 时间:
2020-11-26 14:53:23
阅读次数:
6
1.任务: 列出HBase所有的表的相关信息,例如表名 describe 在终端打印出指定的表的所有记录数据 scan 向已经创建好的表添加和删除指定的列族或列 put 清空指定的表的所有记录数据 delete 统计表的行数 count 2.关系型数据库中的表和数据(教材P92上),要求将其转换为适 ...
分类:
其他好文 时间:
2020-11-26 14:35:57
阅读次数:
4