1.1 flume(日志收集系统) 1.1.1 flume介绍 flume是一个分布式、可靠、和高可用的海量日志采集、聚合和传输的系统。支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(比如文本、HDFS、Hbase等)的能力 。 flu ...
分类:
Web程序 时间:
2019-08-14 12:53:23
阅读次数:
131
以下是整理flume的各种采集方式代码直接用一、source类netcata1.sources=r1a1.sinks=k1a1.channels=c1a1.sources.r1.type=netcata1.sources.r1.bind=linux1a1.sources.r1.port=666a1.sinks.k1.type=loggera1.channels.c1.type=memorya1
分类:
Web程序 时间:
2019-08-11 00:57:43
阅读次数:
399
简单概述 最近在了解ELK做日志采集相关的内容,这篇文章主要讲解通过filebeat来实现日志的收集。日志采集的工具有很多种,如fluentd, flume, logstash,betas等等。首先要知道为什么要使用filebeat呢?因为logstash是jvm跑的,资源消耗比较大,启动一个log ...
分类:
其他好文 时间:
2019-08-09 19:55:07
阅读次数:
201
1.启动gp: gpstart 2.重启gp: 3.不重启数据库,reload配置文件: 4.停止gp: 该命令等待所有事务完成后才进行停止 5.快速停止gp: ...
分类:
其他好文 时间:
2019-08-09 15:48:41
阅读次数:
222
大数据平台是为了满足企业对于数据的各种要求而产生的。大数据平台:是指以处理海量数据存储、计算及不间断流数据实时计算等场景为主的一套基础设施。典型的包括Hadoop系列、Spark、Storm、Flink以及Flume/Kafka等集群。既可以采用开源平台,也可以采用华为、星环等商业级解决方案,既可以部署在私有云上,也可以部署在公有云上。大数据平台的功能:1、容纳海量数据利用计算机群集的存储和计算能
分类:
其他好文 时间:
2019-08-08 16:04:32
阅读次数:
108
1. Phoenix Phoenix是HBase的开源SQL皮肤。可以使用标准JDBC API代替HBase客户端API来创建表,插入数据和查询HBase数据。 特点 1) 容易集成:如Spark,Hive,Pig,Flume和Map Reduce。 2) 性能好:直接使用HBase API以及协处 ...
分类:
其他好文 时间:
2019-08-06 13:54:25
阅读次数:
231
Flume Kafka 测试案例,Flume 的配置。 1. 启动 kafka。 2. 创建 kafka topic,flume配置中的 topic 为 t1。 3. 启动 flume。 4. 启动 kafka 的消费者,来观察看是否成功。 5. 由于 flume 配置文件中监控的命令是 netca ...
分类:
Web程序 时间:
2019-07-28 20:18:07
阅读次数:
144
Spark-Streaming DirectKafka count 统计跟直接 kafka 统计类似,只不过这里使用的是 Direct 的方式,Direct方式使用的 kafka 低级API,不同的地方主要是在 createDirectStream这里。 统计代码如下 启动相关的 flume,kaf ...
分类:
其他好文 时间:
2019-07-28 19:56:51
阅读次数:
109
Streaming 统计来自 kafka 的数据,这里涉及到的比较,kafka 的数据是使用从 flume 获取到的,这里相当于一个小的案例。 1. 启动 kafka 2. 启动 flume flume 配置文件如下 这里 flume 是的数据是来自一个文件,只要这个文件有数据进入,就会被flume ...
分类:
其他好文 时间:
2019-07-28 19:55:02
阅读次数:
110
Flume应用开发 要求: Flume应用场景Flume的核心是把数据从数据源收集过来,在送到目的地。为了保证输送一定成功,发送到目的地之前,会先缓存数据,待数据真正的到达目的地后,删除自己缓存的数据。Flume采用流式方法采集和传输数据,程序配置好后,不需要外部条件触发下,一直监控数据源,源源不断 ...
分类:
Web程序 时间:
2019-07-28 17:10:09
阅读次数:
140