1.ProducerRecord 含义:发送给Kafka Broker的key/value值对2.内部数据结构:-- Topic(名字)-- PartitionID (可选)-- Key[(可选)-- Value3.生产者记录(简称PR)的发送逻辑: 若指定Partition ID,则PR被发送至指...
分类:
其他好文 时间:
2015-05-25 18:07:47
阅读次数:
208
美团的日志收集系统负责美团的所有业务日志的收集,并分别给Hadoop平台提供离线数据和Storm平台提供实时数据流。美团的日志收集系统基于Flume设计和搭建而成。《基于Flume的美团日志收集系统》将分两部分给读者呈现美团日志收集系统的架构设计和实战经验。第一部分架构和设计,将主要着眼于日志收集系...
分类:
Web程序 时间:
2015-05-25 16:33:38
阅读次数:
173
在《基于Flume的美团日志收集系统(一)架构和设计》中,我们详述了基于Flume的美团日志收集系统的架构设计,以及为什么做这样的设计。在本节中,我们将会讲述在实际部署和使用过程中遇到的问题,对Flume的功能改进和对系统做的优化。1 Flume的问题总结在Flume的使用过程中,遇到的主要问题如下...
分类:
Web程序 时间:
2015-05-25 16:29:31
阅读次数:
172
flume是一个分布式、可靠、和高可用的海量日志采集、聚合和传输的系统。支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(比如文本、HDFS、Hbase等)的能力 。 一、什么是Flume? flume 作为 cloudera 开发...
分类:
Web程序 时间:
2015-05-25 16:15:53
阅读次数:
258
参考链接hadoop家族、strom、spark、Linux、flume等jar包、安装包汇总下载(持续更新)http://www.aboutyun.com/thread-8178-1-1.htmlWin7中使用Eclipse连接虚拟机中的Ubuntu中的Hadoop2.4经验总结http://ww...
分类:
其他好文 时间:
2015-05-25 12:56:34
阅读次数:
139
创建一个Kafka的主题,连接到zk集群,副本因子3,分区3,主题名是test111 [root@h5 kafka]# bin/kafka-topics.sh --create --zookeeper h5:2181 --topic test111 --replication-factor 3 .....
分类:
编程语言 时间:
2015-05-24 17:20:41
阅读次数:
3423
1、创建一个agent,sink类型需指定为自定义sink vi /usr/local/flume/conf/agent3.conf agent3.sources=as1 agent3.channels=c1 agent3.sinks=s1 agent3.sources.as1.type...
分类:
Web程序 时间:
2015-05-24 17:15:54
阅读次数:
342
背景
需要实现一个分布式监控程序,Agent把监控消息发送到Kafka,由消费者进程使用High Level API从Kafka获取消息
需求
随着Agent数量的增加,每秒产生的消息数量也在增加,考虑到High Level的API使消费者进程与分区的固定关系,所以需要使用Zookeeper来维护一个消费者的集群,使消费者可以根据Kafka分区的数量以及消费者集群的个数,动态的分配每...
分类:
系统相关 时间:
2015-05-24 11:36:47
阅读次数:
722
四、TopicDeletionManager.scala管理topic删除的状态机,具体逻辑如下:TopicCommand发送topic删除命令,在zk的/admin/delete_topics目录下创建topic节点controller会监听该zk目录下任何节点的变更并为对应的topic开启删除操...
分类:
其他好文 时间:
2015-05-22 13:19:17
阅读次数:
227
最近做一个项目的POC测试,打通了DB2->OGG->KAFKA->SPARK STREAMING->SEQUOIADB整套流程, 完成数据的实时更新,下面讲下kafka的安装kafka的安装需要zookeeper,kafka自己带了zookeeper组件,只要自己配置下config/zoookee...
分类:
其他好文 时间:
2015-05-22 13:07:36
阅读次数:
187