码迷,mamicode.com
首页 > 其他好文 > 详细

kafka随笔

时间:2017-08-23 23:02:25      阅读:208      评论:0      收藏:0      [点我收藏+]

标签:http   文章   问题   apach   produce   速度   cer   解决方法   bytes   

1.kafka 自0.10 开始提供了一个配置参数 max.poll.records  来控制每次poll消息的条数,解决了之前版本存在的无法有效控制consumer消费速度的问题.

文章链接:https://cwiki.apache.org/confluence/display/KAFKA/KIP-41%3A+KafkaConsumer+Max+Records

文章中提到,当producer大量发送消息时,consumer poll 一次的消息数量可能会很多,如果消费不及时,导致session time out,则会导致broker端认为consumer出现问题,将consumer端剔除,而consumer消费的消息由于time out 也没有commit,从而出现重复消费的问题.

文章中还提到,对于之前版本有两种解决方法,但都不够友好. (1)拉长session time out时间 (2)max.partition.fetch.bytes 减小一次从分区拉取字节数

kafka随笔

标签:http   文章   问题   apach   produce   速度   cer   解决方法   bytes   

原文地址:http://www.cnblogs.com/userrain/p/7420550.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!