kafka之重复消费数据
时间: 2018-10-07来源:OSCHINA
前景提要
「深度学习福利」大神带你进阶工程师,立即查看>>>
在进入主题之前,我们先思考一个问题。
问题 kafka消费者使用自动提交的模式,提交间隔为2s,消费者在获取数据的时候处理0.5s,从kafka拉取过来的数据只够处理1秒。那么消费者下次拉取过来的数据是否是已经消费完的数据?或者说由于数据已经消费,但是偏移量没有被提交,是否会造成下次获取的数据是从旧的偏移量开始拉取?
答案 不会是旧数据,kafka的消费者也有自己偏移量,这个偏移量是从kafka中读取的量,和kafka提交的偏移量不一样。假设变成自动提交偏移量,而且没有写提交的逻辑,同一个消费者,除了第一次或者rebalance会根据已提交的offset来获取数据,剩下的时候都是根据自己本地的偏移量来获取的。这个模式有点类似于用桶取水,用瓢来喝水。消费者就是桶的角色,poll就是瓢的角色。
重复消费的情况
我们把重复消费的情况分为2种,一种是想避免的,一种是故意如此的。
想避免的场景 消费者使用了自动提交模式,当还没有提交的时候,有新的消费者加入或者移除,发生了rebalance。再次消费的时候,消费者会根据提交的偏移量来,于是重复消费了数据。 使用异步提交,并且在callback里写了失败重试,但是没有注意顺序。例如提交5的时候,发送网络故障,由于是异步,程序继续运行,再次提交10的时候,提交成功,此时正好运行到5的重试,并且成功。当发生了rebalance,又会重复消费了数据。
注:这里不讨论那个消费者提交的offset的作用。
故意的场景 使用不同的组消费同一个topic。改个 group.id属性即可。 自己手动提交偏移量。 这里的麻烦的地方就是需要理解开头的问题,并不是说你提交完就可以了。你得想个办法去读取那个偏移量再次消费。下面提供一个暴力的手段,关闭消费者,然后再次开启新的。 public static void consumer(Properties properties,String info) { System.out.println(info); KafkaConsumer<String, String> kafkaConsumer = new KafkaConsumer(properties); kafkaConsumer.subscribe(Arrays.asList(new String[]{"hello"})); boolean flag = false; while (true) { ConsumerRecords<String, String> poll = kafkaConsumer.poll(100); if (!poll.isEmpty()) { for (ConsumerRecord<String, String> o : poll) { System.out.println(o.value() + o.offset()); //假设场景为重复消费3,这里需要根据业务来提交便宜量 if (o.offset() == 3) { //手动提交偏移量 Map<TopicPartition, OffsetAndMetadata> currentOffset = new HashMap<TopicPartition, OffsetAndMetadata>(); //提交的偏移量,这个偏移量就是下次消费的第一条数据 currentOffset.put(new TopicPartition(o.topic(), o.partition()), new OffsetAndMetadata(o.offset()+1, "")); kafkaConsumer.commitSync(currentOffset); flag = true; break; } } } if(flag){ kafkaConsumer.close(); break; } } }
这里也必须注意,kafka并不是数据库,他保存的数据有持久化的时间和大小的限制,可能你提交的偏移量的数据已经被kafka清理掉了。

科技资讯:

科技学院:

科技百科:

科技书籍:

网站大全:

软件大全:

热门排行