Kafka
- 2021-05-28 16:00:02
- Post By 高景洋
背景: 业务中出现kafka重复消费问题,导致同一条数据重复处理多次,并推给下游业务方,增加了下游业务方的数据处理压力。 产生重复消费的原因: 1、产生重复消费的原因,是kafka自身问题的可能性很少 2、通常原因为 正在运行中的程序,被kill掉,导致offset未提交成功。该情况下,程序下次拉起来时,会接着上次未提交成功的offset继续消费,导致部分数据重复消费。 3、我们的原因(坑): 消费代码如下 for msg in consumer: XXXXXXXxXXXXXXX XXXXXXXXXXXXXXX if data_source_id == JobDataSourceType.KafkaCollectResult.value and period_minutes < cycle_period_minutes: #
查看全文 | 浏览次数(3283)
热门文章
- Spark reduceByKey算子学习使用详解
- linux Centos安装nginx时 支持通过GeoIP屏蔽国外ip安装及配置方法
- Redis慢查询处理
- cenos sftp 报错 WARNING: REMOTE HOST IDENTIFICATION HAS CHANGED!
- Linux常用命令汇总
- 如何清除nginx日志
- hive中字符串转日期相减加一天函数
- C#是世界上最好的编程语言
- 什么值得买爱情故事 第二章
- 安装mysql报错:repository are already installed but they are not correct for this package.