微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

卡夫卡流产生太多的消费者偏移量,用于精确_一次语义

如何解决卡夫卡流产生太多的消费者偏移量,用于精确_一次语义

我们有一个应用程序,它使用 kafka 流从主题读取 -> 处理 -> 保存到另一个主题。我们的应用程序使用exactly_once 语义。一切似乎都很好,直到我们将应用程序从 kafka-streams 2.1.1 更新到 2.6.0 版。我们用完了磁盘空间,原因是__consumer_offsets 主题有大量数据。

我调查了 __consumer_offsets 主题,每 100 毫秒写入每个主题和分区的偏移信息。 我知道 exactly_once 语义将提交间隔更改为 100 毫秒,这是有道理的,但我们在 2.1.1 版本中没有注意到这种行为。我试图比较 2.1.1 和 2.6.0 之间的代码,但我没有发现解释这种行为的根本区别。

感谢您的回答

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。