Kafka 侦听器的请求/回复和重试策略

如何解决Kafka 侦听器的请求/回复和重试策略

我目前正在为 Kafka 侦听器实现错误处理机制。这就是我想要实现的:当 Kafka Listener 中发生异常时,我想重试处理我的记录 10 次,如果仍然失败,将其发送到死信队列并在有请求时通知发件人/回复场景(例如,返回特定的 RecordFailure 对象)。 我首先定义了一个 ErrorHandler bean,它运行良好,但没有提供在失败时返回值的可能性。然后我开始定义一个 KafkaListenerErrorHandler bean 并将其指定为我的 Kafka Listener 的参数。它允许我返回一个特定的值,但我丢失了 ErrorHandler 定义的重试和死信队列转发策略。最后,我使用 RetryTemplate 和 RecoveryCallback 配置我的容器工厂。我认为它会按预期工作但是当使用 ReplyingKafkaTemplate 发送我的消息时,我总是最终收到超时异常并意识到,因为我定义了一个 RetryTemplate,RetryingMessageListenerAdapter 中的 onMessage() 方法被调用而不是 ReplyingKafkaTemplate 一个.我现在质疑场景本身:将 RetryTemplate、RecoveryCallback 和 ReplyingKafkaTemplate 结合起来使用 Kafka Listener 启用请求/回复与重试策略是否有意义?如果是这样,我在这里错过了什么?

感谢您抽出宝贵时间。

解决方法

由于错误处理程序支持退避和重试,因此在侦听器级别使用重试模板大多是多余的。

解决您的特定问题的一种方法是启用 deliveryAttemptHeader

https://docs.spring.io/spring-kafka/docs/current/reference/html/#delivery-header

然后,在您的侦听器错误处理程序中,检查标题,当达到特定尝试次数时,将消息发布到死信主题并返回错误结果。在达到计数之前重新抛出异常,以便 SeekToCurrentErrorHandler 重新传递记录。

只需确保 STCEH 有足够的重试次数,以便它始终重试,从而使侦听器错误处理程序能够完成其工作。

编辑

这是一个示例,展示了如何通过在标头中添加原始 ConsumerRecord 来使用侦听器错误处理程序中的 DLPR...

@SpringBootApplication
public class So66982480Application {

    public static void main(String[] args) {
        SpringApplication.run(So66982480Application.class,args);
    }

    @Bean
    ReplyingKafkaTemplate<String,String,String> rkt(ProducerFactory<String,String> pf,ConcurrentKafkaListenerContainerFactory<String,String> factory,KafkaTemplate<String,String> template) {

        factory.getContainerProperties().setDeliveryAttemptHeader(true);
        factory.setReplyTemplate(template);
        ConcurrentMessageListenerContainer<String,String> container = factory.createContainer("so66982480-replies");
        container.getContainerProperties().setGroupId("so66982480-replies");
        return new ReplyingKafkaTemplate<>(pf,container);
    }

    @Bean
    RecordMessageConverter converter() {
        MessagingMessageConverter converter = new MessagingMessageConverter() {

            @Override
            public Message<?> toMessage(ConsumerRecord<?,?> record,Acknowledgment acknowledgment,Consumer<?,?> consumer,Type type) {

                Message<?> message = super.toMessage(record,acknowledgment,consumer,type);
                return MessageBuilder.fromMessage(message)
                        .setHeader(KafkaHeaders.RAW_DATA,record)
                        .build();
            }

        };
        return converter;
    }

    @Bean
    KafkaTemplate<String,String> template(ProducerFactory<String,String> pf) {
        return new KafkaTemplate<>(pf);
    }

    @Bean
    NewTopic topic1() {
        return TopicBuilder.name("so66982480").partitions(1).replicas(1).build();
    }

    @Bean
    NewTopic topic2() {
        return TopicBuilder.name("so66982480-replies").partitions(1).replicas(1).build();
    }

    @Bean
    NewTopic topic3() {
        return TopicBuilder.name("so66982480.DLT").partitions(1).replicas(1).build();
    }

    @Bean
    KafkaListenerErrorHandler eh(DeadLetterPublishingRecoverer recoverer) {
        return (msg,ex) -> {
            if (msg.getHeaders().get(KafkaHeaders.DELIVERY_ATTEMPT,Integer.class) > 9) {
                recoverer.accept(msg.getHeaders().get(KafkaHeaders.RAW_DATA,ConsumerRecord.class),ex);
                return "FAILED";
            }
            throw ex;
        };
    }

    @Bean
    DeadLetterPublishingRecoverer recoverer(KafkaOperations<String,String> template) {
        return new DeadLetterPublishingRecoverer(template);
    }

    @KafkaListener(id = "so66982480",topics = "so66982480",errorHandler = "eh")
    @SendTo
    public String listen(String in) {
        throw new RuntimeException("test");
    }

    @KafkaListener(id = "so66982480.DLT",topics = "so66982480.DLT")
    public void dlt(String in) {
        System.out.println("From DLT:" + in);
    }

    @Bean
    public ApplicationRunner runner(ReplyingKafkaTemplate<String,String> template) {
        return args -> {
            RequestReplyFuture<String,String> future =
                    template.sendAndReceive(new ProducerRecord<String,String>("so66982480",null,"test"),Duration.ofSeconds(30));
            System.out.println(future.getSendFuture().get(10,TimeUnit.SECONDS).getRecordMetadata());
            System.out.println(future.get(30,TimeUnit.SECONDS).value());
        };
    }

}
spring.kafka.consumer.auto-offset-reset=earliest
From DLT:test
FAILED

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


使用本地python环境可以成功执行 import pandas as pd import matplotlib.pyplot as plt # 设置字体 plt.rcParams[&#39;font.sans-serif&#39;] = [&#39;SimHei&#39;] # 能正确显示负号 p
错误1:Request method ‘DELETE‘ not supported 错误还原:controller层有一个接口,访问该接口时报错:Request method ‘DELETE‘ not supported 错误原因:没有接收到前端传入的参数,修改为如下 参考 错误2:cannot r
错误1:启动docker镜像时报错:Error response from daemon: driver failed programming external connectivity on endpoint quirky_allen 解决方法:重启docker -&gt; systemctl r
错误1:private field ‘xxx‘ is never assigned 按Altʾnter快捷键,选择第2项 参考:https://blog.csdn.net/shi_hong_fei_hei/article/details/88814070 错误2:启动时报错,不能找到主启动类 #
报错如下,通过源不能下载,最后警告pip需升级版本 Requirement already satisfied: pip in c:\users\ychen\appdata\local\programs\python\python310\lib\site-packages (22.0.4) Coll
错误1:maven打包报错 错误还原:使用maven打包项目时报错如下 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-resources-plugin:3.2.0:resources (default-resources)
错误1:服务调用时报错 服务消费者模块assess通过openFeign调用服务提供者模块hires 如下为服务提供者模块hires的控制层接口 @RestController @RequestMapping(&quot;/hires&quot;) public class FeignControl
错误1:运行项目后报如下错误 解决方案 报错2:Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.8.1:compile (default-compile) on project sb 解决方案:在pom.
参考 错误原因 过滤器或拦截器在生效时,redisTemplate还没有注入 解决方案:在注入容器时就生效 @Component //项目运行时就注入Spring容器 public class RedisBean { @Resource private RedisTemplate&lt;String
使用vite构建项目报错 C:\Users\ychen\work&gt;npm init @vitejs/app @vitejs/create-app is deprecated, use npm init vite instead C:\Users\ychen\AppData\Local\npm-
参考1 参考2 解决方案 # 点击安装源 协议选择 http:// 路径填写 mirrors.aliyun.com/centos/8.3.2011/BaseOS/x86_64/os URL类型 软件库URL 其他路径 # 版本 7 mirrors.aliyun.com/centos/7/os/x86
报错1 [root@slave1 data_mocker]# kafka-console-consumer.sh --bootstrap-server slave1:9092 --topic topic_db [2023-12-19 18:31:12,770] WARN [Consumer clie
错误1 # 重写数据 hive (edu)&gt; insert overwrite table dwd_trade_cart_add_inc &gt; select data.id, &gt; data.user_id, &gt; data.course_id, &gt; date_format(
错误1 hive (edu)&gt; insert into huanhuan values(1,&#39;haoge&#39;); Query ID = root_20240110071417_fe1517ad-3607-41f4-bdcf-d00b98ac443e Total jobs = 1
报错1:执行到如下就不执行了,没有显示Successfully registered new MBean. [root@slave1 bin]# /usr/local/software/flume-1.9.0/bin/flume-ng agent -n a1 -c /usr/local/softwa
虚拟及没有启动任何服务器查看jps会显示jps,如果没有显示任何东西 [root@slave2 ~]# jps 9647 Jps 解决方案 # 进入/tmp查看 [root@slave1 dfs]# cd /tmp [root@slave1 tmp]# ll 总用量 48 drwxr-xr-x. 2
报错1 hive&gt; show databases; OK Failed with exception java.io.IOException:java.lang.RuntimeException: Error in configuring object Time taken: 0.474 se
报错1 [root@localhost ~]# vim -bash: vim: 未找到命令 安装vim yum -y install vim* # 查看是否安装成功 [root@hadoop01 hadoop]# rpm -qa |grep vim vim-X11-7.4.629-8.el7_9.x
修改hadoop配置 vi /usr/local/software/hadoop-2.9.2/etc/hadoop/yarn-site.xml # 添加如下 &lt;configuration&gt; &lt;property&gt; &lt;name&gt;yarn.nodemanager.res