多线程消费Kafka数据

博客涉及Kafka和Java相关内容,但具体信息缺失。Kafka是常用消息队列,Java是广泛使用的编程语言,二者结合在后端开发等场景有重要应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

import com.base.JavaKafkaConfigurer;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.clients.producer.ProducerConfig;
import java.util.Arrays;
import java.util.Properties;

public class KafkaConsumerDemo {

    //加载kafka.properties
    public static Properties kafkaProperties =  JavaKafkaConfigurer.getKafkaProperties();

    public static Properties initConfig()
    {
        Properties props = new Properties();
        //消息的反序列化方式
        props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");
        props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");

        //设置接入点,即控制台的实例详情页显示的“默认接入点”
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, kafkaProperties.getProperty("bootstrap.servers"));

        //两次poll之间的最大允许间隔
        //请不要改得太大,服务器会掐掉空闲连接,不要超过30000
        props.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, 25000);

        //每次poll的最大数量
        //注意该值不要改得太大,如果poll太多数据,而不能在下次poll之前消费完,则会触发一次负载均衡,产生卡顿
        props.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, 30);

        //当前消费实例所属的消费组,请在控制台申请之后填写
        //属于同一个组的消费实例,会负载消费消息
        props.put(ConsumerConfig.GROUP_ID_CONFIG, kafkaProperties.getProperty("group.id"));

        return props;
    }


    public static void main(String[] args) {

        Properties properties = initConfig();
        int consumerThreadNum = 6; // 可以设置和Topic的分区数据一致,这样一个分区就可以分配一个线程来消费消息。

        String topic  = kafkaProperties.getProperty("topic");
        for (int i = 0; i < consumerThreadNum; i++) {
            new KafkaConsumerThread(properties, topic).start();
        }
    }

    public static class KafkaConsumerThread extends Thread{
        private KafkaConsumer<String, String> kafkaConsumer;

        public KafkaConsumerThread(Properties props, String topic)
        {
            this.kafkaConsumer = new KafkaConsumer<String, String>(props);
            this.kafkaConsumer.subscribe(Arrays.asList(topic));
        }

        public void run()
        {
            try {
                while (true)
                {
                    ConsumerRecords<String, String> records = kafkaConsumer.poll(100);
                    for (ConsumerRecord<String, String> record: records) {
                        System.out.println("Thread num: " + this.getName());
                        System.out.println(String.format("Consume partition:%d offset:%d the message body:%s", record.partition(), record.offset(),record.value()));
                    }
                }
            }
            catch (Exception e)
            {
                e.printStackTrace();
            }finally {
                kafkaConsumer.close();
            }
        }
    }
}

 

要使用Java多线程消费Kafka,可以使用Kafka提供的Consumer API,并将其与Java多线程结合使用。以下是一些基本步骤: 1. 创建Kafka Consumer实例 首先,需要创建一个Kafka Consumer实例。可以使用Kafka提供的工厂类创建一个Consumer实例,如下所示: ```java Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("group.id", "test-group"); KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props); ``` 2. 订阅Topic 接下来,需要订阅一个或多个Topic,以便从Kafka集群中获取数据。可以使用`subscribe()`方法进行订阅,如下所示: ```java consumer.subscribe(Arrays.asList("topic1", "topic2")); ``` 3. 创建消费者线程 为了使用多线程消费Kafka,需要创建一个或多个消费者线程,每个线程负责消费一个Partition的数据线程可以使用Java的Executor框架来创建,如下所示: ```java ExecutorService executor = Executors.newFixedThreadPool(10); while (true) { ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100)); for (ConsumerRecord<String, String> record : records) { executor.submit(new ConsumerThread(record)); } } ``` 在上面的代码中,`poll()`方法获取来自Kafka数据,并将其分配给一个或多个消费者线程进行处理。每个消费者线程都需要实现`Runnable`接口,并在`run()`方法中处理数据。例如: ```java public class ConsumerThread implements Runnable { private final ConsumerRecord<String, String> record; public ConsumerThread(ConsumerRecord<String, String> record) { this.record = record; } @Override public void run() { // 处理数据 System.out.println(Thread.currentThread().getName() + " received message: " + record.value()); } } ``` 在上面的代码中,`ConsumerThread`类实现了`Runnable`接口,并在`run()`方法中处理来自Kafka数据。 4. 关闭Consumer实例 最后,需要在程序退出时关闭Kafka Consumer实例,以释放资源。可以使用`close()`方法进行关闭,如下所示: ```java consumer.close(); ``` 以上就是使用Java多线程消费Kafka的基本步骤。需要注意的是,多线程消费Kafka需要考虑各种并发和线程安全问题,例如数据竞争、重复消费、消息丢失等。因此,在实际应用中需要仔细设计和测试。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值