简单的Kafka Consumer不接收消息

时间:2017-06-26 13:26:40

标签: java maven apache-kafka kafka-consumer-api

我是Kafka的新手,并在KafkaConsumerKafkaProducer上运行了一个简单的kafka消费者/制作人示例。当我从终端运行消费者时,消费者正在接收消息,但我无法使用Java代码进行监听。 我也在StackoverFlow上搜索了类似的问题(链接:Link1Link2)并尝试了解决方案,但似乎没有什么对我有用。 Kafka版本:kafka_2.10-0.10.2.1和相应的maven依赖在pom中使用。

生产者和消费者的Java代码:

public class SimpleProducer {
public static void main(String[] args) throws InterruptedException {
    Properties props = new Properties();
    props.put("bootstrap.servers", "localhost:9094");
    props.put("acks", "all");
    props.put("retries", 0);
    props.put("batch.size", 16384);
    props.put("linger.ms", 1);
    props.put("buffer.memory", 33554432);
    props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
    props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

    Producer<String, String> producer = new KafkaProducer<>(props);
    for(int i = 0; i < 10; i++)
        producer.send(new ProducerRecord<String, String>("topic3", Integer.toString(i), Integer.toString(i)));

    producer.close();

}}

public class SimpleConsumer {

public static void main(String[] args) {
    Properties props = new Properties();
    props.put("bootstrap.servers", "localhost:9094");
    props.put("group.id", "test");
    props.put("zookeeper.connect", "localhost:2181");
    props.put("enable.auto.commit", "true");
    props.put("auto.commit.interval.ms", "1000");
    props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
    props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
    KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);
    consumer.subscribe(Arrays.asList("topic3", "topic2"));
    while (true) {
        ConsumerRecords<String, String> records = consumer.poll(100);
        for (ConsumerRecord<String, String> record : records)
            System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value());
    }
}}

启动kafka: bin/kafka-server-start.sh config/server.properties(我已经在属性文件中设置了port,brokerid)

6 个答案:

答案 0 :(得分:5)

首先使用以下方法检查所有组的可用内容:

./kafka-consumer-groups.sh --bootstrap-server localhost:9092 --list

然后使用以下cmd检查您的主题所属的组:

./kafka-consumer-groups.sh --bootstrap-server localhost:9092 --group <your group name> --describe

找到您的主题和关联的群组名称后(如果它不属于默认群组,只需将 group.id 替换为您的群组),请尝试使用以下道具并让我知道它是否有效:< / p>

  props.put("bootstrap.servers", "localhost:9092");
  props.put("group.id", "test-consumer-group"); // default topic name
  props.put("enable.auto.commit", "true");
  props.put("auto.commit.interval.ms", "1000");
  props.put("session.timeout.ms", "30000");
  props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
  props.put("value.deserializer","org.apache.kafka.common.serialization.StringDeserializer");
  KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(props);

  //Kafka Consumer subscribes list of topics here.
  consumer.subscribe(Arrays.asList(topicName));  // replace you topic name

  //print the topic name

  java.util.Map<String,java.util.List<PartitionInfo>> listTopics = consumer.listTopics();
  System.out.println("list of topic size :" + listTopics.size());

  for(String topic : listTopics.keySet()){
      System.out.println("topic name :"+topic);
  }

答案 1 :(得分:0)

在运行生产者之前运行消费者,以便消费者首先向组协调员注册。当你运行生产者时,消费者会消费消息。第一次你运行消费者它注册组协调员。找出消费者消费消费的消息使用此kafka-consumer-offset-checker.bat --group group-1 --topic testing-1 --zookeeper localhost:2181这表明消费者已经消耗了该主题的最后偏移量。

答案 2 :(得分:0)

清除您访问 kafka 的驱动器中的'tmp'文件夹。然后打开新的“ cmd”命令窗口!重新启动服务器,然后在命令窗口中发布“ .\bin\windows\kafka-console-consumer.bat --bootstrap-server localhost:9092 --topic H1 --from-beginning”此代码以运行使用者,而不会出现任何错误

答案 3 :(得分:0)

尝试将enable.partition.eof参数设置为false

props.put("enable.partition.eof", "false");

对我有用。

答案 4 :(得分:0)

尝试此代码对我有用。

Properties props = new Properties();
props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,
"org.apache.kafka.common.serialization.StringDeserializer");
props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, 
"org.apache.kafka.common.serialization.StringDeserializer");
props.put(ConsumerConfig.GROUP_ID_CONFIG, "test-consumer-group");
KafkaConsumer<String, String> myConsumer = new KafkaConsumer<>(props);
myConsumer.subscribe(Arrays.asList(topicName));
myConsumer.subscribe(topics);

try{
      while (true) {
              ConsumerRecords<String, String> records = myConsumer.poll(100);
              for (ConsumerRecord<String, String> record : records) {
                  System.out.println(String.format( "Topic: %s, Partition: %d, Offset: %d, key: %s, value: %s",
                          record.topic(),record.partition(), record.offset(),record.key(),record.value()
                  ));
              }}
    }catch (Exception e){
        System.out.println(e.getMessage());
    }finally {
        myConsumer.close();
    }

答案 5 :(得分:0)

在Windows 7本地安装时,我遇到了最新版本的kafka kafka_2.13-2.6.0.tgz(asc,sha512),该问题未从生产者传递到消费者。 检查并发现未创建“消费者补偿”主题,不确定原因。

安装了早期版本的Kakfa kafka_2.12-2.5.0.tgz,它开始工作。消费者补偿主题是使用旧版本创建的