Kafka Connect Elasticsearch Connector

时间:2019-01-17 10:14:21

标签: elasticsearch apache-kafka apache-kafka-connect debezium

我们在使用Kafka Connect Elasticsearch Connector强制将来自Kafka主题的消息发送到Elasticsearch的顺序时遇到问题。在主题中,消息以正确的顺序排列并具有正确的偏移量,但是如果快速连续创建了两条具有相同ID的消息,则会将它们以错误的顺序间歇地发送给Elasticsearch。这将导致Elasticsearch从倒数第二条消息中获取数据,而不是从最后一条消息中获取数据。如果我们在该主题的两条消息之间添加一些人为的一秒或两秒的延迟,问题就会消失。

文档here指出:

  

使用分区级别确保文档级别的更新顺序   Kafka偏移量作为文档版本,并使用version_mode=external

但是我找不到关于version_mode设置的任何文档,以及是否需要将其设置为某个地方。

在来自Kafka Connect系统的日志文件中,我们可以看到两个消息(对于相同的ID)以错误的顺序处理,相隔数毫秒。看起来这些线程是在不同线程中处理的,这可能很重要。另外请注意,此主题只有一个分区,因此所有消息都在同一分区中。

下面是日志摘要,为清晰起见对其进行了略微编辑。 Kafka主题中的消息由Debezium填充,我认为这与问题无关,但很方便地恰好包含了时间戳值。这表明消息的​​处理顺序错误(尽管它们在Debezium填充的Kafka主题中以正确的顺序排列):

[2019-01-17 09:10:05,671] DEBUG http-outgoing-1 >> "
{
  "op": "u",
  "before": {
    "id": "ac025cb2-1a37-11e9-9c89-7945a1bd7dd1",
    ... << DATA FROM BEFORE SECOND UPDATE >> ...
  },
  "after": {
    "id": "ac025cb2-1a37-11e9-9c89-7945a1bd7dd1",
    ... << DATA FROM AFTER SECOND UPDATE >> ...
  },
  "source": { ... },
  "ts_ms": 1547716205205
}
" (org.apache.http.wire)

...

[2019-01-17 09:10:05,696] DEBUG http-outgoing-2 >> "
{
  "op": "u",
  "before": {
    "id": "ac025cb2-1a37-11e9-9c89-7945a1bd7dd1",
    ... << DATA FROM BEFORE FIRST UPDATE >> ...
  },
  "after": {
    "id": "ac025cb2-1a37-11e9-9c89-7945a1bd7dd1",
    ... << DATA FROM AFTER FIRST UPDATE >> ...
  },
  "source": { ... },
  "ts_ms": 1547716204190
}
" (org.apache.http.wire)

是否有人知道在将消息发送到Elasticsearch时如何强制此连接器维护给定文档ID的消息顺序?

1 个答案:

答案 0 :(得分:2)

问题是我们的Elasticsearch连接器的key.ignore配置设置为true

我们在Github源代码中为连接器发现了这一行(在DataConverter.java中):

final Long version = ignoreKey ? null : record.kafkaOffset();

这意味着,使用key.ignore=true,正在生成并发送到Elasticsearch的索引操作实际上是“无版本的”……基本上,Elasticsearch为文档接收的最后一组数据将替换任何先前的数据。数据,即使它是“旧数据”。

从查看日志文件来看,连接器似乎有多个使用者线程读取源主题,然后将转换后的消息传递给Elasticsearch,但是传递给Elasticsearch的顺序不一定与主题顺序相同。

使用key.ignore=false,每条Elasticsearch消息现在都包含一个等于Kafka记录偏移量的版本值,并且Elasticsearch如果已经接收到以后的“版本”数据,则拒绝更新该文档的索引数据。 / p>

那不是解决此问题的 only 东西。我们仍然必须对来自Kafka主题的Debezium消息进行转换,以将密钥转换为Elasticsearch满意的纯文本格式:

"transforms": "ExtractKey",
"transforms.ExtractKey.type": "org.apache.kafka.connect.transforms.ExtractField$Key",
"transforms.ExtractKey.field": "id"