在Flink中解析JSON时如何处理异常

时间:2018-07-12 09:09:58

标签: apache-flink flink-streaming

我正在使用flink 1.4.2从Kafka读取数据,并使用ObjectNode将其解析为JSONDeserializationSchema。如果传入记录不是有效的JSON,则我的Flink作业将失败。我想跳过破记录,而不是使工作失败。

FlinkKafkaConsumer010<ObjectNode> kafkaConsumer =
                new FlinkKafkaConsumer010<>(TOPIC, new JSONDeserializationSchema(), consumerProperties);
DataStream<ObjectNode> messageStream = env.addSource(kafkaConsumer);
messageStream.print();

如果Kafka中的数据不是有效的JSON,则会收到以下异常。

Job execution switched to status FAILING.
org.apache.flink.shaded.jackson2.com.fasterxml.jackson.core.JsonParseException: Unrecognized token 'This': was expecting ('true', 'false' or 'null')
 at [Source: [B@4f522623; line: 1, column: 6]
Job execution switched to status FAILED.
Exception in thread "main" org.apache.flink.runtime.client.JobExecutionException: Job execution failed.

3 个答案:

答案 0 :(得分:3)

最简单的解决方案是实现自己的DeserializationSchema并包装JSONDeserializationSchema。然后,您可以捕获异常并忽略它或执行自定义操作。

答案 1 :(得分:2)

如@twalthr所建议,我通过复制DeserializationSchema并添加了异常处理来实现自己的JSONDeserializationSchema

import org.apache.flink.api.common.serialization.AbstractDeserializationSchema;
import org.apache.flink.shaded.jackson2.com.fasterxml.jackson.databind.ObjectMapper;
import org.apache.flink.shaded.jackson2.com.fasterxml.jackson.databind.node.ObjectNode;
import java.io.IOException;

public class CustomJSONDeserializationSchema extends AbstractDeserializationSchema<ObjectNode> {

    private ObjectMapper mapper;

    @Override
    public ObjectNode deserialize(byte[] message) throws IOException {
        if (mapper == null) {
            mapper = new ObjectMapper();
        }

        ObjectNode objectNode;
        try {
            objectNode = mapper.readValue(message, ObjectNode.class);
        } catch (Exception e) {
            ObjectMapper errorMapper = new ObjectMapper();
            ObjectNode errorObjectNode = errorMapper.createObjectNode();
            errorObjectNode.put("jsonParseError", new String(message));
            objectNode = errorObjectNode;
        }
        return objectNode;
    }

    @Override
    public boolean isEndOfStream(ObjectNode nextElement) {
        return false;
    }

}

在我的流媒体工作中。

messageStream
        .filter((event) -> {
            if(event.has("jsonParseError")) {
                LOG.warn("JsonParseException was handled: " + event.get("jsonParseError").asText());
                return false;
            }
            return true;
        }).print();

答案 2 :(得分:1)

Flink改进了FlinkKafkaConsumer的空记录处理

DeserializationSchema遇到损坏的消息时,有两种可能的设计选择。它可以抛出IOException导致管道重新启动,也可以返回null,在那里Flink Kafka使用者将以静默方式跳过损坏的消息。

有关更多详细信息,您可以看到此link