使用基于计数的窗口加入两个流

时间:2016-06-09 17:50:58

标签: java apache-flink flink-streaming

我是Flink Streaming API的新手,我想完成以下简单(IMO)任务。我有两个流,我想使用基于计数的窗口加入它们。我到目前为止的代码如下:

public class BaselineCategoryEquiJoin {

private static final String recordFile = "some_file.txt";

private static class ParseRecordFunction implements MapFunction<String, Tuple2<String[], MyRecord>> {
    public Tuple2<String[], MyRecord> map(String s) throws Exception {
        MyRecord myRecord = parse(s);
        return new Tuple2<String[], myRecord>(myRecord.attributes, myRecord);
    }
}

public static void main(String[] args) throws Exception {
    StreamExecutionEnvironment environment = StreamExecutionEnvironment.createLocalEnvironment();
    ExecutionConfig config = environment.getConfig();
    config.setParallelism(8);
    DataStream<Tuple2<String[], MyRecord>> dataStream = environment.readTextFile(recordFile)
            .map(new ParseRecordFunction());
    DataStream<Tuple2<String[], MyRecord>> dataStream1 = environment.readTextFile(recordFile)
            .map(new ParseRecordFunction());
    DataStreamSink<Tuple2<String[], String[]>> joinedStream = dataStream1
            .join(dataStream)
            .where(new KeySelector<Tuple2<String[],MyRecord>, String[]>() {
                public String[] getKey(Tuple2<String[], MyRecord> recordTuple2) throws Exception {
                    return recordTuple2.f0;
                }
            }).equalTo(new KeySelector<Tuple2<String[], MyRecord>, String[]>() {
                public String[] getKey(Tuple2<String[], MyRecord> recordTuple2) throws Exception {
                    return recordTuple2.f0;
                }
            }).window(TumblingProcessingTimeWindows.of(Time.seconds(1)))
            .apply(new JoinFunction<Tuple2<String[],MyRecord>, Tuple2<String[],MyRecord>, Tuple2<String[], String[]>>() {
                public Tuple2<String[], String[]> join(Tuple2<String[], MyRecord> tuple1, Tuple2<String[], MyRecord> tuple2) throws Exception {
                    return new Tuple2<String[], String[]>(tuple1.f0, tuple1.f0);
                }
            }).print();
    environment.execute();
}
}

我的代码可以正常运行,但不会产生任何结果。实际上,永远不会调用对apply方法的调用(通过在调试模式下添加断点来验证)。我认为,之前的主要原因是我的数据没有时间属性。因此,窗口化(通过window实现)未正确完成。因此,我的问题是如何表明我希望我的联接基于计数窗口进行。例如,我希望连接实现每个流中的每100个元组。以前在Flink中可行吗?如果是,我应该在我的代码中更改什么才能实现它。

此时,我必须通知您,我尝试调用countWindow()方法,但出于某种原因,Flink的JoinedStreams并未提供此方法。

谢谢

1 个答案:

答案 0 :(得分:3)

不支持基于计数的联接。您可以使用“事件时间”语义模拟基于计数的窗口,并将唯一的seq-id作为时间戳应用于每条记录。因此,时间窗口“5”实际上是5的计数窗口。