是否有可能在单个火花环境中听两个dtsreams?

时间:2015-10-19 05:38:42

标签: hadoop apache-spark apache-spark-sql pyspark spark-streaming

我使用Spark 1.4.1。我想同时听两个不同的流,并在两个流中找到共同的事件。

例如:假设一个温度数据流和另一个压力数据流。我想听两个流,并在两个都很高的时候发出警报。

我有两个问题

  • 是否可以在单个火花中处理两个不同的流 上下文。
  • 是否可以在单个驱动程序中使用具有可变窗口大小的多个spark上下文。

关于如何处理上述情况的任何其他想法也将深表感谢。

谢谢

1 个答案:

答案 0 :(得分:2)

您可以从同一个StreamingContext创建多个DStream。 E.g。

val dstreamTemp: DStream[String, Int] = KafkaUtils.createStream(ssc, zkQuorum, group, "TemperatureData").map(...)
val dstreamPres: DStream[String, Int] = KafkaUtils.createStream(ssc, zkQuorum, group, "PressureData")

它们都具有与StreamingContext上定义的相同的“批处理持续时间”。但是,您可以创建新的Windows:

val windowedStreamTemp = dstreamTemp.window(Seconds(20))
val windowedStreamPres = dstreamPres.window(Minutes(1))

您也可以加入流(假设键值流)。 E.g。

val joinedStream = windowedStreamTemp.join(windowedStreamPres)

然后,您可以在joinedStream上发出提醒。

相关问题