是否可以在单火花上下文中收听两个 dtsream?

Is it possible to listen to two dtsreams in single spark context?

我使用 Spark 1.4.1。我想同时收听两个不同的流,并在两个流中找到共同的事件。

例如:假设一个温度数据流和另一个压力数据流。我想同时收听这两个流,并在两者都很高时发出警报。

我有两个问题

关于如何处理上述情况的任何其他想法也将不胜感激。

谢谢

您可以从同一个 StreamingContext 创建多个 DStream。例如

val dstreamTemp: DStream[String, Int] = KafkaUtils.createStream(ssc, zkQuorum, group, "TemperatureData").map(...)
val dstreamPres: DStream[String, Int] = KafkaUtils.createStream(ssc, zkQuorum, group, "PressureData")

它们都具有与 StreamingContext 中定义的相同的 "batch duration"。但是,您可以创建新的 Windows:

val windowedStreamTemp = dstreamTemp.window(Seconds(20))
val windowedStreamPres = dstreamPres.window(Minutes(1))

您还可以加入流(假设是键值流)。例如

val joinedStream = windowedStreamTemp.join(windowedStreamPres)

然后您可以在 joinedStream 上发出警报。