是否可以在单火花上下文中收听两个 dtsream?
Is it possible to listen to two dtsreams in single spark context?
我使用 Spark 1.4.1。我想同时收听两个不同的流,并在两个流中找到共同的事件。
例如:假设一个温度数据流和另一个压力数据流。我想同时收听这两个流,并在两者都很高时发出警报。
我有两个问题
- 是否可以在一个 spark 中处理两个不同的流
上下文。
- 是否可以在单个驱动程序中有多个具有可变 window 大小的 spark 上下文。
关于如何处理上述情况的任何其他想法也将不胜感激。
谢谢
您可以从同一个 StreamingContext 创建多个 DStream。例如
val dstreamTemp: DStream[String, Int] = KafkaUtils.createStream(ssc, zkQuorum, group, "TemperatureData").map(...)
val dstreamPres: DStream[String, Int] = KafkaUtils.createStream(ssc, zkQuorum, group, "PressureData")
它们都具有与 StreamingContext 中定义的相同的 "batch duration"。但是,您可以创建新的 Windows:
val windowedStreamTemp = dstreamTemp.window(Seconds(20))
val windowedStreamPres = dstreamPres.window(Minutes(1))
您还可以加入流(假设是键值流)。例如
val joinedStream = windowedStreamTemp.join(windowedStreamPres)
然后您可以在 joinedStream
上发出警报。
我使用 Spark 1.4.1。我想同时收听两个不同的流,并在两个流中找到共同的事件。
例如:假设一个温度数据流和另一个压力数据流。我想同时收听这两个流,并在两者都很高时发出警报。
我有两个问题
- 是否可以在一个 spark 中处理两个不同的流 上下文。
- 是否可以在单个驱动程序中有多个具有可变 window 大小的 spark 上下文。
关于如何处理上述情况的任何其他想法也将不胜感激。
谢谢
您可以从同一个 StreamingContext 创建多个 DStream。例如
val dstreamTemp: DStream[String, Int] = KafkaUtils.createStream(ssc, zkQuorum, group, "TemperatureData").map(...)
val dstreamPres: DStream[String, Int] = KafkaUtils.createStream(ssc, zkQuorum, group, "PressureData")
它们都具有与 StreamingContext 中定义的相同的 "batch duration"。但是,您可以创建新的 Windows:
val windowedStreamTemp = dstreamTemp.window(Seconds(20))
val windowedStreamPres = dstreamPres.window(Minutes(1))
您还可以加入流(假设是键值流)。例如
val joinedStream = windowedStreamTemp.join(windowedStreamPres)
然后您可以在 joinedStream
上发出警报。