Trigger.Once 可以使用 KAFKA 进行 Spark 结构化流式处理吗?
Trigger.Once Spark Structured Streaming with KAFKA possible?
使用 Trigger.Once 的 Spark Structured Streaming 是否允许直接连接到 KAFKA 并使用 MERGE 语句?或者此数据必须来自增量 table?
此 https://docs.databricks.com/_static/notebooks/merge-in-scd-type-2.html 假定 tables 作为输入。我找不到 KAFKA 与 Trigger.Once 一起使用的示例。好的,周末快到了,我会火这个火那个的,但是很有意思的一点,我想提前知道。
是的,可以在 Kafka 中使用 Trigger.Once
(或更好的更新 Trigger.AvailableNow
),然后使用 foreachBatch
执行 MERGE。
您唯一需要考虑的是数据不应在两次执行之间过期。
使用 Trigger.Once 的 Spark Structured Streaming 是否允许直接连接到 KAFKA 并使用 MERGE 语句?或者此数据必须来自增量 table?
此 https://docs.databricks.com/_static/notebooks/merge-in-scd-type-2.html 假定 tables 作为输入。我找不到 KAFKA 与 Trigger.Once 一起使用的示例。好的,周末快到了,我会火这个火那个的,但是很有意思的一点,我想提前知道。
是的,可以在 Kafka 中使用 Trigger.Once
(或更好的更新 Trigger.AvailableNow
),然后使用 foreachBatch
执行 MERGE。
您唯一需要考虑的是数据不应在两次执行之间过期。