SparklyR 流媒体和 JDBC
SparklyR Streaming and JDBC
能否提供一个使用 SparklyR 的示例 stream_read_jdbc()
:
stream_read_jdbc(sc, path, name = NULL, columns = NULL,
options = list(), ...)
stream_write_jdbc(x, mode = c("append", "complete", "update"),
trigger = stream_trigger_interval(),
checkpoint = file.path("checkpoints", random_string("")),
options = list(), ...)
最好连接到 Oracle?如果示例使用任何其他数据库,那是可以的。为什么从 JDBC 读取文件时会有一个文件路径参数?从数据库而不是文件系统获取资源不是重点吗?
虽然spakrlyr
确实提供了以下功能:
stream_read_jdbc
stream_write_jdbc
这实际上是一段无效代码,因为 Spark Structured Streaming 不支持使用 JDBC 源进行流式读写。
能否提供一个使用 SparklyR 的示例 stream_read_jdbc()
:
stream_read_jdbc(sc, path, name = NULL, columns = NULL, options = list(), ...)
stream_write_jdbc(x, mode = c("append", "complete", "update"), trigger = stream_trigger_interval(), checkpoint = file.path("checkpoints", random_string("")), options = list(), ...)
最好连接到 Oracle?如果示例使用任何其他数据库,那是可以的。为什么从 JDBC 读取文件时会有一个文件路径参数?从数据库而不是文件系统获取资源不是重点吗?
虽然spakrlyr
确实提供了以下功能:
stream_read_jdbc
stream_write_jdbc
这实际上是一段无效代码,因为 Spark Structured Streaming 不支持使用 JDBC 源进行流式读写。