df.write.jdbc 是否处理 JDBC 池连接?
Does df.write.jdbc handle JDBC pool connection?
您知道以下行是否可以处理 jdbc 池连接:
df.write
.mode("append")
.jdbc(url, table, prop)
你有什么想法吗?谢谢
我不这么认为。
spark.read.jdbc
请求 Spark SQL 为 JDBCRDD
创建一个 JDBCRelation. Eventually buildScan is executed that in turn calls JDBCRDD.scanTable
that leads to JdbcUtils.createConnectionFactory(options)。
这样,您会看到 driver.connect(options.url, options.asConnectionProperties),除非 driver
处理连接池,否则 Spark SQL 不会这样做。
(刚注意到你问了另一个问题)
df.write.jdbc
类似。它再次导致 JDBCRelation
使用相同的 RDD。
您知道以下行是否可以处理 jdbc 池连接:
df.write
.mode("append")
.jdbc(url, table, prop)
你有什么想法吗?谢谢
我不这么认为。
spark.read.jdbc
请求 Spark SQL 为 JDBCRDD
创建一个 JDBCRelation. Eventually buildScan is executed that in turn calls JDBCRDD.scanTable
that leads to JdbcUtils.createConnectionFactory(options)。
这样,您会看到 driver.connect(options.url, options.asConnectionProperties),除非 driver
处理连接池,否则 Spark SQL 不会这样做。
(刚注意到你问了另一个问题)
df.write.jdbc
类似。它再次导致 JDBCRelation
使用相同的 RDD。