Spark Streaming:如何有效地将 foreachRDD 数据保存到 Mysql 数据库中?
Spark Streaming: How to efficiently save foreachRDD data into Mysql Database?
我们要建立一个实时计算系统,还要将处理后的数据保存到Mysql数据库中,代码如下:
splitWordInfo.foreachRDD(new Function<JavaRDD<String>, Void>() {
private static final long serialVersionUID = 1L;
@Override
public Void call(JavaRDD<String> rdd) throws Exception {
rdd.foreachPartition(new VoidFunction<Iterator<String>>() {
// Default Serial ID
private static final long serialVersionUID = 1L;
@Override
public void call(Iterator<String> eachline) throws Exception {
String sql = "insert into test_mm(name,addr) values(?)";
Connection conn = DriverManager.getConnection("jdbc:mysql://xx.xx.xx.xx:3306/dbname", "user", "pass");
PreparedStatement stat = conn.prepareStatement(sql);
while(eachline.hasNext()){
stat.setString(1, eachline.next());
stat.executeUpdate();
}
stat.close();
conn.close();
}
});
return null;
}
});
它会为每个 rdd 或每个分区 open/close mysql 连接吗?
以及如何有效地将 foreachRDD 数据保存到 Mysql 数据库中。谁能帮我一个忙?
每个 RDD 分区就像一个单独的任务,您的程序将为每个分区获取一个连接。最好使用像 Hikari 或 Tomcat 这样的连接池库。
但即使使用连接池,与数据库的通信也会产生成本。在这个模型中你无法避免。
我们要建立一个实时计算系统,还要将处理后的数据保存到Mysql数据库中,代码如下:
splitWordInfo.foreachRDD(new Function<JavaRDD<String>, Void>() {
private static final long serialVersionUID = 1L;
@Override
public Void call(JavaRDD<String> rdd) throws Exception {
rdd.foreachPartition(new VoidFunction<Iterator<String>>() {
// Default Serial ID
private static final long serialVersionUID = 1L;
@Override
public void call(Iterator<String> eachline) throws Exception {
String sql = "insert into test_mm(name,addr) values(?)";
Connection conn = DriverManager.getConnection("jdbc:mysql://xx.xx.xx.xx:3306/dbname", "user", "pass");
PreparedStatement stat = conn.prepareStatement(sql);
while(eachline.hasNext()){
stat.setString(1, eachline.next());
stat.executeUpdate();
}
stat.close();
conn.close();
}
});
return null;
}
});
它会为每个 rdd 或每个分区 open/close mysql 连接吗?
以及如何有效地将 foreachRDD 数据保存到 Mysql 数据库中。谁能帮我一个忙?
每个 RDD 分区就像一个单独的任务,您的程序将为每个分区获取一个连接。最好使用像 Hikari 或 Tomcat 这样的连接池库。 但即使使用连接池,与数据库的通信也会产生成本。在这个模型中你无法避免。