我们如何在 Apache Spark 中使用多个 Cassandra 设置?
How do we operate with multiple Cassandra setups in Apache Spark?
我在两台不同的机器上有两种不同的 Cassandra 设置。我正在尝试从一台机器读取数据,使用 Spark 处理它,然后将结果写入第二个设置。我正在使用 spark-cassandra-connector-java_2.10。当我尝试使用 javaFunctions.writeBuilder 时,它允许我指定键空间和 table 名称,但 Cassandra 主机是从 Spark 上下文中获取的。除了 Spark Context 中提到的以外,是否有其他方法可以将数据写入 Cassandra 设置?我们如何覆盖此默认设置?
使用以下代码:
SparkConf confForCassandra = new SparkConf().setAppName("ConnectToCassandra")
.setMaster("local[*]")
.set("spark.cassandra.connection.host", "<cassandraHost>");
CassandraConnector connector = CassandraConnector.apply(confForCassandra);
javaFunctions(rdd).writerBuilder("keyspace", "table", mapToRow(Table.class)).withConnector(connector).saveToCassandra();
我在两台不同的机器上有两种不同的 Cassandra 设置。我正在尝试从一台机器读取数据,使用 Spark 处理它,然后将结果写入第二个设置。我正在使用 spark-cassandra-connector-java_2.10。当我尝试使用 javaFunctions.writeBuilder 时,它允许我指定键空间和 table 名称,但 Cassandra 主机是从 Spark 上下文中获取的。除了 Spark Context 中提到的以外,是否有其他方法可以将数据写入 Cassandra 设置?我们如何覆盖此默认设置?
使用以下代码:
SparkConf confForCassandra = new SparkConf().setAppName("ConnectToCassandra")
.setMaster("local[*]")
.set("spark.cassandra.connection.host", "<cassandraHost>");
CassandraConnector connector = CassandraConnector.apply(confForCassandra);
javaFunctions(rdd).writerBuilder("keyspace", "table", mapToRow(Table.class)).withConnector(connector).saveToCassandra();