如何使用 spark-cassandra-connector 在 pyspark 中写入数据帧中使用 sparkSession

how to use sparkSession in dataframe write in pyspark using spark-cassandra-connector

我正在使用 pysparkspark-cassandra-connector_2.11-2.3.0.jar 和 cassandra DB。 我正在从一个键空间读取数据帧并写入另一个不同的键空间。这两个密钥空间有不同的用户名和密码。

我使用以下方法创建了 sparkSession:

spark_session = None

def set_up_spark(sparkconf,config):
    """
    sets up spark configuration and create a session
    :return: None
    """
    try:
        logger.info("spark conf set up Started")
        global spark_session
        spark_conf = SparkConf()
        for key, val in sparkconf.items():
            spark_conf.set(key, val)
        spark_session = SparkSession.builder.config(conf=spark_conf).getOrCreate()
        logger.info("spark conf set up Completed")
    except Exception as e:
        raise e

我使用这个 sparkSession 将数据作为数据帧读取为:

table_df = spark_session.read \
            .format("org.apache.spark.sql.cassandra") \
            .options(table=table_name, keyspace=keyspace_name) \
            .load()

我可以使用上述会话读取数据。 spark_session 附加到上述查询。

现在我需要创建另一个会话,因为写入 table 的凭据不同。 我的写查询为:

table_df.write \
            .format("org.apache.spark.sql.cassandra") \
            .options(table=table_name, keyspace=keyspace_name) \
            .mode("append") \
            .save()

我找不到如何在 cassandra 中为上述写操作附加一个新的 sparkSession。

如何在带有 spark-cassandra-connector 的 pyspark 中附加新的 SparkSession 以进行写操作?

您可以将该信息作为选项简单地传递给特定的 readwrite 操作,这包括:spark.cassandra.connection.host

请注意,您需要将这些选项放入一个字典中,并传递这个字典而不是直接传递,如 documentation 中所述。

read_options = { "table": "..", "keyspace": "..", 
  "spark.cassandra.connection.host": "IP1", 
  "spark.cassandra.auth.username": "username1", 
  "spark.cassandra.auth.password":"password1"}
table_df = spark_session.read \
            .format("org.apache.spark.sql.cassandra") \
            .options(**read_options) \
            .load()

write_options = { "table": "..", "keyspace": "..", 
  "spark.cassandra.connection.host": "IP2", 
  "spark.cassandra.auth.username": "username2", 
  "spark.cassandra.auth.password":"password1"}
table_df.write \
            .format("org.apache.spark.sql.cassandra") \
            .options(**write_options) \
            .mode("append") \
            .save()