从 PySpark 覆盖 Cassandra table 时出错

Error while overwriting Cassandra table from PySpark

我正在尝试使用 PySpark 数据框覆盖 cassandra 中的数据。我收到此错误:关键字不能是表达式

我可以通过 df.write.format("org.apache.spark.sql.cassandra").options(keyspace="ks",table="testtable").mode("append").save()

但是,覆盖会抛出错误 df.write.format("org.apache.spark.sql.cassandra").options(keyspace="ks",table="testtable", confirm.truncate="true").mode("overwrite").save()

错误:关键字不能是表达式

我找到了解决方案。

df.write.format("org.apache.spark.sql.cassandra")
.mode("overwrite").option("confirm.truncate","true")
.options(keyspace="ks",table="testtable")
.save()