将 Spark DataFrame 覆盖到位置

Overwrite a Spark DataFrame into location

我想使用 spark_write_* 函数将我的 Spark DataFrame 保存到目录中,如下所示:

spark_write_csv(df, "file:///home/me/dir/")

但如果该目录已经存在,我将收到错误消息:

ERROR: org.apache.spark.sql.AnalysisException: path file:/home/me/dir/ already exists.;

当我处理相同的数据时,我想覆盖这个目录 - 我该如何实现?在文档中有一个参数:

mode  Specifies the behavior when data or table already exists.

但它没有说明您应该使用什么值。

参数 mode 的值应为 "overwrite":

spark_write_csv(df, "file:///home/me/dir/", mode = "overwrite")