"org.zuinnote.spark.office.excel" 包中未写入空值

Null values are not writing in "org.zuinnote.spark.office.excel" package

 Dataset<Row>  SourcePropertSet = sqlContext.read()
             .format("com.crealytics.spark.excel")
            .option("location", "E:\XLS\NEWFILE.xlsx")
             .option("useHeader", "false")
             .option("treatEmptyValuesAsNulls", "true")
             .option("inferSchema", "true")
             .option("addColorColumns", "false")
             .load();


SourcePropertSet = SourcePropertSet.repartition(1).select("*")
.write().option("treatEmptyValuesAsNulls", "true")
.format("org.zuinnote.spark.office.excel")
.mode(SaveMode.Overwrite)
.save("E:\XLS\NEWFILE1.xlsx");

对于上面的代码,在写入 xslx 格式时是否还有其他选项可以考虑空值。
如果特定列包含任何空值,我会收到 scala.MatchError: null 异常。

解决的可能解决方案是通过放置正确的逻辑代码或查找 .options 或者是否有任何其他包以 .xslx 格式这样做?

请检查 HadoopOffice 的版本(当前为 1.0.4),尤其是 DS (https://github.com/ZuInnoTe/spark-hadoopoffice-ds)。另外,有些参数不存在,所以请查看文档。 直接在 Github 上为项目创建问题以解决这些问题也会更快。

.na().fill(" "); .show(false);

此代码解决了空值问题。在之前版本的“org.zuinnote.spark.office.excel”包中