如何使用 SparkSession 创建 emptyRDD -(因为 hivecontext 已被弃用)
How to create emptyRDD using SparkSession - (since hivecontext got deprecated)
IN Spark 版本 1.*
像下面这样创建了空RDD:
var baseDF = hiveContextVar.createDataFrame(sc.emptyRDD[Row], baseSchema)
迁移到 Spark 2.0 时(因为 hiveContext 已被弃用,使用 sparkSession)
试过:
var baseDF = sparkSession.createDataFrame(sc.emptyRDD[Row], baseSchema)
尽管出现以下错误:
org.apache.spark.SparkException: Only one SparkContext may be running
in this JVM (see SPARK-2243)
有没有办法使用 sparkSession 创建空的 RDD?
Spark 2.0需要通过spark session引用spark context。您可以如下创建空数据框。它对我有用。
sparkSession.createDataFrame(sparkSession.sparkContext.emptyRDD[行], baseSchema)
希望对你有帮助。
IN Spark 版本 1.*
像下面这样创建了空RDD:
var baseDF = hiveContextVar.createDataFrame(sc.emptyRDD[Row], baseSchema)
迁移到 Spark 2.0 时(因为 hiveContext 已被弃用,使用 sparkSession)
试过:
var baseDF = sparkSession.createDataFrame(sc.emptyRDD[Row], baseSchema)
尽管出现以下错误:
org.apache.spark.SparkException: Only one SparkContext may be running in this JVM (see SPARK-2243)
有没有办法使用 sparkSession 创建空的 RDD?
Spark 2.0需要通过spark session引用spark context。您可以如下创建空数据框。它对我有用。
sparkSession.createDataFrame(sparkSession.sparkContext.emptyRDD[行], baseSchema)
希望对你有帮助。