org.apache.spark.ml.linalg.DenseVector 无法转换为 java.lang.Double

org.apache.spark.ml.linalg.DenseVector cannot be cast to java.lang.Double

有人可以帮我吗我正在尝试将 vector 的列值转换为 Double 并出现以下错误: org.apache.spark.ml.linalg.DenseVector 无法转换为 java.lang.Double

我基本上已经将我的值标准化在 (0,1) 范围内,对于该范围,我不得不将我的双精度类型的简单值转换为密集向量。

代码如下

        val dataset =vectorUList.toDF("id")

        val assembler = new VectorAssembler()
          .setInputCols(Array("id"))
          .setOutputCol("features")

        val output = assembler.transform(dataset)
        println("Assembled columns ")
        output.select("id").show(false)
        output.printSchema()

        val scaler = new MinMaxScaler()
          .setInputCol("features")
          .setOutputCol("vScaled")
          .setMax(1)
          .setMin(0)
        val ScalarModel =scaler.fit(output)
        val scalarData =ScalarModel.transform(output)

        scalarData.select("vScaled").show()

        val ScaledCol: List[Row] = scalarData.select("vScaled").collect.toList
        var listofScaledCol: List[Double] = ScaledCol.map(r => r.getDouble(0))
        print(listofScaledCol)

现在,在将值转换回 Double 时,我收到了类型转换错误。

您正在尝试从一行中访问向量,修改- From

var listofScaledCol: List[Double] = ScaledCol.map(r => r.getDouble(0))

To

var listofScaledCol: List[Double] = ScaledCol.map(_.getAs[Vector]("vScaled")(0))