error: not found: value RANDOM
error: not found: value RANDOM
我正在尝试 运行 使用 Scala 在 Spark 中使用模糊 C 均值算法
我在下方关注 link 为此:
https://github.com/acflorea/fuzzyCMeans
点击下面查看我收到的错误的屏幕截图
错误截图:
我用过sbt然后spark-shell
此外,要解决此问题,
我已经尝试在下面导入
import scala.util.Random
import java.util.Random
import util.Random
但我仍然遇到与之前相同的错误(截图)
如能提供这方面的帮助,我们将不胜感激。谢谢!
+++++++++++++++++++++++++++++++++++++++++++++ +++++++++++
我已经导入了下面提到的包,
org.apache.spark.mllib.clustering.KMeans
但我仍然面临这个问题。请查看详细截图:
Screenshot of my work
请多多指教!谢谢!
PS:我正在使用 Spark 1.6.0 和 Scala 2.10.5
org.apache.spark.mllib.clustering.KMeans
中定义了两个常量(RANDOM 和 K_MEANS_PARALLEL)
小心,自 Spark1.6 以来我没有更新包,因此 Scala 2.10 :)
尽情享受吧!
在 Scala 中,
import org.apache.spark.sql.functions.rand
rand 是 spark sql 中可用的函数。
导入它允许访问 rand 函数。
我正在尝试 运行 使用 Scala 在 Spark 中使用模糊 C 均值算法
我在下方关注 link 为此:
https://github.com/acflorea/fuzzyCMeans
点击下面查看我收到的错误的屏幕截图
错误截图:
我用过sbt然后spark-shell
此外,要解决此问题,
我已经尝试在下面导入
import scala.util.Random
import java.util.Random
import util.Random
但我仍然遇到与之前相同的错误(截图)
如能提供这方面的帮助,我们将不胜感激。谢谢!
+++++++++++++++++++++++++++++++++++++++++++++ +++++++++++
我已经导入了下面提到的包,
org.apache.spark.mllib.clustering.KMeans
但我仍然面临这个问题。请查看详细截图:
Screenshot of my work
请多多指教!谢谢!
PS:我正在使用 Spark 1.6.0 和 Scala 2.10.5
org.apache.spark.mllib.clustering.KMeans
小心,自 Spark1.6 以来我没有更新包,因此 Scala 2.10 :)
尽情享受吧!
在 Scala 中,
import org.apache.spark.sql.functions.rand
rand 是 spark sql 中可用的函数。 导入它允许访问 rand 函数。