Spark 上下文无法使用 Intellij 在 MLUtils.loadLibSVMFile 中解析
spark context cannot reslove in MLUtils.loadLibSVMFile with Intellij
我在此处尝试 运行 多层感知器分类器示例:https://spark.apache.org/docs/1.5.2/ml-ann.html,它似乎在 spark-shell 上运行良好,但在 IDE 中效果不佳,例如 Intellij 和 Eclipse .问题来自
val data = MLUtils.loadLibSVMFile(sc, "data/mllib/sample_multiclass_classification_data.txt").toDF()
IDE提示cannot resolve symbol sc(sparkcontext),但是库路径已经正确配置。如果有人可以帮助我,谢谢!
实际上默认没有sc
这样的值。它是在 spark-shell 启动时导入的。在任何序数 scala\java\python 代码中,您应该手动创建它。
我最近做了 。您可以使用关于 sbt
的部分和其中的库。
接下来你可以使用类似下面的代码作为模板开始。
import org.apache.spark.sql.SQLContext
import org.apache.spark.{SparkContext, SparkConf}
object Spark extends App {
val config = new SparkConf().setAppName("odo").setMaster("local[2]").set("spark.driver.host", "localhost")
val sc = new SparkContext(config)
val sqlc = new SQLContext(cs)
import sqlc.implicits._
//here you code follows
}
接下来你可以CtrlShiftF10它
我在此处尝试 运行 多层感知器分类器示例:https://spark.apache.org/docs/1.5.2/ml-ann.html,它似乎在 spark-shell 上运行良好,但在 IDE 中效果不佳,例如 Intellij 和 Eclipse .问题来自
val data = MLUtils.loadLibSVMFile(sc, "data/mllib/sample_multiclass_classification_data.txt").toDF()
IDE提示cannot resolve symbol sc(sparkcontext),但是库路径已经正确配置。如果有人可以帮助我,谢谢!
实际上默认没有sc
这样的值。它是在 spark-shell 启动时导入的。在任何序数 scala\java\python 代码中,您应该手动创建它。
我最近做了 sbt
的部分和其中的库。
接下来你可以使用类似下面的代码作为模板开始。
import org.apache.spark.sql.SQLContext
import org.apache.spark.{SparkContext, SparkConf}
object Spark extends App {
val config = new SparkConf().setAppName("odo").setMaster("local[2]").set("spark.driver.host", "localhost")
val sc = new SparkContext(config)
val sqlc = new SQLContext(cs)
import sqlc.implicits._
//here you code follows
}
接下来你可以CtrlShiftF10它