尝试整合 mongoDB 和 spark,不断出现与 "could not find or load class" 相关的错误
Trying to integrate mongoDB and spark, keep having errors related to "could not find or load class"
所以我一直在尝试集成 mongoDB 和 Spark,在阅读了所有依赖项之后,我 运行ning:
- Jdk1.8
- scala-sdk-2.11-7
- Spark 版本 2.0.2
这是我的 build.sbt 文件的样子:
scalaVersion := "2.11.7"
libraryDependencies ++= Seq(
"org.mongodb.spark" %% "mongo-spark-connector" % "2.0.0",
"org.apache.spark" %% "spark-core" % "2.0.0",
"org.apache.spark" %% "spark-sql" % "2.0.0"
)
每次我 运行 这个简单的脚本:
import com.mongodb.spark._
import org.apache.log4j._
object myMain {
def main(args: Array[String]): Unit = {
println("lol")
}
}
它说 "could not find or load main class myMain"。
我想要查看的只是依赖项是否正常,以及脚本是否会导入库并正常工作。请帮忙,我已经阅读了至少一天,除了 "compatibility problems".
之外找不到任何具体提示
新建项目->
来源 ->
项目(src-build),
build.sbt,
我的主要$
这就是我在 IntelliJ 中的项目树的样子,在外部库中,我已经通过 build.sbt 文件和 scala 下载了所有库,并且像我上面写的那样 java 依赖项。
谢谢!
答案是从 IntelliJ ide 更改为 Eclipse。
所以我一直在尝试集成 mongoDB 和 Spark,在阅读了所有依赖项之后,我 运行ning:
- Jdk1.8
- scala-sdk-2.11-7
- Spark 版本 2.0.2
这是我的 build.sbt 文件的样子:
scalaVersion := "2.11.7"
libraryDependencies ++= Seq(
"org.mongodb.spark" %% "mongo-spark-connector" % "2.0.0",
"org.apache.spark" %% "spark-core" % "2.0.0",
"org.apache.spark" %% "spark-sql" % "2.0.0"
)
每次我 运行 这个简单的脚本:
import com.mongodb.spark._
import org.apache.log4j._
object myMain {
def main(args: Array[String]): Unit = {
println("lol")
}
}
它说 "could not find or load main class myMain"。
我想要查看的只是依赖项是否正常,以及脚本是否会导入库并正常工作。请帮忙,我已经阅读了至少一天,除了 "compatibility problems".
新建项目->
来源 ->
项目(src-build),
build.sbt,
我的主要$
这就是我在 IntelliJ 中的项目树的样子,在外部库中,我已经通过 build.sbt 文件和 scala 下载了所有库,并且像我上面写的那样 java 依赖项。
谢谢!
答案是从 IntelliJ ide 更改为 Eclipse。