尝试整合 mongoDB 和 spark,不断出现与 "could not find or load class" 相关的错误

Trying to integrate mongoDB and spark, keep having errors related to "could not find or load class"

所以我一直在尝试集成 mongoDB 和 Spark,在阅读了所有依赖项之后,我 运行ning:

这是我的 build.sbt 文件的样子:

scalaVersion := "2.11.7"
libraryDependencies ++= Seq(
  "org.mongodb.spark" %% "mongo-spark-connector" % "2.0.0",
  "org.apache.spark" %% "spark-core" % "2.0.0",
  "org.apache.spark" %% "spark-sql" % "2.0.0"
)

每次我 运行 这个简单的脚本:

import com.mongodb.spark._
import org.apache.log4j._



object myMain {
  def main(args: Array[String]): Unit = {
    println("lol")
  }
}

它说 "could not find or load main class myMain"。


我想要查看的只是依赖项是否正常,以及脚本是否会导入库并正常工作。请帮忙,我已经阅读了至少一天,除了 "compatibility problems".

之外找不到任何具体提示

新建项目-> 来源 -> 项目(src-build), build.sbt, 我的主要$

这就是我在 IntelliJ 中的项目树的样子,在外部库中,我已经通过 build.sbt 文件和 scala 下载了所有库,并且像我上面写的那样 java 依赖项。
谢谢!

答案是从 IntelliJ ide 更改为 Eclipse。