Intellij 中的 运行 Spark 错误:"object apache is not a member of package org"

Error in running Spark in Intellij : "object apache is not a member of package org"

我是 运行 Intellij 上的 Spark 程序并收到以下错误: "object apache is not a member of package org".

我在代码中使用了这些导入语句:

import org.apache.spark.SparkContext  
import org.apache.spark.SparkContext._  
import org.apache.spark.SparkConf

上面的导入语句在 sbt 提示符下也不 运行。 似乎缺少相应的库,但我不确定如何复制相同的文件以及在哪个路径。

确保您在 SBT 中有这样的条目:

scalaVersion := "2.11.8"
libraryDependencies ++= Seq(
  "org.apache.spark" %% "spark-core" % "2.1.0", 
  "org.apache.spark" %% "spark-sql" % "2.1.0" 
)

然后通过启用 "auto-import" 或通过单击 SBT 面板上的刷新按钮手动执行,确保 IntelliJ 了解这些库。

距离上一个答案已经过去了大约 5 年,但我遇到了同样的问题,这里提到的答案没有用。所以,希望这个答案对那些发现自己处于与我相同的位置的人有用。

我能够从 sbt shell 运行 我的 scala 程序,但它在 Intellij 中不起作用。这就是我为解决问题所做的工作:

  1. 已将 build.sbt 文件作为项目导入。

File -> Open -> select build.sbt -> choose the "project" option.

  1. 安装 sbt 插件并重新加载 Intellij。

File -> settings -> Plugins -> search and install sbt.

  1. 运行 sbt.

Click "View" -> Tool Windows -> sbt. Click on the refresh button in the SBT window.

项目应该加载成功。重建项目。

  1. Select 您的文件并单击“运行”。它应该理想地工作。