Intellij 中的 运行 Spark 错误:"object apache is not a member of package org"
Error in running Spark in Intellij : "object apache is not a member of package org"
我是 运行 Intellij 上的 Spark 程序并收到以下错误:
"object apache is not a member of package org".
我在代码中使用了这些导入语句:
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
上面的导入语句在 sbt 提示符下也不 运行。
似乎缺少相应的库,但我不确定如何复制相同的文件以及在哪个路径。
确保您在 SBT 中有这样的条目:
scalaVersion := "2.11.8"
libraryDependencies ++= Seq(
"org.apache.spark" %% "spark-core" % "2.1.0",
"org.apache.spark" %% "spark-sql" % "2.1.0"
)
然后通过启用 "auto-import" 或通过单击 SBT 面板上的刷新按钮手动执行,确保 IntelliJ 了解这些库。
距离上一个答案已经过去了大约 5 年,但我遇到了同样的问题,这里提到的答案没有用。所以,希望这个答案对那些发现自己处于与我相同的位置的人有用。
我能够从 sbt shell 运行 我的 scala 程序,但它在 Intellij 中不起作用。这就是我为解决问题所做的工作:
- 已将 build.sbt 文件作为项目导入。
File -> Open -> select build.sbt -> choose the "project" option.
- 安装 sbt 插件并重新加载 Intellij。
File -> settings -> Plugins -> search and install sbt.
- 运行 sbt.
Click "View" -> Tool Windows -> sbt. Click on the refresh button in
the SBT window.
项目应该加载成功。重建项目。
- Select 您的文件并单击“运行”。它应该理想地工作。
我是 运行 Intellij 上的 Spark 程序并收到以下错误: "object apache is not a member of package org".
我在代码中使用了这些导入语句:
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
上面的导入语句在 sbt 提示符下也不 运行。 似乎缺少相应的库,但我不确定如何复制相同的文件以及在哪个路径。
确保您在 SBT 中有这样的条目:
scalaVersion := "2.11.8"
libraryDependencies ++= Seq(
"org.apache.spark" %% "spark-core" % "2.1.0",
"org.apache.spark" %% "spark-sql" % "2.1.0"
)
然后通过启用 "auto-import" 或通过单击 SBT 面板上的刷新按钮手动执行,确保 IntelliJ 了解这些库。
距离上一个答案已经过去了大约 5 年,但我遇到了同样的问题,这里提到的答案没有用。所以,希望这个答案对那些发现自己处于与我相同的位置的人有用。
我能够从 sbt shell 运行 我的 scala 程序,但它在 Intellij 中不起作用。这就是我为解决问题所做的工作:
- 已将 build.sbt 文件作为项目导入。
File -> Open -> select build.sbt -> choose the "project" option.
- 安装 sbt 插件并重新加载 Intellij。
File -> settings -> Plugins -> search and install sbt.
- 运行 sbt.
Click "View" -> Tool Windows -> sbt. Click on the refresh button in the SBT window.
项目应该加载成功。重建项目。
- Select 您的文件并单击“运行”。它应该理想地工作。