build.sbt 错误中的 libraryDependencies Spark (IntelliJ)
libraryDependencies Spark in build.sbt error (IntelliJ)
我正在尝试使用 Spark 学习 Scala。我正在学习教程,但出现错误,当我尝试导入 Spark:
的库依赖项时
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.4.3"
我收到以下错误:
而且我有 3 个 Unkwons 神器。
这可能是什么问题?
我的代码很简单,就是一个Hello World。
可能您需要添加到您的 build.sbt
:
resolvers += "spark-core" at "https://mvnrepository.com/artifact/org.apache.spark/spark-core"
请注意,此库仅支持 Scala 2.11 和 Scala 2.12。
我正在尝试使用 Spark 学习 Scala。我正在学习教程,但出现错误,当我尝试导入 Spark:
的库依赖项时libraryDependencies += "org.apache.spark" %% "spark-core" % "2.4.3"
我收到以下错误:
而且我有 3 个 Unkwons 神器。
这可能是什么问题?
我的代码很简单,就是一个Hello World。
可能您需要添加到您的 build.sbt
:
resolvers += "spark-core" at "https://mvnrepository.com/artifact/org.apache.spark/spark-core"
请注意,此库仅支持 Scala 2.11 和 Scala 2.12。