如何为 Spark Streaming 定义 Kafka(数据源)依赖?

How to define Kafka (data source) dependencies for Spark Streaming?

我正在尝试使用 spark-streaming2.0.0 使用 kafka 0.8 主题,我正在尝试确定所需的依赖项我已经尝试在我的 build.sbt 文件中使用这些依赖项

libraryDependencies += "org.apache.spark" %% "spark-streaming_2.11" % "2.0.0"

当我 运行 sbt 包时,我得到了所有这三个 jar 的未解决的依赖关系,

但这些罐子确实存在

https://mvnrepository.com/artifact/org.apache.spark/spark-streaming-kafka-0-8_2.11/2.0.0

请帮助调试这个问题,我是 Scala 的新手所以如果我做错了什么请告诉我

问题是您使用 %% 指定 Scala 版本 并且 试图推断您使用的是哪个 Scala 版本。

要么删除一个 %:

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.0.0"
libraryDependencies += "org.apache.spark" % "spark-streaming_2.11" % "2.0.0"
libraryDependencies += "org.apache.spark" % "spark-streaming-kafka-0-8_2.11" % "2.0.0"

或删除 Scala 版本:

libraryDependencies += "org.apache.spark" %% "spark-core" % "2.0.0"
libraryDependencies += "org.apache.spark" %% "spark-streaming" % "2.0.0"
libraryDependencies += "org.apache.spark" %% "spark-streaming-kafka-0-8" % "2.0.0"