如何为 Spark Streaming 定义 Kafka(数据源)依赖?
How to define Kafka (data source) dependencies for Spark Streaming?
我正在尝试使用 spark-streaming2.0.0 使用 kafka 0.8 主题,我正在尝试确定所需的依赖项我已经尝试在我的 build.sbt 文件中使用这些依赖项
libraryDependencies += "org.apache.spark" %% "spark-streaming_2.11" % "2.0.0"
当我 运行 sbt 包时,我得到了所有这三个 jar 的未解决的依赖关系,
但这些罐子确实存在
https://mvnrepository.com/artifact/org.apache.spark/spark-streaming-kafka-0-8_2.11/2.0.0
请帮助调试这个问题,我是 Scala 的新手所以如果我做错了什么请告诉我
问题是您使用 %%
指定 Scala 版本 并且 试图推断您使用的是哪个 Scala 版本。
要么删除一个 %
:
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.0.0"
libraryDependencies += "org.apache.spark" % "spark-streaming_2.11" % "2.0.0"
libraryDependencies += "org.apache.spark" % "spark-streaming-kafka-0-8_2.11" % "2.0.0"
或删除 Scala 版本:
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.0.0"
libraryDependencies += "org.apache.spark" %% "spark-streaming" % "2.0.0"
libraryDependencies += "org.apache.spark" %% "spark-streaming-kafka-0-8" % "2.0.0"
我正在尝试使用 spark-streaming2.0.0 使用 kafka 0.8 主题,我正在尝试确定所需的依赖项我已经尝试在我的 build.sbt 文件中使用这些依赖项
libraryDependencies += "org.apache.spark" %% "spark-streaming_2.11" % "2.0.0"
当我 运行 sbt 包时,我得到了所有这三个 jar 的未解决的依赖关系,
但这些罐子确实存在
https://mvnrepository.com/artifact/org.apache.spark/spark-streaming-kafka-0-8_2.11/2.0.0
请帮助调试这个问题,我是 Scala 的新手所以如果我做错了什么请告诉我
问题是您使用 %%
指定 Scala 版本 并且 试图推断您使用的是哪个 Scala 版本。
要么删除一个 %
:
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.0.0"
libraryDependencies += "org.apache.spark" % "spark-streaming_2.11" % "2.0.0"
libraryDependencies += "org.apache.spark" % "spark-streaming-kafka-0-8_2.11" % "2.0.0"
或删除 Scala 版本:
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.0.0"
libraryDependencies += "org.apache.spark" %% "spark-streaming" % "2.0.0"
libraryDependencies += "org.apache.spark" %% "spark-streaming-kafka-0-8" % "2.0.0"