找不到 spark-hbase maven 依赖项

Can't find spark-hbase mvn dependency

我想使用 Spark 在 HBase 中阅读 table。我添加了以下依赖项:

libraryDependencies += "org.apache.hbase" %% "hbase-spark" % "2.0.0-SNAPSHOT"

在hbase中提到website,但是无法解决依赖!!

我也尝试了不同的版本(1.2.0、1.1.2),但没有用。

看起来 hbase-spark 不在 maven central 中,这是将从中检索依赖项的默认存储库。

您需要配置构建管理工具(不清楚您使用的是 Maven 还是 SBT)以使用正确的存储库。

project page你可以使用

不过,目前看来只有快照可用。

此外,正如下面作者的评论中提到的,行

libraryDependencies += "org.apache.hbase" %% "hbase-spark" % "2.0.0-SNAPSHOT"

其实应该是

libraryDependencies += "org.apache.hbase" % "hbase-spark" % "2.0.0-SNAPSHOT"

在这种情况下不需要双 %,因为您不想将 scala 版本附加到工件名称。

  1. 添加此存储库

    云朵 https://repository.cloudera.com/artifactory/cloudera-repos/

  2. 然后你可以通过maven下载它:

    org.apache.hbase hbase-火花 1.2.0-cdh5.7.0

我在 pom.xml

中使用 hbase-spark 依赖项时遇到了同样的问题
<!-- https://mvnrepository.com/artifact/org.apache.hbase/hbase-spark -->
<dependency>
   <groupId>org.apache.hbase</groupId>
   <artifactId>hbase-spark</artifactId>
   <version>2.0.0-alpha4</version>
</dependency>

我通过以下步骤解决了上述问题:

  • /src/main/resources 中创建一个 lib 文件夹。

  • 将下载的jar复制到lib文件夹中,并在pom.xml
  • 中添加jar文件的系统路径

.

    <!-- https://mvnrepository.com/artifact/org.apache.hbase/hbase-spark -->
<dependency>
   <groupId>org.apache.hbase</groupId>
   <artifactId>hbase-spark</artifactId>
   <version>2.0.0-alpha4</version>
   <scope>system</scope>
   <systemPath>${project.basedir}/src/main/resources/lib/hbase-spark-2.0.0-alpha4.jar</systemPath>
</dependency>

希望对你有所帮助。