找不到 spark-hbase maven 依赖项
Can't find spark-hbase mvn dependency
我想使用 Spark 在 HBase 中阅读 table。我添加了以下依赖项:
libraryDependencies += "org.apache.hbase" %% "hbase-spark" % "2.0.0-SNAPSHOT"
在hbase中提到website,但是无法解决依赖!!
我也尝试了不同的版本(1.2.0、1.1.2),但没有用。
看起来 hbase-spark
不在 maven central 中,这是将从中检索依赖项的默认存储库。
您需要配置构建管理工具(不清楚您使用的是 Maven 还是 SBT)以使用正确的存储库。
从project page你可以使用
- https://repository.apache.org/content/repositories/snapshots 为
快照
- https://repository.apache.org/content/repositories/releases 发布
不过,目前看来只有快照可用。
此外,正如下面作者的评论中提到的,行
libraryDependencies += "org.apache.hbase" %% "hbase-spark" % "2.0.0-SNAPSHOT"
其实应该是
libraryDependencies += "org.apache.hbase" % "hbase-spark" % "2.0.0-SNAPSHOT"
在这种情况下不需要双 %,因为您不想将 scala 版本附加到工件名称。
添加此存储库
云朵
https://repository.cloudera.com/artifactory/cloudera-repos/
然后你可以通过maven下载它:
org.apache.hbase
hbase-火花
1.2.0-cdh5.7.0
我在 pom.xml
中使用 hbase-spark 依赖项时遇到了同样的问题
<!-- https://mvnrepository.com/artifact/org.apache.hbase/hbase-spark -->
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-spark</artifactId>
<version>2.0.0-alpha4</version>
</dependency>
我通过以下步骤解决了上述问题:
- 点击下图蓝色标记区域,从maven repository 下载hbase-spark依赖jar。
- 在 /src/main/resources 中创建一个 lib 文件夹。
- 将下载的jar复制到lib文件夹中,并在pom.xml
中添加jar文件的系统路径
.
<!-- https://mvnrepository.com/artifact/org.apache.hbase/hbase-spark -->
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-spark</artifactId>
<version>2.0.0-alpha4</version>
<scope>system</scope>
<systemPath>${project.basedir}/src/main/resources/lib/hbase-spark-2.0.0-alpha4.jar</systemPath>
</dependency>
希望对你有所帮助。
我想使用 Spark 在 HBase 中阅读 table。我添加了以下依赖项:
libraryDependencies += "org.apache.hbase" %% "hbase-spark" % "2.0.0-SNAPSHOT"
在hbase中提到website,但是无法解决依赖!!
我也尝试了不同的版本(1.2.0、1.1.2),但没有用。
看起来 hbase-spark
不在 maven central 中,这是将从中检索依赖项的默认存储库。
您需要配置构建管理工具(不清楚您使用的是 Maven 还是 SBT)以使用正确的存储库。
从project page你可以使用
- https://repository.apache.org/content/repositories/snapshots 为 快照
- https://repository.apache.org/content/repositories/releases 发布
不过,目前看来只有快照可用。
此外,正如下面作者的评论中提到的,行
libraryDependencies += "org.apache.hbase" %% "hbase-spark" % "2.0.0-SNAPSHOT"
其实应该是
libraryDependencies += "org.apache.hbase" % "hbase-spark" % "2.0.0-SNAPSHOT"
在这种情况下不需要双 %,因为您不想将 scala 版本附加到工件名称。
添加此存储库
云朵 https://repository.cloudera.com/artifactory/cloudera-repos/
然后你可以通过maven下载它:
org.apache.hbase hbase-火花 1.2.0-cdh5.7.0
我在 pom.xml
中使用 hbase-spark 依赖项时遇到了同样的问题<!-- https://mvnrepository.com/artifact/org.apache.hbase/hbase-spark -->
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-spark</artifactId>
<version>2.0.0-alpha4</version>
</dependency>
我通过以下步骤解决了上述问题:
- 点击下图蓝色标记区域,从maven repository 下载hbase-spark依赖jar。
- 在 /src/main/resources 中创建一个 lib 文件夹。
- 将下载的jar复制到lib文件夹中,并在pom.xml 中添加jar文件的系统路径
.
<!-- https://mvnrepository.com/artifact/org.apache.hbase/hbase-spark -->
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-spark</artifactId>
<version>2.0.0-alpha4</version>
<scope>system</scope>
<systemPath>${project.basedir}/src/main/resources/lib/hbase-spark-2.0.0-alpha4.jar</systemPath>
</dependency>
希望对你有所帮助。