Windows 运行 时 Phoenix CsvBulkLoadTool 错误

Phoenix CsvBulkLoadTool error while running from Windows

我想使用 Java 中的 CsvBulkLoadTool 将 csv 数据文件放入 HBase table。

HBase 和 Phoenix 运行正在 Ubuntu 虚拟机上。

当我从 Windows 运行 CsvBulkLoadTool.run() 我得到下一个异常:

java.lang.IllegalArgumentException: Pathname /C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar from hdfs://vm:9000/C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar is not a valid DFS filename.

顺便说一下,当我 java -jar 我的示例应用程序 运行 在 Ubuntu VM 上运行时,我得到了 nex 异常:

java.io.FileNotFoundException: File does not exist: hdfs://vm:9000/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar

其中 /usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar 是 Ubuntu 虚拟机上的实际 jar 文件位置。

我使用了来自 hereCsvBulkLoadTool 个样本。

此外,当我使用纯 JDBC 通过 Phoenix 连接和填充 table 时 - 一切正常。

CSVBulkloadTool 应 运行 为 hadoop jar

所以我应该运行: hadoop jar my-application-with-CSVBulkloadTool.jar