将文本文件加载到 Apache Kudu table?

Load a text file into Apache Kudu table?

如何将文本文件加载到 Apache Kudu table?

源文件是否需要先在HDFSspace中?

如果它不与其他 hadoop 生态系统程序(即/hive,impala)共享相同的 hdfs space,是否有 Apache Kudu 等效于:

hdfs dfs -put /path/to/file

在我尝试加载文件之前?

文件不需要在HDFS中first.It可以从边缘取node/localmachine.Kudu类似于Hbase.It是一个实时存储,支持key-indexed record lookup and mutation 但不能像 HDFS.For 那样直接存储文本文件 Kudu 存储文本文件的内容,它需要被解析 tokenised.For 那,你需要有 Spark execution/java api 与 Nifi(或 Apache Gobblin)一起执行处理,然后将其存储在 Kudu table.

您可以将它与 Impala 集成,允许您使用 Impala 从 Kudu tablets 使用 Impala 插入、查询、更新和删除数据SQL 语法,作为使用 Kudu API 构建自定义 Kudu application.Below 的替代方法,步骤如下:

  1. 导入hdfs中的文件
  2. 创建外部 impala table.
  3. 然后在table中插入数据。
  4. 使用关键字 stored as KUDUAs Select 创建一个 kudu table 将内容从 impala 复制到 kudu.

在此link您可以参考更多信息- https://kudu.apache.org/docs/quickstart.html