将文本文件加载到 Apache Kudu table?
Load a text file into Apache Kudu table?
如何将文本文件加载到 Apache Kudu table?
源文件是否需要先在HDFSspace中?
如果它不与其他 hadoop 生态系统程序(即/hive,impala)共享相同的 hdfs space,是否有 Apache Kudu 等效于:
hdfs dfs -put /path/to/file
在我尝试加载文件之前?
文件不需要在HDFS中first.It可以从边缘取node/localmachine.Kudu类似于Hbase.It是一个实时存储,支持key-indexed record lookup and mutation 但不能像 HDFS.For 那样直接存储文本文件 Kudu 存储文本文件的内容,它需要被解析 tokenised.For 那,你需要有 Spark execution/java api 与 Nifi(或 Apache Gobblin)一起执行处理,然后将其存储在 Kudu table.
或
您可以将它与 Impala 集成,允许您使用 Impala 从 Kudu tablets 使用 Impala 插入、查询、更新和删除数据SQL 语法,作为使用 Kudu API 构建自定义 Kudu application.Below 的替代方法,步骤如下:
- 导入hdfs中的文件
- 创建外部 impala table.
- 然后在table中插入数据。
- 使用关键字
stored as KUDU
和 As Select
创建一个 kudu table
将内容从 impala 复制到 kudu.
在此link您可以参考更多信息- https://kudu.apache.org/docs/quickstart.html
如何将文本文件加载到 Apache Kudu table?
源文件是否需要先在HDFSspace中?
如果它不与其他 hadoop 生态系统程序(即/hive,impala)共享相同的 hdfs space,是否有 Apache Kudu 等效于:
hdfs dfs -put /path/to/file
在我尝试加载文件之前?
文件不需要在HDFS中first.It可以从边缘取node/localmachine.Kudu类似于Hbase.It是一个实时存储,支持key-indexed record lookup and mutation 但不能像 HDFS.For 那样直接存储文本文件 Kudu 存储文本文件的内容,它需要被解析 tokenised.For 那,你需要有 Spark execution/java api 与 Nifi(或 Apache Gobblin)一起执行处理,然后将其存储在 Kudu table.
或
您可以将它与 Impala 集成,允许您使用 Impala 从 Kudu tablets 使用 Impala 插入、查询、更新和删除数据SQL 语法,作为使用 Kudu API 构建自定义 Kudu application.Below 的替代方法,步骤如下:
- 导入hdfs中的文件
- 创建外部 impala table.
- 然后在table中插入数据。
- 使用关键字
stored as KUDU
和As Select
创建一个 kudu table 将内容从 impala 复制到 kudu.
在此link您可以参考更多信息- https://kudu.apache.org/docs/quickstart.html