Pivotal HDB - 如何将数据从 HAWQ 内部/外部可读 table 推送到 Greenplum
Pivotal HDB - How to push data from HAWQ Internal /external readable table TO Greenplum
我们有小型 hadoop 和 Greenplum 集群。
当前数据管道流为:
External table >> hadoop-hawq external readbale table >>hawq internal table.
输出:
1.WE 正在尝试使用 GREENPLUM 扩展数据管道。基本上是想将 HAWQ 内部 table 或外部可读 table 数据直接推送到 greenplum 中。
原因是因为我们要编辑我们的文件。另外,HAWQ 不支持更新和删除。是否有任何替代方法来处理或推送数据。请指导。
2.How 通过 GPDB external table 使用 gphdfs 协议访问 HDFS 数据
提前致谢!
如果你想将HAWQ内部table中的数据推送到Greenplum数据库,你可以:
1) 使用 writable 外部 table 将 HAWQ 内部 table 中的数据卸载到 HDFS 上的文件中。下面是执行卸载的示例:http://gpdb.docs.pivotal.io/4380/admin_guide/load/topics/g-unloading-data-using-a-writable-external-table.html
2) 然后使用gphdfs、gpfdist等可读外部协议table将HDFS文件中的数据加载到Greenplum数据库中。详情可参考http://gpdb.docs.pivotal.io/4320/admin_guide/load.html
如果想将HAWQ中可读外部table中的数据推送到Greenplum数据库,可以像在HAWQ中一样直接使用Greenplum数据库中可读外部table。
对于 gphdfs,这里有一些示例可能会有所帮助:
http://gpdb.docs.pivotal.io/4380/admin_guide/load/topics/g-example-1-greenplum-file-server-gpfdist.html
我们有小型 hadoop 和 Greenplum 集群。
当前数据管道流为:
External table >> hadoop-hawq external readbale table >>hawq internal table.
输出: 1.WE 正在尝试使用 GREENPLUM 扩展数据管道。基本上是想将 HAWQ 内部 table 或外部可读 table 数据直接推送到 greenplum 中。 原因是因为我们要编辑我们的文件。另外,HAWQ 不支持更新和删除。是否有任何替代方法来处理或推送数据。请指导。
2.How 通过 GPDB external table 使用 gphdfs 协议访问 HDFS 数据
提前致谢!
如果你想将HAWQ内部table中的数据推送到Greenplum数据库,你可以:
1) 使用 writable 外部 table 将 HAWQ 内部 table 中的数据卸载到 HDFS 上的文件中。下面是执行卸载的示例:http://gpdb.docs.pivotal.io/4380/admin_guide/load/topics/g-unloading-data-using-a-writable-external-table.html
2) 然后使用gphdfs、gpfdist等可读外部协议table将HDFS文件中的数据加载到Greenplum数据库中。详情可参考http://gpdb.docs.pivotal.io/4320/admin_guide/load.html
如果想将HAWQ中可读外部table中的数据推送到Greenplum数据库,可以像在HAWQ中一样直接使用Greenplum数据库中可读外部table。
对于 gphdfs,这里有一些示例可能会有所帮助: http://gpdb.docs.pivotal.io/4380/admin_guide/load/topics/g-example-1-greenplum-file-server-gpfdist.html