Hive 可以从不在 HDFS 上的外部位置加载数据吗?

Can Hive load data from external location which is not on HDFS?

我想了解对于 Hive 中的外部 table,我们可以在 HDFS 之外拥有位置吗,我的意思是我想在 [之上创建我的外部 table =13=] 存储位置 (gs://bucket-name/table-partitions)。

我想更新我之前提出的问题,是的,在 Google DataProc 集群或独立集群上几乎没有代码更改是可能的,您可以关注此 link - Migrating 50TB data from local Hadoop cluster to Google Cloud Storage

这不是一个难题,但需要开箱即用的配置,这在 Google Cloud 上没有特别详细的记录。为了修复它,更新以下 Hadoop 配置参数:

一个。将您的服务帐户密钥字符串指向 google 服务帐户的密钥字符串(例如:域包括 @test.gservice.com)google.cloud.auth.service.account.email。

乙。将密钥文件字符串更新到 google.cloud.auth.service.account.keyfile 的 .p12 位置。

C。将 google.cloud.auth.service.account.enable 更新为 true。