Google Hadoop 文件系统加密

Google Hadoop Filesystem Encryption

在正常操作中,可以向 google 存储 api 提供加密密钥来加密给定的 bucket/blob: https://cloud.google.com/compute/docs/disks/customer-supplied-encryption

spark/hadoop 个作业 "on the fly" 的输出可能吗?

假设我们想要加密 spark 写入的输出

 df.write().format("json").save("gs:///somebucket/output");

https://storage.googleapis.com/hadoop-conf/gcs-core-default.xml 中无法指定加密密钥。

这可能吗?

如果您询问客户提供的加密密钥目前在 Cloud Dataproc 上是否可用,答案是否定的。 Here 是 Google 处静态加密的当前产品选项列表。

如果您只是想加密 Spark 写入的输出,您仍然可以使用 Google 的 Cloud KMS 在应用程序层对其进行加密。 Here's a codelab 在 Google Cloud Storage 中这样做(这看起来像您使用上面的命令所做的)。 请注意,客户内容在 Google 云平台上默认在存储层进行静态加密,因此这是另一层保护。