Google Hadoop 文件系统加密
Google Hadoop Filesystem Encryption
在正常操作中,可以向 google 存储 api 提供加密密钥来加密给定的 bucket/blob:
https://cloud.google.com/compute/docs/disks/customer-supplied-encryption
spark/hadoop 个作业 "on the fly" 的输出可能吗?
假设我们想要加密 spark 写入的输出
df.write().format("json").save("gs:///somebucket/output");
在 https://storage.googleapis.com/hadoop-conf/gcs-core-default.xml 中无法指定加密密钥。
这可能吗?
如果您询问客户提供的加密密钥目前在 Cloud Dataproc 上是否可用,答案是否定的。 Here 是 Google 处静态加密的当前产品选项列表。
如果您只是想加密 Spark 写入的输出,您仍然可以使用 Google 的 Cloud KMS 在应用程序层对其进行加密。 Here's a codelab 在 Google Cloud Storage 中这样做(这看起来像您使用上面的命令所做的)。 请注意,客户内容在 Google 云平台上默认在存储层进行静态加密,因此这是另一层保护。
在正常操作中,可以向 google 存储 api 提供加密密钥来加密给定的 bucket/blob: https://cloud.google.com/compute/docs/disks/customer-supplied-encryption
spark/hadoop 个作业 "on the fly" 的输出可能吗?
假设我们想要加密 spark 写入的输出
df.write().format("json").save("gs:///somebucket/output");
在 https://storage.googleapis.com/hadoop-conf/gcs-core-default.xml 中无法指定加密密钥。
这可能吗?
如果您询问客户提供的加密密钥目前在 Cloud Dataproc 上是否可用,答案是否定的。 Here 是 Google 处静态加密的当前产品选项列表。
如果您只是想加密 Spark 写入的输出,您仍然可以使用 Google 的 Cloud KMS 在应用程序层对其进行加密。 Here's a codelab 在 Google Cloud Storage 中这样做(这看起来像您使用上面的命令所做的)。 请注意,客户内容在 Google 云平台上默认在存储层进行静态加密,因此这是另一层保护。