压缩google个云存储桶中的目录,然后下载到本地目录

Compress a directory in google cloud storage bucket and then download in local directory

我在 google 云存储桶 foo 中有一个名为 bar 的目录。目录 bar.

中大约有 100 万个小文件(每个大约 1-2 kb)

根据 this reference 如果我有大量文件,我应该使用 gsutil -m 选项来下载文件,如下所示:

gsutil -m cp -r gs://foo/bar/ /home/username/local_dir

但是考虑到文件总数(大约10^6),整个下载文件的过程仍然很慢。

有什么办法可以把云盘里的整个目录压缩下来,然后下载到本地文件夹中吗?

在复制之前无法压缩云中的目录,但您可以通过在多台计算机上分配处理来加快复制速度。例如,有脚本 so

machine1 做 gsutil -m cp -r gs://<bucket>/a* local_dir

机器 2 gsutil -m cp -r gs://<bucket>/b* local_dir 等等

根据文件的命名方式,您可能需要调整以上内容,但希望您能理解。