如何在 GCP 上部署超过 100 MB 的压缩文件?
How to deploy compressed files more than 100 mb on GCP?
我写了一个Google云函数。文件大约 100 MB。
我该如何部署它?它有一个 .caffemodel 文件,大小为 128 mb。
查看此处找到的 Cloud Functions 的 GCP 配额:
https://cloud.google.com/functions/quotas
我们看到函数的最大部署大小为 100MB,并且不能增加(通过配额)。让我们记住 Cloud Functions 的本质......总的来说,执行时间很短,其中可用于处理并发工作的实例数量是动态的,并且可以扩展到零。
Cloud Functions 在易用性范围内处于最右边,但这是以牺牲灵活性(在本例中为部署规模)为代价的。下一个选项是名为 Cloud 运行 的产品。 Cloud 运行 还提供动态实例数量缩放,包括缩放到零。然而,它(可以说)需要更多的工作才能获得 运行。使用 Cloud 运行,您可以构建一个 Docker 图像,然后根据需要实例化该图像以处理传入的工作请求。 Docker 图像对其功能的限制要少得多。具体来说,容器应该能够容纳 128 MB 的数据文件(通常)
我写了一个Google云函数。文件大约 100 MB。 我该如何部署它?它有一个 .caffemodel 文件,大小为 128 mb。
查看此处找到的 Cloud Functions 的 GCP 配额:
https://cloud.google.com/functions/quotas
我们看到函数的最大部署大小为 100MB,并且不能增加(通过配额)。让我们记住 Cloud Functions 的本质......总的来说,执行时间很短,其中可用于处理并发工作的实例数量是动态的,并且可以扩展到零。
Cloud Functions 在易用性范围内处于最右边,但这是以牺牲灵活性(在本例中为部署规模)为代价的。下一个选项是名为 Cloud 运行 的产品。 Cloud 运行 还提供动态实例数量缩放,包括缩放到零。然而,它(可以说)需要更多的工作才能获得 运行。使用 Cloud 运行,您可以构建一个 Docker 图像,然后根据需要实例化该图像以处理传入的工作请求。 Docker 图像对其功能的限制要少得多。具体来说,容器应该能够容纳 128 MB 的数据文件(通常)