AWS Lambda 函数:解压后的大小必须小于 262144000 字节
AWS Lambda Function: Unzipped size must be smaller than 262144000 bytes
我正在尝试为机器学习创建 API。为此,我正在使用 AWS、GitHub 和一个 python 项目。我创建了一个 GitHub 动作,以 zip 格式将所有站点包(在 venv 中)和 ML 模型和脚本保存到 运行 API。此操作还将此 zip 添加到 S3 存储桶并启动 Lambda 函数,该函数导入先前放置在 S3 中的 zip。
我的问题是:zip 文件对于 lambda 来说太大了。
Unzipped size must be smaller than 262144000 bytes
我该如何解决这个问题?有更好的选择吗?
PS.: 我需要将 gitub 连接到 API
您的部署包太大。仔细检查您是否真的需要压缩的所有软件/库。
来自文档:
There is a hard limit of 50MB for compressed deployment package with AWS Lambda and an uncompressed AWS Lambda hard limit of 250MB.
请注意,对于已部署的所有 AWS Lambda 函数,区域范围的软限制为 75GB。
否则,您有以下选择:
- Container images
- Layers
- 使用其他 AWS 服务,例如云服务器
一个 hacky 方式:
如果您确实需要随 AWS Lambda 一起运送所有依赖项,您可能希望将大型二进制文件或依赖项包放入 S3 存储桶中。然后,让您的 Lambda 获取这些。
我正在尝试为机器学习创建 API。为此,我正在使用 AWS、GitHub 和一个 python 项目。我创建了一个 GitHub 动作,以 zip 格式将所有站点包(在 venv 中)和 ML 模型和脚本保存到 运行 API。此操作还将此 zip 添加到 S3 存储桶并启动 Lambda 函数,该函数导入先前放置在 S3 中的 zip。
我的问题是:zip 文件对于 lambda 来说太大了。
Unzipped size must be smaller than 262144000 bytes
我该如何解决这个问题?有更好的选择吗?
PS.: 我需要将 gitub 连接到 API
您的部署包太大。仔细检查您是否真的需要压缩的所有软件/库。
来自文档:
There is a hard limit of 50MB for compressed deployment package with AWS Lambda and an uncompressed AWS Lambda hard limit of 250MB.
请注意,对于已部署的所有 AWS Lambda 函数,区域范围的软限制为 75GB。
否则,您有以下选择:
- Container images
- Layers
- 使用其他 AWS 服务,例如云服务器
一个 hacky 方式:
如果您确实需要随 AWS Lambda 一起运送所有依赖项,您可能希望将大型二进制文件或依赖项包放入 S3 存储桶中。然后,让您的 Lambda 获取这些。