有没有办法绕过 AWS lambda 函数的 250 MB 限制?
Is there a way to get around the 250 MB limit for an AWS lambda function?
我正在 AWS 中开发 Lambda 函数,我尝试使用 Layers 加载依赖项(它们是 statsmodels、scikit-learn、pyLDAvis、pandas、numpy、nltk、matplotlib、joblib、 gensim 和 eli5),但我无法添加它们,因为我收到一条错误消息,指出代码和层的最大允许大小加起来是 262144000 字节 (250 MB)。我设法将它减少到 264 MB,但它仍然不够小,即使允许,我也不确定它能否正常工作。
有没有办法为依赖添加更多space?或者,有没有办法让我删除包中的一些子目录——例如,我只需要 statsmodels 的分发版,那么我可以删除其他所有内容吗?
Is there any way to add more space for the dependencies?
如果将 lambda 函数打包为 container lambda image,您的依赖项将有 10 GB。在运行时,您的函数仍然只有 500MB 的 /tmp 存储空间。
我正在 AWS 中开发 Lambda 函数,我尝试使用 Layers 加载依赖项(它们是 statsmodels、scikit-learn、pyLDAvis、pandas、numpy、nltk、matplotlib、joblib、 gensim 和 eli5),但我无法添加它们,因为我收到一条错误消息,指出代码和层的最大允许大小加起来是 262144000 字节 (250 MB)。我设法将它减少到 264 MB,但它仍然不够小,即使允许,我也不确定它能否正常工作。
有没有办法为依赖添加更多space?或者,有没有办法让我删除包中的一些子目录——例如,我只需要 statsmodels 的分发版,那么我可以删除其他所有内容吗?
Is there any way to add more space for the dependencies?
如果将 lambda 函数打包为 container lambda image,您的依赖项将有 10 GB。在运行时,您的函数仍然只有 500MB 的 /tmp 存储空间。