TensorFlow 服务 S3 和 Docker

TensorFlow serving S3 and Docker

我正在尝试找到一种使用 Tensorflow 服务的方法,该服务能够添加新模型和模型的新版本。我可以将 tensorflow 服务指向 S3 存储桶吗?

我还需要它 运行 作为容器吗?这是可能的还是我需要实现另一个程序来下拉模型并将其添加到共享卷并要求 tensorflow 更新文件系统中的模型?

或者我是否需要构建自己的 docker 图像才能从 s3 中提取内容?

我发现我可以使用 TF S3 连接信息(即使它没有在 TF 服务 Docker 容器中概述)。示例 docker 运行 命令:

docker run -p 8501:8501 -e AWS_ACCESS_KEY_ID=$AWS_ACCESS_KEY_ID -e AWS_SECRET_ACCESS_KEY=$AWS_SECRET_ACCESS_KEY -e MODEL_BASE_PATH=s3://path/bucket/models -e MODEL_NAME=model_name -e S3_ENDPOINT=s3.us-west-1.amazonaws.com -e AWS_REGION=us-west-1 -e TF_CPP_MIN_LOG_LEVEL=3 -t tensorflow/serving

注意因此设置了日志级别bug

我已经提交了一个非常详细的答案(但使用的是 DigitalOcean Spaces 而不是 S3),这里:

How to deploy TensorFlow Serving using Docker and DigitalOcean Spaces

由于实现依赖于类似 S3 的接口,我想我应该在此处添加 link 以防有人需要更全面的示例。