CI/CD 使图像在生产中保持最新
CI/CD keeping images up to date in production
我有一个 scraper 服务调用 docker run
作为 docker 的子进程-包含 scraper applications/code 的图像。目前我必须通过 ssh 进入集群,以便在任何抓取程序应用程序更新时手动重建图像。
我的问题是将其集成到 CI/CD 流程中的最合适方法是什么。目前我有构建图像并将其推送到注册表的步骤,但我如何自动更新到 cluster/server 或执行此操作的最佳方法是什么?
Currently I have to ssh into the cluster to manually rebuild the images anytime there is an update made to any of the scraper applications.
最简单的方法是自动执行此手动过程,并将其添加到您的 CI/CD 管道中。编写一个脚本,然后 运行 它作为管道的一部分针对远程 cluster/server。
随着流程的成熟,您将看到诸如 Kubernetes, AWS EC2 Container Service, Rancher, Docker Swarm 之类的工具……不胜枚举。这些被认为是 容器编排工具 ,它们的工作之一是为您优雅地处理许多容器的部署。
不过,部署容器只是这些产品的冰山一角。我建议您从现在必须手动执行的流程自动化开始,其余的将根据需要进行。
我有一个 scraper 服务调用 docker run
作为 docker 的子进程-包含 scraper applications/code 的图像。目前我必须通过 ssh 进入集群,以便在任何抓取程序应用程序更新时手动重建图像。
我的问题是将其集成到 CI/CD 流程中的最合适方法是什么。目前我有构建图像并将其推送到注册表的步骤,但我如何自动更新到 cluster/server 或执行此操作的最佳方法是什么?
Currently I have to ssh into the cluster to manually rebuild the images anytime there is an update made to any of the scraper applications.
最简单的方法是自动执行此手动过程,并将其添加到您的 CI/CD 管道中。编写一个脚本,然后 运行 它作为管道的一部分针对远程 cluster/server。
随着流程的成熟,您将看到诸如 Kubernetes, AWS EC2 Container Service, Rancher, Docker Swarm 之类的工具……不胜枚举。这些被认为是 容器编排工具 ,它们的工作之一是为您优雅地处理许多容器的部署。
不过,部署容器只是这些产品的冰山一角。我建议您从现在必须手动执行的流程自动化开始,其余的将根据需要进行。