如何在 CI/CD 中部署 Google Cloud Functions 而无需重新部署未更改的 Cloud Functions 以避免配额?

How can I deploy Google Cloud Functions in CI/CD without re-deploying unchanged Cloud Functions to avoid the quota?

Cloud Build 的创建配额为 30。如果我们有超过 30 个 Cloud Functions,这个配额很容易达到。有没有一种方法可以部署超过 30 个人们使用的 Cloud Functions,最好是足够聪明而不部署未经修改的 Cloud Functions?

根据我们在 GCP 社区松弛频道中的对话,这里有一个带有小示例的想法。该示例描述了一个云函数,但可以轻松扩展到任意一组云函数。

请记住 - 这不是我的发明 - 可以在互联网上找到大量示例。

CICD 在 Cloud Build 中使用 Terraform(简单来说 - 云构建 yaml 文件包含 'terraform init' 和 `terraform apply')。因此,推送(或拉取请求)会触发执行 Terraform 的 Cloud Build 作业。

在这个问题的范围内 - terraform 脚本应该有 4 个元素:

1/ 带有云功能代码的 zip 存档的名称 - 它应该在 GCS 存储桶中:

locals {
  cf_zip_archive_name = "cf-some-prefix-${data.archive_file.cf_source_zip.output_sha}.zip"
}

2/ 一个压缩包:

data "archive_file" "cf_source_zip" {
  type        = "zip"
  source_dir  = "${path.module}/..<<path + directory to the CF code>>"
  output_path = "${path.module}/tmp/some-name.zip"
}

3/ 桶中的 GCS 对象(假设桶已经存在,或者在本题范围之外创建):

resource "google_storage_bucket_object" "cf_source_zip" {
  name         = local.cf_zip_archive_name
  source       = data.archive_file.cf_source_zip.output_path
  content_type = "application/zip"
  bucket       = google_storage_bucket.cf_source_archive_bucket.name
}

4/一个云函数(只显示2个参数):

resource "google_cloudfunctions_function" "sf_integrations" {

  source_archive_bucket = google_storage_bucket.cf_source_archive_bucket.name
  source_archive_object = google_storage_bucket_object.cf_source_zip.name

}

它是如何协同工作的 =>

触发 Terraform 时,会创建 zip 文件以防云功能代码已被修改。 zip 文件的 SHA 哈希码不同(如果代码已被修改)。因此,具有 GCS 对象名称的局部变量会获得不同的值。这意味着 zip 文件已上传到具有新名称的 GCS 存储桶。由于源代码对象现在有了新名称 source_archive_object = google_storage_bucket_object.cf_source_zip.name,terraform 发现必须重新部署云函数(因为状态文件具有存档对象的旧名称)。重新部署云功能。

另一方面,如果代码未修改 - 名称 source_archive_object = google_storage_bucket_object.cf_source_zip.name 未修改,因此 Terraform 不会部署任何内容。

显然,如果修改了其他参数 - 无论如何都会进行重新部署。