GKE terraform 的标签更改导致整个集群崩溃

Label change of GKE terraform brought down entire cluster

我更改了 GKE 上节点池的 Terraform 代码,我只更改了与节点池关联的标签,它拆除了整个集群(包括主集群)并重新创建了它。现在每次我尝试对集群进行更改时,无论大小,terraform 都希望拆除并重新创建整个集群。

我们使用 Terraform Cloud 来管理集群。

我在几个实例组的提交中做了类似的事情:

labels = {
-       role = "nodes"
+       "kops.k8s.io/instancegroup" = "nodes"

这些是相应地形图的前几行:

An execution plan has been generated and is shown below.
Resource actions are indicated with the following symbols:
-/+ destroy and then create replacement

Terraform will perform the following actions:

  # module.kubernetes.google_container_cluster.master must be replaced
-/+ resource "google_container_cluster" "master" {

我唯一能想到的可能导致这个问题的是之前的几次提交我修改了实例组的范​​围,以便它们可以从 Google 存储读取和写入,但是这些更改已经已经应用于集群中的所有实例组。

找到解决方案:

上面描述的是与此人类似的问题: https://github.com/gruntwork-io/terraform-google-gke/issues/59

解决方案是将 ignore_changes 添加到我们的主配置中,如下所示: https://github.com/gruntwork-io/terraform-google-gke/pull/60/files

我对这个答案进行了修改:

上面描述的是与此人类似的问题:https://github.com/gruntwork-io/terraform-google-gke/issues/59

解决方案是将 ignore_changes 添加到我们的主配置中,如下所示:https://github.com/gruntwork-io/terraform-google-gke/pull/60/files