Kubernetes 节点没有获得正确的标签

Kubernetes nodes not getting proper labels

在网上翻了半天之后,我仍然找不到我的工作节点没有得到正确标签的原因。我在 AWS 的 Auto Scaling 组中有我的工作节点,我正在使用 AWS 云提供商和 Kubeadm 来配置我的集群。在我的所有主节点和工作节点启动后,我没有看到分配给主节点中存在的工作节点的可用区等正确标签,如下所示:

# kubectl get nodes --show-labels
NAME                             STATUS   ROLES    AGE     VERSION   LABELS
ip-10-100-128-9.ec2.internal     Ready    <none>   5h12m   v1.14.3   beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=ip-10-100-128-9.ec2.internal,kubernetes.io/os=linux
ip-10-100-148-5.ec2.internal     Ready    <none>   5h12m   v1.14.3   beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=ip-10-100-148-5.ec2.internal,kubernetes.io/os=linux
ip-10-100-164-199.ec2.internal   Ready    <none>   5h12m   v1.14.3   beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=ip-10-100-164-199.ec2.internal,kubernetes.io/os=linux
ip-10-100-3-145.ec2.internal     Ready    master   5h15m   v1.14.3   beta.kubernetes.io/arch=amd64,beta.kubernetes.io/instance-type=m5.large,beta.kubernetes.io/os=linux,failure-domain.beta.kubernetes.io/region=us-east-1,failure-domain.beta.kubernetes.io/zone=us-east-1c,kubernetes.io/arch=amd64,kubernetes.io/hostname=ip-10-100-3-145.ec2.internal,kubernetes.io/os=linux,node-role.kubernetes.io/master=
ip-10-100-3-55.ec2.internal      Ready    master   5h15m   v1.14.3   beta.kubernetes.io/arch=amd64,beta.kubernetes.io/instance-type=m5.large,beta.kubernetes.io/os=linux,failure-domain.beta.kubernetes.io/region=us-east-1,failure-domain.beta.kubernetes.io/zone=us-east-1a,kubernetes.io/arch=amd64,kubernetes.io/hostname=ip-10-100-3-55.ec2.internal,kubernetes.io/os=linux,node-role.kubernetes.io/master=
ip-10-100-3-76.ec2.internal      Ready    master   5h15m   v1.14.3   beta.kubernetes.io/arch=amd64,beta.kubernetes.io/instance-type=m5.large,beta.kubernetes.io/os=linux,failure-domain.beta.kubernetes.io/region=us-east-1,failure-domain.beta.kubernetes.io/zone=us-east-1b,kubernetes.io/arch=amd64,kubernetes.io/hostname=ip-10-100-3-76.ec2.internal,kubernetes.io/os=linux,node-role.kubernetes.io/master=

我以某种方式怀疑这是我无法为我想附加到我的 docker 注册表 pod 的 PV 创建 PVC 的原因。

# kubectl describe pod docker-registry-5b66dd644d-66f7k -n default | grep -A4  -i Events
Events:
  Type     Reason            Age                 From               Message
  ----     ------            ----                ----               -------
  Warning  FailedScheduling  84s (x11 over 14m)  default-scheduler  0/6 nodes are available: 3 node(s) had taints that the pod didn't tolerate, 3 node(s) had volume node affinity conflict.
  Warning  FailedScheduling  79s (x3 over 82s)   default-scheduler  0/4 nodes are available: 4 node(s) had taints that the pod didn't tolerate.

我看到创建了我的存储类和 PV,并且可以在 AWS 上验证相同的卷 ID。我还手动尝试使用 AWS CLI 将卷附加到我的工作程序节点,我成功了,但没有通过 PVC。请告知这里出了什么问题。提前致谢。

错误状态 node(s) had taints that the pod didn't tolerate。您必须使用 kubectl taint nodes node_name taint- 从节点中删除这些污点,或者将 tolerations 添加到您创建的对象中。

问题出在 kubelet 服务文件上。默认情况下,kubeadm 不会在 kubelet 单元文件中添加 AWS 云提供商信息。在 /etc/sysconfig/kubelet 文件中手动添加参数 KUBELET_EXTRA_ARGS=--cloud-provider=aws 解决了该问题,并且标签由 AWS 自动分配。