/tmp 中的 inode 中的 Kubernetes 集群节点 运行
Kubernetes cluster nodes running out of inodes in /tmp
Kubernetes 集群节点上的 /tmp
文件系统(分区)是否有推荐的最小大小(或最小 inode 数)?
我遇到的情况(在裸机 Kubernetes 1.16.3 集群上)是集群节点使用了 100% 的 inode(根据 df -i
)。这会产生一些负面影响(正如人们所预料的那样;例如,kubectl exec ... bash
在相关节点上进入 pods 会导致 "no space left on device"),但 kubectl get nodes
(奇怪地)仍然将这些节点报告为 "Ready"。 /tmp
涉及的文件系统比较小,分别为2G(121920 inode)和524M(35120 inode)
没有建议的 kubernetes 最小大小。默认值适用于大多数情况,但您正在创建例如许多空文件最终可能 运行 超出索引节点。如果你需要更多,你需要手动调整它的数量。
Kubernetes 集群节点上的 /tmp
文件系统(分区)是否有推荐的最小大小(或最小 inode 数)?
我遇到的情况(在裸机 Kubernetes 1.16.3 集群上)是集群节点使用了 100% 的 inode(根据 df -i
)。这会产生一些负面影响(正如人们所预料的那样;例如,kubectl exec ... bash
在相关节点上进入 pods 会导致 "no space left on device"),但 kubectl get nodes
(奇怪地)仍然将这些节点报告为 "Ready"。 /tmp
涉及的文件系统比较小,分别为2G(121920 inode)和524M(35120 inode)
没有建议的 kubernetes 最小大小。默认值适用于大多数情况,但您正在创建例如许多空文件最终可能 运行 超出索引节点。如果你需要更多,你需要手动调整它的数量。