container_memory_rss 与使用的节点内存的关系

container_memory_rss relation with node memory used

我正在尝试理解 container_memory_rss 或 container_memory_working_set_bytes 关于 node_memory_used 即(node_memory_MemTotal_bytes - node_memory_MemAvailable_bytes)

这就是我的意思

PROMQL 1:

sum(container_memory_rss) by (instance) / 1024 / 1024 / 1024

{instance="172.19.51.8:10250"}        7.537441253662109

PROMQL 2:

sum(node_memory_MemTotal_bytes - node_memory_MemAvailable_bytes) by (instance) / 1024 / 1024 / 1024

{instance="172.19.51.8:9100"}         2.2688369750976562

PROMQL 3:

sum(container_memory_working_set_bytes) by (instance) / 1024 / 1024 / 1024

{instance="172.19.51.8:10250"}        9.285114288330078

PROMQL 4:

sum(node_memory_MemAvailable_bytes) by (instance) / 1024 / 1024 / 1024

{instance="172.19.51.8:9100"}         13.356605529785156

所以如果一个 Pod 总是运行在一个节点上。我不明白为什么 container_memory_rsscontainer_memory_working_set_bytes 大于 node_memory_used

即 PROMQL 1 和 PROMQL 3 的值远远超过 PROMSQL 2 的值,即节点使用的内存。

我不知道我是否正确 pod / 容器 rss 不应该总是 <= 使用的节点内存(即使没有设置默认资源限制)

tl;博士

使用容器名称过滤器 (container!="") 排除总数:

sum(container_memory_rss{container!=""}) by (instance) / 2^30

说明

如果您 运行 第一个查询结果按容器名称分组,您会注意到大部分使用都来自没有名称的容器:

sort_desc(sum(container_memory_rss{instance="ip-192-168-104-46"}) by (name)) / 2^30

{}                          3.9971389770507812
{name="prometheus"}         0.6084518432617188
{name="cluster-autoscaler"} 0.04230499267578125

实际上有几个条目没有名字,但它们都有一个 id:

sort_desc(sum(container_memory_rss{instance="ip-192-168-104-46"}) by (id)) / 2^30

# these do not have a container name
{id="/"}                                1.1889266967773438
{id="/kubepods"}                        0.900482177734375
{id="/kubepods/burstable"}              0.6727218627929688
{id="/system.slice/docker.service"}     0.07495498657226562
{id="/system.slice/kubelet.service"}    0.060611724853515625

# and this is an example id of a real container which has a name label
{id="/kubepods/burstable/pod562495f9-afa6-427e-8435-016c2b500c74/e73975d90b66772e2e17ab14c473a2d058c0b9ffecc505739ee1a94032728a78"} 0.6027107238769531

这些是每个 cgroup 的累积值。 cAdvisorcgroups 中获取统计数据,如果您查看它们,您会发现熟悉的实体:

# systemd-cgls -a
├─kubepods
│ ├─podc7dfcc4e-74fc-4469-ad56-c13fe5a9e7d8
│ │ ├─61a1a58e47968e7595f3458a6ded74f9088789a865bda2be431b8c8b07da1c6e
│ │ └─d47601e38a96076dd6e0205f57b0c365d4473cb6051eb0f0e995afb31143279b
│ ├─podfde9b8ca-ce80-4467-ba05-03f02a14d569
│ │ ├─9d3783df65085d54028e2303ccb2e143fecddfb85d7df4467996e82691892176
│ │ └─47702b7977bed65ddc86de92475be8f93b50b06ae8bd99bae9710f0b6f63d8f6
│ ├─burstable
│ │ ├─pod9ff634a5-fd2a-42e2-be27-7e1028e96b67
│ │ │ ├─5fa225aad10bdc1be372859697f53d5517ad28c565c6f1536501543a071cdefc
│ │ │ └─27402fed2e4bb650a6fc41ba073f9994a3fc24782ee366fb8b93a6fd939ba4d3

如果您将 kubepods 的所有直接子项相加,您将得到与 kubepods 相同的值。由于这些总数 sum(container_memory_rss) by (instance) 显示了实际资源利用率的几倍。

解决方案就是过滤掉任何没有容器名称的值。您可以在查询时执行此操作,如顶部的示例所示,或者使用 relabel_config 配置 Prometheus 以在抓取时删除此类指标。