GCD 中奇怪的内存使用图表
strange chart of memory usage in GCD
我在 Google Cloud Dataflow 中执行了一个作业,现在我在 StackDriver 上看到了结果。内存图看不懂。我只使用了 1 个和 3 个 worker 之后,但这张图表的比例是 TB 到秒的顺序。这是正常的?或者规模是 GB?在这项工作的指标中,同样,在我看到的一个精确时刻,实际内存的值为 45 GB,它不在这张图表中,而且要小得多。谁能给我解释一下这张图表?
内存使用量(以 GB 或 TB 为单位)和 内存使用时间(通常以 GB 小时或 TB 秒为单位)不同测量值。
数据流UI对内存时间的解释如下:"The total running time for all memory used by all workers associated with your job. For example, if your job used 3GB of memory for 4 hours, the total memory time is 12 [GB] hours."
Total memory usage time
是 Dataflow metrics 之一,用于衡量计算能力(在本例中为系统内存)的消耗。这是
The total GB seconds of memory allocated to this Dataflow job.
根据既定的 Pricing ,客户将根据所消耗的资源进行计费。
内存消耗在 GB-seconds
中测量。 1 GB.s 是 1 秒的挂钟时间,配备 1GB 内存。计算时间以 100 毫秒为增量进行测量,四舍五入到最接近的增量。
由于图表上的内存使用量是时间聚合值,因此 TB.s
中表示的值可以通过除以 3600 秒转换为 GB.h
:
1 GB.h = 3.6 TB.s
曲线形状和 Y 坐标取决于您使用的聚合和对齐设置:max
或 mean
、1m
或 1h
对齐周期等。例如,在峰值负载较短的情况下,宽时间 window 将作为均值对齐器的重要分母。
我在 Google Cloud Dataflow 中执行了一个作业,现在我在 StackDriver 上看到了结果。内存图看不懂。我只使用了 1 个和 3 个 worker 之后,但这张图表的比例是 TB 到秒的顺序。这是正常的?或者规模是 GB?在这项工作的指标中,同样,在我看到的一个精确时刻,实际内存的值为 45 GB,它不在这张图表中,而且要小得多。谁能给我解释一下这张图表?
内存使用量(以 GB 或 TB 为单位)和 内存使用时间(通常以 GB 小时或 TB 秒为单位)不同测量值。
数据流UI对内存时间的解释如下:"The total running time for all memory used by all workers associated with your job. For example, if your job used 3GB of memory for 4 hours, the total memory time is 12 [GB] hours."
Total memory usage time
是 Dataflow metrics 之一,用于衡量计算能力(在本例中为系统内存)的消耗。这是
The total GB seconds of memory allocated to this Dataflow job.
根据既定的 Pricing ,客户将根据所消耗的资源进行计费。
内存消耗在 GB-seconds
中测量。 1 GB.s 是 1 秒的挂钟时间,配备 1GB 内存。计算时间以 100 毫秒为增量进行测量,四舍五入到最接近的增量。
由于图表上的内存使用量是时间聚合值,因此 TB.s
中表示的值可以通过除以 3600 秒转换为 GB.h
:
1 GB.h = 3.6 TB.s
曲线形状和 Y 坐标取决于您使用的聚合和对齐设置:max
或 mean
、1m
或 1h
对齐周期等。例如,在峰值负载较短的情况下,宽时间 window 将作为均值对齐器的重要分母。