如何正确计算 GCP Cloud 运行 定价

How to calculate GCP Cloud Run pricing correctly

如果我 运行 一个月的服务,我正在尝试计算 GCP Cloud Run 成本。在附图中,您可以看到它没有添加请求总数的成本。 Cloud 运行 对一百万个请求收取 0.40 美元的费用。我想我需要在它计算的成本之上加上请求总数的成本,这在计算成本时非常具有误导性。例如在UI中,如果我们选择CPU is always allocated,则没有选择请求数量的选项。我知道热实例(2 个实例)应该 运行ning 24/7 30 天。因此,如果我们计算每月 730 小时,则为 1460 小时(5256000 秒),这意味着将产生账单:

5256000 * 0.00002160 = 113.52596 USD for the CPU cost。这里 0.00002160 是 vCPU 秒的价格。

5256000 * 0.00000240 = 12.61 USD for the memory cost。这里 0.00000240 是内存 GiB 秒的价格

所以现在,如果我们减去 13402800 - 5256000 = 8146800,我们会得到 8146800 seconds for the CPU,对于内存,我们会得到 268056000 - 5256000 = 267530400。所以价格会下降到这个:

CPU = 8146800 * 0.00002160 = 175.97
Memory = 267530400 * 0.00000240 = 642.07

Total would be = 175.97 + 642.07 + 113.52 + 12.61 = 944.17 + 4 (1 million request is 0.4 USD = 10 million * 0.4 = 4.00 USD) = 948.17

我也试过这样计算:

CPU cost = 24 * 30 * 0.00002160 * 3600 * 60 = 3359.23

Memory cost = 24 * 30 * 0.00000240 * 3600 * 60 = 373.24 

Total = 3732.47 USD

我查看了 Whosebug 上的 this 答案,但我认为这是一个错误的计算。

有人可以分解与 GCP 定价计算器显示的输出相匹配的成本吗?

估计的人真傻。经过几次测试,我明白了它的配置。

这里有一些细节

  • 100(峰值)- 2(最小值)= 98 -> 上下可能的实例数。任意,计算器说 50% 的时间是 UP,50% 的时间是 down。因此,它平均考虑 49 个实例在一个月内全职运行。
  • 除了这 49 个之外,还有 2 个(最小值)始终在线。因此,要考虑的实例总数在 51 个月份始终处于开启状态。
  • 52 * 730 * 3600 -> 1.34亿....计算器的CPU小时数。

现在,你的第二种计算方式:

CPU cost = 24 * 30 * 0.00002160 * 3600 * 60 = 3359.23

仔细查看使用的数字:

  • 24:每天小时数
  • 30: 每个月的天数
  • 0.0000...:CPU 成本
  • 3600:每小时秒数
  • 60:????那是什么?每个月的实例数?每分钟多少秒?每小时分钟数? (最后2个答案,3600已经考虑进去了)

最后一句话,当你谈论数字时,请注意数字。您忘记了很多 0,很难理解您的问题。

不知道我是否回答了你的问题。无论如何,很难准确知道您使用产品时支付的成本。您可以通过设置最大实例知道最大成本,并且您知道您永远不会超过该阈值,但是,如果您对流量和请求数量没有清晰的了解(并且您还忘记了出口成本) 无法准确估计。