如何正确计算 GCP Cloud 运行 定价
How to calculate GCP Cloud Run pricing correctly
如果我 运行 一个月的服务,我正在尝试计算 GCP Cloud Run
成本。在附图中,您可以看到它没有添加请求总数的成本。 Cloud 运行 对一百万个请求收取 0.40 美元的费用。我想我需要在它计算的成本之上加上请求总数的成本,这在计算成本时非常具有误导性。例如在UI中,如果我们选择CPU is always allocated
,则没有选择请求数量的选项。我知道热实例(2 个实例)应该 运行ning 24/7 30 天。因此,如果我们计算每月 730 小时,则为 1460 小时(5256000 秒),这意味着将产生账单:
5256000 * 0.00002160 = 113.52596 USD for the CPU cost
。这里 0.00002160 是 vCPU 秒的价格。
5256000 * 0.00000240 = 12.61 USD for the memory cost
。这里 0.00000240 是内存 GiB 秒的价格
所以现在,如果我们减去 13402800 - 5256000 = 8146800
,我们会得到 8146800 seconds for the CPU
,对于内存,我们会得到 268056000 - 5256000 = 267530400
。所以价格会下降到这个:
CPU = 8146800 * 0.00002160 = 175.97
Memory = 267530400 * 0.00000240 = 642.07
Total would be = 175.97 + 642.07 + 113.52 + 12.61 = 944.17 + 4 (1 million request is 0.4 USD = 10 million * 0.4 = 4.00 USD) = 948.17
我也试过这样计算:
CPU cost = 24 * 30 * 0.00002160 * 3600 * 60 = 3359.23
Memory cost = 24 * 30 * 0.00000240 * 3600 * 60 = 373.24
Total = 3732.47 USD
我查看了 Whosebug 上的 this 答案,但我认为这是一个错误的计算。
有人可以分解与 GCP 定价计算器显示的输出相匹配的成本吗?
估计的人真傻。经过几次测试,我明白了它的配置。
这里有一些细节
- 100(峰值)- 2(最小值)= 98 -> 上下可能的实例数。任意,计算器说 50% 的时间是 UP,50% 的时间是 down。因此,它平均考虑 49 个实例在一个月内全职运行。
- 除了这 49 个之外,还有 2 个(最小值)始终在线。因此,要考虑的实例总数在 51 个月份始终处于开启状态。
- 52 * 730 * 3600 -> 1.34亿....计算器的CPU小时数。
现在,你的第二种计算方式:
CPU cost = 24 * 30 * 0.00002160 * 3600 * 60 = 3359.23
仔细查看使用的数字:
- 24:每天小时数
- 30: 每个月的天数
- 0.0000...:CPU 成本
- 3600:每小时秒数
- 60:????那是什么?每个月的实例数?每分钟多少秒?每小时分钟数? (最后2个答案,3600已经考虑进去了)
最后一句话,当你谈论数字时,请注意数字。您忘记了很多 0,很难理解您的问题。
不知道我是否回答了你的问题。无论如何,很难准确知道您使用产品时支付的成本。您可以通过设置最大实例知道最大成本,并且您知道您永远不会超过该阈值,但是,如果您对流量和请求数量没有清晰的了解(并且您还忘记了出口成本) 无法准确估计。
如果我 运行 一个月的服务,我正在尝试计算 GCP Cloud Run
成本。在附图中,您可以看到它没有添加请求总数的成本。 Cloud 运行 对一百万个请求收取 0.40 美元的费用。我想我需要在它计算的成本之上加上请求总数的成本,这在计算成本时非常具有误导性。例如在UI中,如果我们选择CPU is always allocated
,则没有选择请求数量的选项。我知道热实例(2 个实例)应该 运行ning 24/7 30 天。因此,如果我们计算每月 730 小时,则为 1460 小时(5256000 秒),这意味着将产生账单:
5256000 * 0.00002160 = 113.52596 USD for the CPU cost
。这里 0.00002160 是 vCPU 秒的价格。
5256000 * 0.00000240 = 12.61 USD for the memory cost
。这里 0.00000240 是内存 GiB 秒的价格
所以现在,如果我们减去 13402800 - 5256000 = 8146800
,我们会得到 8146800 seconds for the CPU
,对于内存,我们会得到 268056000 - 5256000 = 267530400
。所以价格会下降到这个:
CPU = 8146800 * 0.00002160 = 175.97
Memory = 267530400 * 0.00000240 = 642.07
Total would be = 175.97 + 642.07 + 113.52 + 12.61 = 944.17 + 4 (1 million request is 0.4 USD = 10 million * 0.4 = 4.00 USD) = 948.17
我也试过这样计算:
CPU cost = 24 * 30 * 0.00002160 * 3600 * 60 = 3359.23
Memory cost = 24 * 30 * 0.00000240 * 3600 * 60 = 373.24
Total = 3732.47 USD
我查看了 Whosebug 上的 this 答案,但我认为这是一个错误的计算。
有人可以分解与 GCP 定价计算器显示的输出相匹配的成本吗?
估计的人真傻。经过几次测试,我明白了它的配置。
这里有一些细节
- 100(峰值)- 2(最小值)= 98 -> 上下可能的实例数。任意,计算器说 50% 的时间是 UP,50% 的时间是 down。因此,它平均考虑 49 个实例在一个月内全职运行。
- 除了这 49 个之外,还有 2 个(最小值)始终在线。因此,要考虑的实例总数在 51 个月份始终处于开启状态。
- 52 * 730 * 3600 -> 1.34亿....计算器的CPU小时数。
现在,你的第二种计算方式:
CPU cost = 24 * 30 * 0.00002160 * 3600 * 60 = 3359.23
仔细查看使用的数字:
- 24:每天小时数
- 30: 每个月的天数
- 0.0000...:CPU 成本
- 3600:每小时秒数
- 60:????那是什么?每个月的实例数?每分钟多少秒?每小时分钟数? (最后2个答案,3600已经考虑进去了)
最后一句话,当你谈论数字时,请注意数字。您忘记了很多 0,很难理解您的问题。
不知道我是否回答了你的问题。无论如何,很难准确知道您使用产品时支付的成本。您可以通过设置最大实例知道最大成本,并且您知道您永远不会超过该阈值,但是,如果您对流量和请求数量没有清晰的了解(并且您还忘记了出口成本) 无法准确估计。