cloudfront 之类的 CDN 是否对可以存储在分发中的最大缓存量有任何限制?
Do CDN such as cloudfront have any limitation to maximum volume of cache that can be stored in a distribution?
我想了解 AWS、GCP 和 Azure 中 CDN 的定价。
我无法弄清楚的一件事是,如果可以存储在单个分布中的缓存总量有任何限制,并且随着缓存总量不断增加,是否会增加成本.
给我的准:-
用例 1) 使用 CDN 每天在一个位置传送 1_000_000 个大小为 100KB 的文件,保留时间为 1 天。
缓存中存在的数据总量(1 年后):1_00_000 * 100KB * 1 = 100GB
消耗的总带宽(1 年后):1_000_000 * 100KB * 365 = 3650GB
用户案例 2) 使用 CDN 每天在一个位置传送 100 个大小为 100MB 的文件,保留时间为 1 年。
缓存中存在的数据总量(1 年后):100 * 100MB * 365 = 3650GB
消耗的总带宽(1 年后):100 * 100MB * 365 = 3650GB
(注意:让我们假设在上面的用例中,所有计数的文件始终是唯一的。)
所以说到云端,它主要会向我收取带宽费用,这对于两种用例都是一样的。然而,在用例 2 中,用于存储缓存的资源要高得多。
我的问题是我在定价中遗漏了什么,还是 CDN 提供商不关心存储成本?
关于 CloudFront。缓存大小实际上是无限的,您需要支付 传输费用 。您设置“保留时间为 1 年”这一事实并不意味着您的文件将在缓存中保留那么久。如果 AWS 将您的文件视为 经常 使用,它会在它们 1 岁之前清除它们。来自 docs:
If a file in an edge location isn't frequently requested, CloudFront might evict the file—remove the file before its expiration date—to make room for files that have been requested more recently.
我想了解 AWS、GCP 和 Azure 中 CDN 的定价。
我无法弄清楚的一件事是,如果可以存储在单个分布中的缓存总量有任何限制,并且随着缓存总量不断增加,是否会增加成本.
给我的准:-
用例 1) 使用 CDN 每天在一个位置传送 1_000_000 个大小为 100KB 的文件,保留时间为 1 天。
缓存中存在的数据总量(1 年后):1_00_000 * 100KB * 1 = 100GB
消耗的总带宽(1 年后):1_000_000 * 100KB * 365 = 3650GB
用户案例 2) 使用 CDN 每天在一个位置传送 100 个大小为 100MB 的文件,保留时间为 1 年。
缓存中存在的数据总量(1 年后):100 * 100MB * 365 = 3650GB
消耗的总带宽(1 年后):100 * 100MB * 365 = 3650GB
(注意:让我们假设在上面的用例中,所有计数的文件始终是唯一的。)
所以说到云端,它主要会向我收取带宽费用,这对于两种用例都是一样的。然而,在用例 2 中,用于存储缓存的资源要高得多。
我的问题是我在定价中遗漏了什么,还是 CDN 提供商不关心存储成本?
关于 CloudFront。缓存大小实际上是无限的,您需要支付 传输费用 。您设置“保留时间为 1 年”这一事实并不意味着您的文件将在缓存中保留那么久。如果 AWS 将您的文件视为 经常 使用,它会在它们 1 岁之前清除它们。来自 docs:
If a file in an edge location isn't frequently requested, CloudFront might evict the file—remove the file before its expiration date—to make room for files that have been requested more recently.