AWS RDS 通用 SSD 或预置 IOPS
AWS RDS General SSD or Provisioned IOPS
目前我有一个 RDS m4.2xlarge MySQL 数据库,其中 200GB 磁盘 space 使用普通 SSD 分配,这给了我大约 600 IOPS 的限制。
查看监控我可以看到大部分时间写 IOPS 都在 600 IOPS 限制并且不能更高,然后有一些短暂的平静,然后突然超过 600(我假设我在平静期间获得的学分被烧掉了)。点数用完后又回到600的上限。
我的问题是:运行 在 99% 的情况下是否有缺点?我的写入队列深度通常小于 2,而且从未超过 3。
购买预配置的 IOPS(比如 1500)来处理最大峰值要求是否有任何好处?
目前我的数据库没有任何问题,只是偶尔出现死锁,但这似乎是通过数据库的交易量的预期。
来自 AWS 文档
Baseline I/O performance for General Purpose SSD storage is 3 IOPS for each GiB, with a minimum of 100 IOPS. This relationship means that larger volumes have better performance. For example, baseline performance for a 100-GiB volume is 300 IOPS. Baseline performance for a 1-TiB volume is 3,000 IOPS. And baseline performance for a 5.34-TiB volume is 16,000 IOPS.
在大多数情况下,更便宜的替代方法是简单地增加磁盘 space 并分配更多的 IOPS
目前我有一个 RDS m4.2xlarge MySQL 数据库,其中 200GB 磁盘 space 使用普通 SSD 分配,这给了我大约 600 IOPS 的限制。
查看监控我可以看到大部分时间写 IOPS 都在 600 IOPS 限制并且不能更高,然后有一些短暂的平静,然后突然超过 600(我假设我在平静期间获得的学分被烧掉了)。点数用完后又回到600的上限。
我的问题是:运行 在 99% 的情况下是否有缺点?我的写入队列深度通常小于 2,而且从未超过 3。
购买预配置的 IOPS(比如 1500)来处理最大峰值要求是否有任何好处?
目前我的数据库没有任何问题,只是偶尔出现死锁,但这似乎是通过数据库的交易量的预期。
来自 AWS 文档
Baseline I/O performance for General Purpose SSD storage is 3 IOPS for each GiB, with a minimum of 100 IOPS. This relationship means that larger volumes have better performance. For example, baseline performance for a 100-GiB volume is 300 IOPS. Baseline performance for a 1-TiB volume is 3,000 IOPS. And baseline performance for a 5.34-TiB volume is 16,000 IOPS.
在大多数情况下,更便宜的替代方法是简单地增加磁盘 space 并分配更多的 IOPS