Greenplum gp_vmem_protect_limit 配置
Greenplum gp_vmem_protect_limit configuration
我们正在通过在 AWS 环境中安装 Greenplum 来进行 PoC。我们已将每个分段服务器设置为 d2.8xlarge 实例类型,它具有 240 GB 的 RAM,没有 SWAP。
我现在正在尝试使用 gpdb 文档中提到的公式设置 gp_vmem_protect_limit,该值将达到 25600MB。
但是在 Zendesk 的一个注释中它说 gp_vmem_protect_limit 将在“在此段上执行的会话一起尝试使用超过配置的限制 时被破坏。 " 本文中的 segment 是指 Segment Host 还是主要 Segment 的数量?
此外,在设置了 Eager Free 选项后,我发现当 运行 有 5 个并发用户的 TPC-DS 基准测试时,内存利用率非常低。我想提高环境的内存利用率,下面是其他内存配置
gpconfig -c gp_vmem_protect_limit -v 25600MB
gpconfig -c max_statement_mem -v 16384MB
gpconfig -c statement_mem -v 2400MB
有什么建议吗?
谢谢,
贾亚德普
有一个计算器!
http://greenplum.org/calc/
您还应该添加交换文件或磁盘。在亚马逊也很容易做到。当你有 240GB 的 RAM 时,我会为每个主机添加至少 4GB 的交换文件。
我们正在通过在 AWS 环境中安装 Greenplum 来进行 PoC。我们已将每个分段服务器设置为 d2.8xlarge 实例类型,它具有 240 GB 的 RAM,没有 SWAP。
我现在正在尝试使用 gpdb 文档中提到的公式设置 gp_vmem_protect_limit,该值将达到 25600MB。
但是在 Zendesk 的一个注释中它说 gp_vmem_protect_limit 将在“在此段上执行的会话一起尝试使用超过配置的限制 时被破坏。 " 本文中的 segment 是指 Segment Host 还是主要 Segment 的数量?
此外,在设置了 Eager Free 选项后,我发现当 运行 有 5 个并发用户的 TPC-DS 基准测试时,内存利用率非常低。我想提高环境的内存利用率,下面是其他内存配置
gpconfig -c gp_vmem_protect_limit -v 25600MB
gpconfig -c max_statement_mem -v 16384MB
gpconfig -c statement_mem -v 2400MB
有什么建议吗?
谢谢, 贾亚德普
有一个计算器!
http://greenplum.org/calc/
您还应该添加交换文件或磁盘。在亚马逊也很容易做到。当你有 240GB 的 RAM 时,我会为每个主机添加至少 4GB 的交换文件。