如何使用起搏器配置 "Clearing expired failcount" 时间
How can config "Clearing expired failcount" time with pacemaker
我在使用起搏器和 corosync 时遇到故障计数问题。
我的 /var/log/messages 文件:
Dec 23 22:19:36 node1 attrd[1922]: notice: attrd_perform_update: Sent update 81: fail-count-named=1
我在 12 月 23 日的最新失败计数 22:19:36。
但几分钟后:
Dec 23 22:34:47 node1 pengine[1923]: notice: unpack_rsc_op: Clearing expired failcount for named:0 on node1
Dec 23 22:34:47 node1 pengine[1923]: notice: unpack_rsc_op: Re-initiated expired calculated failure named_last_failure_0 (rc=7, magic=0:7;21:32:0:f1d80836-3649-45c5-abd5-8c7d4ef5d7f9) on node1
失败计数已被删除。大约需要 15 分钟。
我的cib.xml:
<nvpair id="rs-resource-stickiness" name="resource-stickiness" value="300"/>
<nvpair id="rs_defaults_migration-threshold" name="migration-threshold" value="3"/>
<nvpair id="rs_defaults_failure-timeout" name="failure-timeout" value="60s"/>
我不知道 failcount 过期时间存储在哪里,我该如何配置或删除它?
当我们需要配置auto expire failcount时,我们可以结合使用cluster-recheck-interval
和failure-timeout
。当我们想禁用它时使用 failure-timeout=0
。
我在使用起搏器和 corosync 时遇到故障计数问题。
我的 /var/log/messages 文件:
Dec 23 22:19:36 node1 attrd[1922]: notice: attrd_perform_update: Sent update 81: fail-count-named=1
我在 12 月 23 日的最新失败计数 22:19:36。
但几分钟后:
Dec 23 22:34:47 node1 pengine[1923]: notice: unpack_rsc_op: Clearing expired failcount for named:0 on node1
Dec 23 22:34:47 node1 pengine[1923]: notice: unpack_rsc_op: Re-initiated expired calculated failure named_last_failure_0 (rc=7, magic=0:7;21:32:0:f1d80836-3649-45c5-abd5-8c7d4ef5d7f9) on node1
失败计数已被删除。大约需要 15 分钟。
我的cib.xml:
<nvpair id="rs-resource-stickiness" name="resource-stickiness" value="300"/>
<nvpair id="rs_defaults_migration-threshold" name="migration-threshold" value="3"/>
<nvpair id="rs_defaults_failure-timeout" name="failure-timeout" value="60s"/>
我不知道 failcount 过期时间存储在哪里,我该如何配置或删除它?
当我们需要配置auto expire failcount时,我们可以结合使用cluster-recheck-interval
和failure-timeout
。当我们想禁用它时使用 failure-timeout=0
。