更新数百万文档的嵌套字段

Update nested field for millions of documents

我使用带有脚本的批量更新来更新嵌套字段,但这非常慢:

POST index/type/_bulk

{"update":{"_id":"1"}}
{"script"{"inline":"ctx._source.nestedfield.add(params.nestedfield)","params":{"nestedfield":{"field1":"1","field2":"2"}}}}
{"update":{"_id":"2"}}
{"script"{"inline":"ctx._source.nestedfield.add(params.nestedfield)","params":{"nestedfield":{"field1":"3","field2":"4"}}}}

 ... [a lot more splitted in several batches]

你知道另一种可以更快的方法吗?

似乎可以存储脚本以避免每次更新都重复,但我找不到保持 "dynamic" 参数的方法。

与性能优化问题一样,没有单一的答案,因为性能不佳的可能原因有很多。

在您的情况下,您正在发出批量 update 请求。当执行 update 时,文档为 actually being re-indexed:

... to update a document is to retrieve it, change it, and then reindex the whole document.

因此看一看 indexing performance tuning tips 是有意义的。在您的情况下,我首先要考虑的几件事是选择 正确的批量大小,使用多个线程进行批量请求和 increasing/disabling indexing refresh interval.

您也可以考虑使用支持并行批量请求的现成客户端,例如 Python elasticsearch client

最好监控 ElasticSearch 性能指标以了解瓶颈在哪里,以及您的性能调整是否带来了实际收益。 Here 是一篇关于 ElasticSearch 性能指标的概述博客 post。