Elasticsearch 集群运行状况:黄色(262 个中的 131 个)未分配的分片
Elasticsearch cluster health: yellow (131 of 262) unassigned shards
我对 Elasticsearch 还很陌生,并尝试使用它来分析来自 Suricata IPS 的数据。 Head 插件向我展示了这个:yellow (131 of 262) unassigned shards
也得到这个:
$ curl -XGET http://127.0.0.1:9200/_cluster/health?pretty
{
"cluster_name" : "elasticsearch_brew",
"status" : "yellow",
"timed_out" : false,
"number_of_nodes" : 1,
"number_of_data_nodes" : 1,
"active_primary_shards" : 131,
"active_shards" : 131,
"relocating_shards" : 0,
"initializing_shards" : 0,
"unassigned_shards" : 131,
"number_of_pending_tasks" : 0,
"number_of_in_flight_fetch" : 0
}
如何清除那些未分配的碎片? Kibana 也时不时对我说:
Error: Bad Gateway
at respond (https://www.server.kibana/index.js?_b=:85279:15)
at checkRespForFailure (https://www.server.kibana/index.js?_b=:85247:7)
at https://www.server.kibana/index.js?_b=:83885:7
at wrappedErrback (https://www.server.kibana/index.js?_b=:20902:78)
at wrappedErrback (https://www.server.kibana/index.js?_b=:20902:78)
at wrappedErrback (https://www.server.kibana/index.js?_b=:20902:78)
at https://www.server.kibana/index.js?_b=:21035:76
at Scope.$eval (https://www.server.kibana/index.js?_b=:22022:28)
at Scope.$digest (https://www.server.kibana/index.js?_b=:21834:31)
at Scope.$apply (https://www.server.kibana/index.js?_b=:22126:24)
我不知道这些问题是否相互关联...请任何人帮助我解决问题。非常感谢!
只有一个节点和具有一个副本的索引的集群将总是 yellow
。
yellow
不是坏事,集群工作得很好。缺点是它没有活动的碎片副本。
如果将副本数设置为 0 或向集群添加第二个节点,则可以拥有 green
集群。
但是,正如我所说,如果您有一个 yellow
集群就没有问题。
将副本数设置为 0,集群范围(所有索引):
curl -XPUT "http://localhost:9200/_settings" -d'
{
"number_of_replicas" : 0
}'
我对 Elasticsearch 还很陌生,并尝试使用它来分析来自 Suricata IPS 的数据。 Head 插件向我展示了这个:yellow (131 of 262) unassigned shards
也得到这个:
$ curl -XGET http://127.0.0.1:9200/_cluster/health?pretty
{
"cluster_name" : "elasticsearch_brew",
"status" : "yellow",
"timed_out" : false,
"number_of_nodes" : 1,
"number_of_data_nodes" : 1,
"active_primary_shards" : 131,
"active_shards" : 131,
"relocating_shards" : 0,
"initializing_shards" : 0,
"unassigned_shards" : 131,
"number_of_pending_tasks" : 0,
"number_of_in_flight_fetch" : 0
}
如何清除那些未分配的碎片? Kibana 也时不时对我说:
Error: Bad Gateway
at respond (https://www.server.kibana/index.js?_b=:85279:15)
at checkRespForFailure (https://www.server.kibana/index.js?_b=:85247:7)
at https://www.server.kibana/index.js?_b=:83885:7
at wrappedErrback (https://www.server.kibana/index.js?_b=:20902:78)
at wrappedErrback (https://www.server.kibana/index.js?_b=:20902:78)
at wrappedErrback (https://www.server.kibana/index.js?_b=:20902:78)
at https://www.server.kibana/index.js?_b=:21035:76
at Scope.$eval (https://www.server.kibana/index.js?_b=:22022:28)
at Scope.$digest (https://www.server.kibana/index.js?_b=:21834:31)
at Scope.$apply (https://www.server.kibana/index.js?_b=:22126:24)
我不知道这些问题是否相互关联...请任何人帮助我解决问题。非常感谢!
只有一个节点和具有一个副本的索引的集群将总是 yellow
。
yellow
不是坏事,集群工作得很好。缺点是它没有活动的碎片副本。
如果将副本数设置为 0 或向集群添加第二个节点,则可以拥有 green
集群。
但是,正如我所说,如果您有一个 yellow
集群就没有问题。
将副本数设置为 0,集群范围(所有索引):
curl -XPUT "http://localhost:9200/_settings" -d'
{
"number_of_replicas" : 0
}'