怎么又是你

logstash向ES插入数据,某个分片变成unassigned状态

Elasticsearch | 作者 jingjbuer | 发布于2016年08月23日 | 阅读数:5814

请教大家一个问题:
我的ES集群中在一台机器上配置了三个节点,一个master(非数据节点),两个node(数据节点),数据分片数目为5,副本数目为0,使用logstash向ES中写数据的时候,5个分片被分配到两个node上,但是随着数据的写入,差不多5到10分钟之后,其中一个分片脱离这两个node,变成灰色,也就是unassigned状态,此时logstash无法继续写入数据。
已邀请:

leighton_buaa

赞同来自:

查看一下你的es log,看看有没有什么线索。另外,data node的内存分配了多少?

jingjbuer - 90后研究生

赞同来自:

改变groupid,启动测试新的节点上的Elasticsearch.png

[2016-08-23 15:34:38,061][WARN ][cluster.action.shard     ] [node01] [adtracking_postman_v1_20160823][2] sending failed shard for [adtracking_postman
_v1_20160823][2], node[b7YeZkwdQuajNDdpUL3E9Q], [P], s[STARTED], indexUUID [8-6xXqJ1R-eBUdlV-FLe8A], reason [engine failure, message [refresh failed]

[EOFException[read past EOF: _13.fnm]]]
 
还有个问题:这个节点变成unassigned之后,我的集群的节点是没有备份的,此时集群的状态竟然不是red,而是yellow

要回复问题请先登录注册