ES用HDFS插件进行数据备份

ES安装HDFS插件后,可以使用HDFS的方式进行数据备份,在配置备份仓库时,需要配置如下几个项目:
 
curl -XPUT  “http://localhost:9200/_snapshot/ my_backup”  -d ‘
{
“type”: “hdfs”,
“settings”: {
“path”: “/back/es/”, #存储库路径
“load_defaults”: “true”, #加载Hadoop默认配置
“compress”: “true”,
“uri”: “hdfs://localhost:8020” } #Hadoop IP地址
}
我的疑问是:
这个uri可以配置多个IP吗?应为Hadoop的namenode有两个,主备关系,当一个挂掉后,自动切换到另一个IP。但是这种情况下,这个ES的存储库会一直发生改变。

2.png

 
我自己试了一下,如果这样配置是不行的。
"uri":"hdfs://10.100.10.11:8020,10.100.10.12:8020"
这个可以配置多个IP,自动轮询吗?
请教

 
已邀请:

yayg2008

赞同来自:

未真实用过,从官方文档来看,只支持1个。我的理解是backup又不是实时执行的,配置1个地址就OK了。

jianjianhe

赞同来自:

没用过es的快照功能,我们都是kafka数据先入hbase,然后再入es,相当于直接用hbase备份了

zqc0512

赞同来自:

好像不支持两个,你不行就写两个备份脚本吧,或者在备份前检测下那个8020端口是活的。就用那个,搞个shell 检测下就OK了?

要回复问题请先登录注册