你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
没有找到相关结果
zwzvvv - it精英
赞同来自:
xuebin
要回复问题请先登录或注册
it精英
4 个回复
zwzvvv - it精英
赞同来自:
zwzvvv - it精英
赞同来自:
以上是我的配置,哪位朋友帮忙看一下啊
zwzvvv - it精英
赞同来自:
还是搞定了,怎么解决以上以上问题,新搭一个es节点,用新的filebeat配置文件初始化它,然后集群模式,配置成master,重新起一个集群名字,端口都不用变。然后把其它节点中的filebeat相关的索引和template都删除,然后把原有的集群一个节点一个节点当作slave转到新的集群,就搞定了。
ps,这是xia小集群的解决方案,并发量超高的时候用kafka和logstash,原生的解析已经不好使了,自定义解析好了,所以,原生的filebeat提供的module适合一般场景,一般是啥,普通4core虚拟机,一节点filebeat3000万条数据花了18个小时。3节点es最高10000qps,所以一般企业是能满足了。
xuebin
赞同来自:
1. DELETE _ingest/pipeline/
2.字段出来以后有黄色小三角,刷新一下index 的字段缓存就好了