你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
没有找到相关结果
strglee
赞同来自:
laoyang360 - 《一本书讲透Elasticsearch》作者,Elastic认证工程师 [死磕Elasitcsearch]知识星球地址:http://t.cn/RmwM3N9;微信公众号:铭毅天下; 博客:https://elastic.blog.csdn.net
531651225@qq.com
要回复问题请先登录或注册
3 个回复
strglee
赞同来自:
然后在logstash output使用template 设置分片数量 ,index => "%{[@metadata][index]}-%{+YYYY.MM.dd}" 按天创建索引
可以参考这篇文章:http://yangxikun.github.io/201 ... .html
laoyang360 - 《一本书讲透Elasticsearch》作者,Elastic认证工程师 [死磕Elasitcsearch]知识星球地址:http://t.cn/RmwM3N9;微信公众号:铭毅天下; 博客:https://elastic.blog.csdn.net
赞同来自:
方案一:
1,写定时脚本,每天定时新建mapping,(前期需要定义模版)
2, 写定时脚本,每天定时更新同步配置,如果是kafka_connector,需要修改配置后,断开已有的connector连接,重启新的connector连接。
方案二:
转化思路,借助:rollover操作实现。
531651225@qq.com
赞同来自: