你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
发现
分享
文章
活动
登录
我刚打酱油去了,不好意思
logstash 每天早上8点会自动生成新的索引
Logstash
| 作者
Acoral
| 发布于2019年11月01日 | 阅读数:
1610
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
logstash版本6.8.0 , logstash收集filebeat发来的日志,发送到ES,为什么会在每天早上8点自动 生成新的索引文件 ,
我想改成改成每天0点生成新的索引文件应该怎么做?
没有找到相关结果
已邀请:
与内容相关的链接
提交
1 个回复
hellboy
赞同来自:
这个是由于时区的问题,logstash收集日志,会自动把时间信息处理成UTC时间比本地时间有8小时的时差,但是kibana在读取es数据的时候也会自动加上8个小时的时差,如果你仔细观察的话,在kibana 中dev-tool工具中查看ES里头的数据,时间全部是UTC时间,但在kibana的discover查看时间就和本机时间一致了!
我查资料,可以在数据插入ES中在时间信息上加上时区信息,就正常了,但是本人没有亲自实现过!你可以试一下。
要回复问题请先
登录
或
注册
发起人
Acoral
相关问题
logstash获取时间的问题
索引某个shard无法恢复的问题
关于logstash和elasticsearch的时区问题
logstash导入mysql上亿级别数据的效率问题
集群索引数建议?
kibana分析nginx日志,还在纠结用filebeat还是logstash
logstash同步多张相同表结构的数据表到同一个索引
logstash向es里面导入mysql数据,表字段名称自动变成了小写
logstash-input-jdbc不能将mysqk数据同步到es中
elasticsearch 中的store 以及倒排索引的问题
怎样有效解决0点数据写新索引时的性能问题?
问题状态
最新活动:
2019-12-13 18:28
浏览:
1610
关注:
2
人
1 个回复
hellboy
赞同来自:
我查资料,可以在数据插入ES中在时间信息上加上时区信息,就正常了,但是本人没有亲自实现过!你可以试一下。