你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
发现
分享
文章
活动
登录
无论才能、知识多么卓著,如果缺乏热情,则无异纸上画饼充饥,无补于事。
filebeat采集多行数据时遇到被截断的情况
Beats
| 作者
cao
| 发布于2019年03月04日 | 阅读数:
3517
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
利用filebeat采集大量文件,且该文件均为多行数据文件,filebeat采集时有做多行何必,测试时使用的多行数据均一致,测试时造了999个文件,采集完这999个文件后进行多行数据的查询发现存在部分多行数据被完整的合并成一条数据,有部分数据合并都缺被截断一部分(不完整)
没有找到相关结果
已邀请:
与内容相关的链接
提交
2 个回复
rochy
-
rochy_he
赞同来自:
这种情况看一下你的 multi_line 的正则配置
cao
赞同来自:
filebeat得配置文件中配置得多行合并规则正则表达式是这个: multiline.pattern: '^[0-9]{2}:[0-9]{2}:[0-9]{2}'
日志样例(类似java程序得报错日志):13:42:59,783 |-INFO*********
我觉得正则是没问题得,但是不知道问题出在哪里了,
要回复问题请先
登录
或
注册
发起人
cao
活动推荐
Aug
23
Gitee Talk | 模力方舟 AI 应用开发沙龙
广州·南洋冠盛酒店
·
8-23 周六
·
报名中
Aug
23
偷懒也是生产力!算力优化与平台自动化实战
上海徐汇区模速空间
·
8-23 周六
·
报名中
Oct
17
第27届 GOPS 全球运维大会暨研运数智化技术峰会 · 上海站
上海
·
10-17 周五
·
报名中
相关问题
3千万数据,如何设计集群
elasticsearch 设置 node.data: false 依然有数据
集群稳定性的一些问题(一定量数据后集群变得迟钝)
跨集群数据同步方案讨论
Elastic对类似枚举数据的搜索性能优化
如何清理Elasticsearch特定时间段数据?
5.X 版本多type 的 es 数据迁移到6.1
es scroll查询全部数据问题
新增节点数据均衡.
添加了ik自定义分词,之前入库的数据不能搜索出来,这个有什么好的解决方法?
kibana分析nginx日志,还在纠结用filebeat还是logstash
问题状态
最新活动:
2019-03-05 11:07
浏览:
3517
关注:
2
人
2 个回复
rochy - rochy_he
赞同来自:
cao
赞同来自:
日志样例(类似java程序得报错日志):13:42:59,783 |-INFO*********
我觉得正则是没问题得,但是不知道问题出在哪里了,