你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
发现
分享
文章
活动
登录
不为失败找理由,要为成功找方法。
filebeat采集日志文件报错
Beats
| 作者
jhondom
| 发布于2020年04月22日 | 阅读数:
4857
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
elk日志系统通过filebeat+kafka+logstash+es+kibana.通过filebeat采集日志过程中报错,提示是单条日志文件过大,kafka的默认是1000000 字节。如果不调整kafka的数据(调整了影响性能),有没有办法通过filebeat端做设置,比如发现单条日志文件过大就舍弃?请教各位老师有没有相关方案?
报错信息:
没有找到相关结果
已邀请:
与内容相关的链接
提交
2 个回复
shuchen
赞同来自:
建议使用filebeat的处理器processors:
- drop_event:
when:
condition
jhondom
赞同来自:
好的,我先使用下。谢谢
要回复问题请先
登录
或
注册
发起人
jhondom
活动推荐
Jun
17
搜索客 Meetup 讲师招募(长期有效)
线上
·
6-17 周一
·
进行中
Nov
30
【活动报名】ClickHouse Beijing User Group 第2届 Meetup
北京
·
11-30 周六
·
报名中
相关问题
有没有用ELK收集数据中心所有网络设备日志的解决方案?
15台机器,日志量200G左右,集群规模多大合适?
kibana分析nginx日志,还在纠结用filebeat还是logstash
elasticsearch 每个shard对应的文件含义
kibana7.6启动报错:Setup lifecycle of "apm" plugin wasn't completed in 30sec.
Kibana中如何查询展现非重复信息的数量???例如访问日志的IP地址数量
ES2.3版本,delete一个索引,master日志并没有记录相关delete操作?
logstash导入日志数据到elasticsearch如何手动指定_id
elasticsearch-jdbc插件的自动更新脚本运行一段时间就会报错
使用elasticsearch-rtf,修改elasticsearch.yml文件后无法启动es
Filebeat与kafka集成
问题状态
最新活动:
2020-04-24 11:49
浏览:
4857
关注:
2
人
2 个回复
shuchen
赞同来自:
- drop_event:
when:
condition
jhondom
赞同来自: