你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
发现
分享
文章
活动
登录
即使是不成熟的尝试,也胜于胎死腹中的策略。
filebeat丢失日志
Beats
| 作者
hellocat
| 发布于2019年06月18日 | 阅读数:
4835
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
目前我使用的filebeat版本是6.2.4,测试场景采集的日志的生成速度大约是16M/S(约100000条/S),输出日志采用的是output.file的模块机制,注意不是es或者kafka,输出配置项在附件中可看到,目前发现在这样的规格下相应输出与输入的日志条数对不上,丢失率大约是百万分之一到千万分之一,想问下大神有没有人能帮忙定位一下到底是什么原因或者是filebeat哪一块有缺陷。
没有找到相关结果
已邀请:
与内容相关的链接
提交
1 个回复
zqc0512
-
andy zhou
赞同来自:
读取的 输入的是撒?不说清楚不好搞呢。只说输出……没用……
要回复问题请先
登录
或
注册
发起人
hellocat
活动推荐
Jun
17
搜索客 Meetup 讲师招募(长期有效)
线上
·
6-17 周一
·
进行中
Nov
30
【活动报名】ClickHouse Beijing User Group 第2届 Meetup
北京
·
11-30 周六
·
报名中
相关问题
有没有用ELK收集数据中心所有网络设备日志的解决方案?
15台机器,日志量200G左右,集群规模多大合适?
kibana分析nginx日志,还在纠结用filebeat还是logstash
Kibana中如何查询展现非重复信息的数量???例如访问日志的IP地址数量
数据丢失啦,快救救我
ES2.3版本,delete一个索引,master日志并没有记录相关delete操作?
filebeat链接kafka,kafka死掉会出现数据丢失吗?
logstash导入日志数据到elasticsearch如何手动指定_id
Filebeat与kafka集成
Filebeat直接往ES中传输数据(按小时区分)、每小时建立索引会有大量失败
每天15T/200亿日志数,集群规模20多台服务器,性能感觉不太高,应该怎么优化
问题状态
最新活动:
2019-06-18 16:54
浏览:
4835
关注:
3
人
1 个回复
zqc0512 - andy zhou
赞同来自: