找到问题的解决办法了么?

filebeat 到kafka

Beats | 作者 solike8 | 发布于2018年10月24日 | 阅读数:1779

日志大约是几十个吧 都不是很大

2.png

 
向kafka抓日志的时候 只抓了前面的一个文件  数据在kafka也能查到,有分区有topic备份,就是数据不够,几十个文件就抓了几个的感觉
 
日志重点时这个

屏幕截图.png

 
搜了一下也不是很懂
已邀请:

zqc0512 - andy zhou

赞同来自:

消费时间搞长点。可能是没有处理完成,就过期了……

xiaoke - http://blog.51cto.com/kexiaoke

赞同来自:

几个logstash去处理,处理有类似耗时的操作吗?可以看看kafka的topic消息积压情况,判断是不是因为Logsgash处理不过来。

要回复问题请先登录注册