使用 shuf 来打乱一个文件中的行或是选择文件中一个随机的行。

filebeat采集日志是cpu使用率为260%,不知道怎么给客户解释

Beats | 作者 Tab | 发布于2017年10月19日 | 阅读数:7223

我在Linux系统4Cpu,8G内存的环境中采集大约500M的日志,cpu使用率达到260%,一直到采集完成(约2分多钟),这个有没有什么解释啊,看到这个测试结果,甲方客户直接表示不敢上了,我该怎么解释,求大神指导
已邀请:

elastictech - elastic X-Pack License购买服务及 Elastic 产品咨询、培训 http://elastictech.cn

赞同来自: ziyou

用火焰图跟一下看cpu都在忙什么吧

qvitt

赞同来自:

如果是应用服务器上安装filebeat作为agent来收集日志,那么filebeat要求肯定是占用资源少,我测试过如果控制单个agent收集日志速度在1000左右,cpu占用率为4%左右,你的测试环境下,agent采集日志速度是尽可能大,所以占用cpu会很高,如果正式上线,需要评估单台服务器产生日志的速度。如果单台服务器产生日志速度就特别快,那就需要想办法控制一下采集速度了。我也遇到这个问题

BrickXu - BlackOps@Qunar

赞同来自:

如果启用了多行合并+regex匹配行首的方式,也可能会导致CPU升高。

Jingle ball

赞同来自:

如果filebeat和metricbeat中cpu机制相同话,是因为采集到是多个cpu核心占用率的和导致超过100%

yushun

赞同来自:

再启动个logstash 给客户看下 cpu 他们就会选择filebeat了
 

要回复问题请先登录注册