使用 shuf 来打乱一个文件中的行或是选择文件中一个随机的行。

kafka大量的重复日志,请问是什么问题?

Logstash | 作者 yangbig730 | 发布于2019年11月15日 | 阅读数:1297

kafka生成大量的重复日志信息,如图
1573789095(1).jpg
已邀请:

medcl - 今晚打老虎。

赞同来自:

这个终端输出没有什么问题啊,你加了很多 Logstash 实例吧,它会自动做均衡。

要回复问题请先登录注册