看,灰机...

logstash处理日志乱码

Logstash | 作者 jhondom | 发布于2020年04月24日 | 阅读数:2774

使用logstash从filebeat中传输日志到es中乱码。在开发工具中使用grok没有问题,各位老师可能的问题出现在哪里?
1.grok出来的数据:

QQ截图20200424115252.png

 
 
2.在kibana中查看乱码且并没有按grok中分割:

QQ截图20200424115402.png

 
已邀请:

shuchen

赞同来自:

完整pipeline发出来才能看出问题,或者使用的是logstash的filter。
一看就是没解析

jhondom

赞同来自:

filter配置:
filter {
     grok {
       match =>{ "message" => "%{TIMESTAMP_ISO8601:LogDate} (?<loglevel>.*) \[(?<traceid>[0-9A-Za-z]+)\] --- \[(?<executethread>.*)\]:\[/(?<methodname>[A-Za-z]+/[A-Za-z]+.*)\]:\[\[(?<processt
ime>\d+)\]ms\]"
    }
  }
}

tacsklet - 公司有用到es

赞同来自:

中间那一段乱码是什么,和你提供的解析式不搭啊,在input里面通过codec转一下码看看数据是否正常显示。

jhondom

赞同来自:

原始的日志:

QQ截图20200426095611.png

 
现在是后面[[xxx]ms]这里通过logstash输出后就有乱码了。

shuchen

赞同来自:

\[  特殊符号请用\\[

要回复问题请先登录注册