使用logstash对日志进行过滤怎么把报错在kibana显示为一行
muou 回复了问题 • 2 人关注 • 1 个回复 • 3992 次浏览 • 2018-04-27 10:20
logstash怎么如何设置每过10分钟同步一次
yuyaguo 回复了问题 • 3 人关注 • 2 个回复 • 19081 次浏览 • 2018-04-26 15:44
logstash 执行多个conf文件
zqc0512 回复了问题 • 6 人关注 • 5 个回复 • 10745 次浏览 • 2018-04-26 15:25
logstash-output-elasticsearch,为elasticsearch创建索引怎么设置分片?
zqc0512 回复了问题 • 2 人关注 • 1 个回复 • 2750 次浏览 • 2018-04-26 15:15
logstash同步mysql数据到elasticsearch时数据错乱
laoyang360 回复了问题 • 3 人关注 • 2 个回复 • 3345 次浏览 • 2018-04-25 22:56
filebeat与logstash如何分类type提交给elasticsearch?
scxh00 回复了问题 • 3 人关注 • 3 个回复 • 7127 次浏览 • 2018-04-24 20:23
logstash输出到文件
dessler 发表了文章 • 2 个评论 • 10927 次浏览 • 2018-04-23 02:19
使用filebeat采集数据,使用document_type 区分不同的类型的日志
logstash 输入日志到文件,这样方面查看,也方便将怎么相同的服务运行在不同的服务器里面日志汇总
logstash 配置如下
<br /> input{<br /> beats{<br /> port => 5044<br /> codec => "json"<br /> }<br /> }<br /> <br /> output{<br /> if [type] == "123_server" {<br /> file {<br /> path => "/home/logs/123-server.log"<br /> codec => plain{ charset => "GBK" }<br /> gzip => true<br /> }<br /> }<br /> }<br /> <br />
其实需要2个条件,输入的日志尽量保持和原来的日志一样
我这个代码输出全部是乱码,无论怎么修改编码格式
求大神指点下
求大神指点一下grok-match,感谢不尽!
ftforbigdata 回复了问题 • 3 人关注 • 2 个回复 • 2997 次浏览 • 2018-04-21 18:33
logstash 的tracking_column提示找不到追踪字段
suhzh 回复了问题 • 2 人关注 • 1 个回复 • 8506 次浏览 • 2018-04-20 08:44
kakfa-input-logstash 报错
lbx6z 回复了问题 • 2 人关注 • 1 个回复 • 3973 次浏览 • 2018-04-19 14:15
logstash日志过滤
strglee 回复了问题 • 2 人关注 • 1 个回复 • 3853 次浏览 • 2018-04-18 17:52
logstash 5.6.6 和6.2.3 我在启动的时候都特别占用cpu使用率,这个是什么情况,请大神给下解决方案
medcl 回复了问题 • 2 人关注 • 1 个回复 • 1871 次浏览 • 2018-04-17 16:56
logstash在配置文件中指定了type并且用type做判断,但是不向kafka中发数据,去掉output中的If判断做成单文件,就发数据
回复clean 回复了问题 • 2 人关注 • 1 个回复 • 5361 次浏览 • 2018-04-17 14:24