Hello,World

索引字段 "@timestamp" 存储 UNIX_MS , logstash无法解析.

回复

tithonus 回复了问题 • 1 人关注 • 1 个回复 • 298 次浏览 • 2020-06-21 23:52 • 来自相关话题

logstash array 创建错误

回复

s60514 发起了问题 • 1 人关注 • 0 个回复 • 184 次浏览 • 2020-06-19 09:48 • 来自相关话题

负载均衡在 Elastic Stach 中的应用

回复

liuxg 发起了问题 • 1 人关注 • 0 个回复 • 250 次浏览 • 2020-06-18 08:40 • 来自相关话题

Kafka消费显示KafkaError._PARTITION_EOF,但topic中还有数据未被消费

回复

Jsen 发起了问题 • 1 人关注 • 0 个回复 • 379 次浏览 • 2020-06-17 17:29 • 来自相关话题

运用 Elasticsearch 过滤器来丰富数据

回复

liuxg 发起了问题 • 1 人关注 • 0 个回复 • 286 次浏览 • 2020-06-17 08:43 • 来自相关话题

请教大佬们 关于 logstash -w 属性

zqc0512 回复了问题 • 3 人关注 • 1 个回复 • 178 次浏览 • 2020-06-16 14:34 • 来自相关话题

debug -- : mongodb对logstash有什么影响

回复

cc1079154808 发起了问题 • 1 人关注 • 0 个回复 • 211 次浏览 • 2020-06-15 08:59 • 来自相关话题

mongo-logstash-Elasticsearch 获取数据一直test.find

回复

cc1079154808 发起了问题 • 1 人关注 • 0 个回复 • 184 次浏览 • 2020-06-15 08:40 • 来自相关话题

logstash aggregate 排序

回复

leeQiwei 回复了问题 • 1 人关注 • 1 个回复 • 261 次浏览 • 2020-06-11 11:21 • 来自相关话题

logstash中如何将一个json中key的value作为一个新的field

回复

yanzi 发起了问题 • 1 人关注 • 0 个回复 • 213 次浏览 • 2020-06-10 17:16 • 来自相关话题

Logstash:处理重复的文档

回复

liuxg 发起了问题 • 2 人关注 • 0 个回复 • 207 次浏览 • 2020-06-09 15:21 • 来自相关话题

logstash上传文件到s3

wzfxiaobai 回复了问题 • 2 人关注 • 1 个回复 • 951 次浏览 • 2020-06-08 14:52 • 来自相关话题

logstash 处理MySQL慢日志后,所有内容都在一个message字段不拆分

qiqisa 发表了文章 • 5 个评论 • 505 次浏览 • 2020-05-29 12:03 • 来自相关话题

logstash配置为
input {
file {
type => "mysql-slow"
path => "/tmp/slows.log"
codec => multiline {
pattern => "^# Time:"
negate => true
what => "previous"
}
}
}
filter {
if [ type ] == "mysql-slow" {
grok {
match => { "message" => "SELECT SLEEP" }
add_tag => [ "sleep_drop" ]
}
if "sleep_drop" in [tags] {
drop {}
}
grok {
"message" => "(?m)^#\s+Time\s?.*\s+#\s+User@Host:\s+%{USER:user}\[[^\]]+\]\s+@\s+(?:(?<clienthost>\S*) )?\[(?:%{IPV4:clientip})?\]\s+Id:\s+%{NUMBER:row_id:int}\n#\s+Query_time:\s+%{NUMBER:query_time:float}\s+Lock_time:\s+%{NUMBER:lock_time:float}\s+Rows_sent:\s+%{NUMBER:rows_sent:int}\s+Rows_examined:\s+%{NUMBER:rows_examined:int}\n\s*(?:use %{DATA:database};\s*\n)?SET\s+timestamp=%{NUMBER:timestamp};\n\s*(?<sql>(?<action>\w+)([\w.*\W.*])*;)\s*$"
}
}
}
最后的数据展示出来是这样的,不进行分割字段

ssss.png

请问怎么解决

logstash消费kafka数据 client_id配置问题

回复

blue_sky 发起了问题 • 1 人关注 • 0 个回复 • 675 次浏览 • 2020-05-27 12:03 • 来自相关话题

logstash json filter 偶發性的發生jsonparsefailure

KenOrz 回复了问题 • 2 人关注 • 4 个回复 • 336 次浏览 • 2020-05-24 19:10 • 来自相关话题