使用 shuf 来打乱一个文件中的行或是选择文件中一个随机的行。

运用 memcache 过滤器进行大规模的丰富数据

回复

liuxg 发起了问题 • 1 人关注 • 0 个回复 • 301 次浏览 • 2020-06-23 16:04 • 来自相关话题

Logstash translate 过滤器简介

回复

liuxg 发起了问题 • 1 人关注 • 0 个回复 • 376 次浏览 • 2020-06-22 15:13 • 来自相关话题

索引字段 "@timestamp" 存储 UNIX_MS , logstash无法解析.

回复

tithonus 回复了问题 • 1 人关注 • 1 个回复 • 466 次浏览 • 2020-06-21 23:52 • 来自相关话题

logstash array 创建错误

回复

s60514 发起了问题 • 1 人关注 • 0 个回复 • 270 次浏览 • 2020-06-19 09:48 • 来自相关话题

负载均衡在 Elastic Stach 中的应用

回复

liuxg 发起了问题 • 1 人关注 • 0 个回复 • 352 次浏览 • 2020-06-18 08:40 • 来自相关话题

Kafka消费显示KafkaError._PARTITION_EOF,但topic中还有数据未被消费

回复

Jsen 发起了问题 • 1 人关注 • 0 个回复 • 615 次浏览 • 2020-06-17 17:29 • 来自相关话题

运用 Elasticsearch 过滤器来丰富数据

回复

liuxg 发起了问题 • 1 人关注 • 0 个回复 • 359 次浏览 • 2020-06-17 08:43 • 来自相关话题

debug -- : mongodb对logstash有什么影响

回复

cc1079154808 发起了问题 • 1 人关注 • 0 个回复 • 273 次浏览 • 2020-06-15 08:59 • 来自相关话题

mongo-logstash-Elasticsearch 获取数据一直test.find

回复

cc1079154808 发起了问题 • 1 人关注 • 0 个回复 • 275 次浏览 • 2020-06-15 08:40 • 来自相关话题

请教大佬们 关于 logstash -w 属性

zqc0512 回复了问题 • 3 人关注 • 1 个回复 • 272 次浏览 • 2020-06-16 14:34 • 来自相关话题

logstash aggregate 排序

回复

leeQiwei 回复了问题 • 1 人关注 • 1 个回复 • 456 次浏览 • 2020-06-11 11:21 • 来自相关话题

logstash中如何将一个json中key的value作为一个新的field

回复

yanzi 发起了问题 • 1 人关注 • 0 个回复 • 304 次浏览 • 2020-06-10 17:16 • 来自相关话题

Logstash:处理重复的文档

回复

liuxg 发起了问题 • 2 人关注 • 0 个回复 • 300 次浏览 • 2020-06-09 15:21 • 来自相关话题

logstash 处理MySQL慢日志后,所有内容都在一个message字段不拆分

qiqisa 发表了文章 • 7 个评论 • 753 次浏览 • 2020-05-29 12:03 • 来自相关话题

logstash配置为
input {
file {
type => "mysql-slow"
path => "/tmp/slows.log"
codec => multiline {
pattern => "^# Time:"
negate => true
what => "previous"
}
}
}
filter {
if [ type ] == "mysql-slow" {
grok {
match => { "message" => "SELECT SLEEP" }
add_tag => [ "sleep_drop" ]
}
if "sleep_drop" in [tags] {
drop {}
}
grok {
"message" => "(?m)^#\s+Time\s?.*\s+#\s+User@Host:\s+%{USER:user}\[[^\]]+\]\s+@\s+(?:(?<clienthost>\S*) )?\[(?:%{IPV4:clientip})?\]\s+Id:\s+%{NUMBER:row_id:int}\n#\s+Query_time:\s+%{NUMBER:query_time:float}\s+Lock_time:\s+%{NUMBER:lock_time:float}\s+Rows_sent:\s+%{NUMBER:rows_sent:int}\s+Rows_examined:\s+%{NUMBER:rows_examined:int}\n\s*(?:use %{DATA:database};\s*\n)?SET\s+timestamp=%{NUMBER:timestamp};\n\s*(?<sql>(?<action>\w+)([\w.*\W.*])*;)\s*$"
}
}
}
最后的数据展示出来是这样的,不进行分割字段

ssss.png

请问怎么解决

logstash消费kafka数据 client_id配置问题

回复

blue_sky 发起了问题 • 1 人关注 • 0 个回复 • 1425 次浏览 • 2020-05-27 12:03 • 来自相关话题