看,灰机...

是否可以设置host字段显示为机器ip?

zqc0512 回复了问题 • 3 人关注 • 3 个回复 • 5903 次浏览 • 2018-09-12 08:50 • 来自相关话题

filebeat更新一条日志,logstash 上报数据异常,同一条数据被重复上报

l18586854856 回复了问题 • 2 人关注 • 1 个回复 • 6618 次浏览 • 2018-09-11 17:44 • 来自相关话题

【求助】elk的索引名,在filebeat定义的名字和解析过后不一致

luohuanfeng 回复了问题 • 2 人关注 • 2 个回复 • 3334 次浏览 • 2018-09-11 17:05 • 来自相关话题

logstash与kafka topic可以使用变量吗?

luohuanfeng 回复了问题 • 4 人关注 • 3 个回复 • 2096 次浏览 • 2018-09-11 17:03 • 来自相关话题

logstash无法向es传中文

chienx 回复了问题 • 2 人关注 • 4 个回复 • 1817 次浏览 • 2018-09-11 15:52 • 来自相关话题

logstash 同步上亿数据oracle到elasticsearch

回复

aminemine 回复了问题 • 1 人关注 • 1 个回复 • 5467 次浏览 • 2018-09-10 19:00 • 来自相关话题

logstash.outputs.webhdfs 输出到hdfs问题

GLC 回复了问题 • 2 人关注 • 2 个回复 • 4696 次浏览 • 2018-09-10 09:30 • 来自相关话题

lostash 在使用kv {}过滤器后,如何使用ruby {}过滤器循环遍历k,v对?

回复

sun_changlong 发起了问题 • 1 人关注 • 0 个回复 • 2063 次浏览 • 2018-09-07 15:03 • 来自相关话题

logstash使用geoip库报错

zqc0512 回复了问题 • 3 人关注 • 2 个回复 • 5378 次浏览 • 2018-09-07 11:50 • 来自相关话题

获得年、月、日

zqc0512 回复了问题 • 2 人关注 • 7 个回复 • 1173 次浏览 • 2018-09-07 09:34 • 来自相关话题

logstash debug 打印: [filewatch.tailmode.handlers.grow] read_to_eof: get chunk

回复

tianma_2015 回复了问题 • 1 人关注 • 1 个回复 • 2881 次浏览 • 2018-09-06 17:59 • 来自相关话题

logstash 怎么解析多层JSON数据

zyy 回复了问题 • 3 人关注 • 2 个回复 • 4994 次浏览 • 2018-09-05 11:21 • 来自相关话题

取字符串第一个

rochy 回复了问题 • 2 人关注 • 1 个回复 • 1764 次浏览 • 2018-09-04 19:51 • 来自相关话题

logstash kv插件解析日志时,日志value中包含field_split切割字符,导致value截取不完整。

qw8613243 回复了问题 • 3 人关注 • 2 个回复 • 6279 次浏览 • 2018-09-04 18:21 • 来自相关话题

通过 metadata 使logstash配置更简洁

Leon J 发表了文章 • 0 个评论 • 10202 次浏览 • 2018-09-04 13:17 • 来自相关话题

从Logstash 1.5开始,我们可以在logstash配置中使用metadata。metadata不会在output中被序列化输出,这样我们便可以在metadata中添加一些临时的中间数据,而不需要去删除它。

我们可以通过以下方式来访问metadata:

<br /> [@metadata][foo]<br />



用例


假设我们有这样一条日志:

<br /> [2017-04-01 22:21:21] production.INFO: this is a test log message by leon<br />



我们可以在filter中使用grok来做解析:

ruby<br /> grok {<br /> match => { "message" => "\[%{TIMESTAMP_ISO8601:timestamp}\] %{DATA:env}\.%{DATA:log_level}: %{DATA:content}" }<br /> }<br />

解析的结果为

ruby<br /> {<br /> "env" => "production",<br /> "timestamp" => "2017-04-01 22:21:21",<br /> "log_level" => "INFO",<br /> "content" => "{\"message\":\"[2017-04-01 22:21:21] production.INFO: this is a test log message by leon\"}"<br /> }<br />



假设我们希望

  1. 能把log_level为INFO的日志丢弃掉,但又不想让该字段出现在最终的输出中
  2. 输出的索引名中能体现出env,但也不想让该字段出现在输出结果里

    对于1,一种方案是在输出之前通过mutate插件把不需要的字段删除掉,但是一旦这样的处理多了,会让配置文件变得“不干净”。

    通过 metadata,我们可以轻松地处理这些问题:

    ruby<br /> grok {<br /> match => { "message" => "\[%{TIMESTAMP_ISO8601:timestamp}\] %{DATA:[@metadata][env]}\.%{DATA:[@metadata][log_level]}: %{DATA:content}" }<br /> }<br /> <br /> if [@metadata][log_level] == "INFO"{<br /> drop{} <br /> }<br /> <br /> output{<br /> elasticsearch {<br /> hosts => ["127.0.0.1:9200"]<br /> index => "%{[@metadata][env]}-log-%{+YYYY.MM}"<br /> document_type => "_doc"<br /> }<br /> }<br />

    除了简化我们的配置文件、减少冗余字段意外,同时也能提高logstash的处理速度。





    Elasticsearch input插件


    有些插件会用到metadata这个特性,比如elasticsearch input插件:

    ```ruby
    input {
    elasticsearch {
    host => "127.0.0.1"

    把 ES document metadata (_index, _type, _id) 包存到 @metadata 中

    docinfo_in_metadata => true
    }
    }

    filter{
    ......
    }

    output {
    elasticsearch {
    document_id => "%{[@metadata][_id]}"
    index => "transformed-%{[@metadata][_index]}"
    type => "%{[@metadata][_type]}"
    }
    }
    ```



    调试


    一般来说metadata是不会出现在输出中的,除非使用 rubydebug codec 的方式输出:

    <br /> output { <br /> stdout { <br /> codec => rubydebug {<br /> metadata => true<br /> }<br /> }<br /> }<br />

    日志经过处理后输出中会包含:

    ruby<br /> {<br /> ....,<br /> "@metadata" => {<br /> "env" => "production",<br /> "log_level" => "INFO"<br /> }<br /> }<br />



    总结


    由上可见,metadata提供了一种简单、方便的方式来保存中间数据。这样一方面减少了logstash配置文件的复杂性:避免调用remove_field,另一方面也减少了输出中的一些不必要的数据。通过这篇对metadata的介绍,希望能对大家有所帮助。

    ![elasticTalk,qrcode](http://p8z8qq24s.bkt.clouddn.c ... 24.png)