嘿~ 今天天气不错嘛

logstash 升级后报错 Input kafka

Logstash | 作者 wg2120309 | 发布于2019年04月25日 | 阅读数:1819

我使用的docker 启动logstash ,升级前版本6.2.3,升级后6.7.1 报错错误是input kafka ,我感觉应该是logstash插件的版本高的问题,因为我的kafka只有1.1.0,然后我 卸载了input kafka 插件,安装了6.2.3版本的input kafka 插件,报错依旧没有消除,请问这个问题有遇到过的朋友没!
 

微信图片_20190425172111.png

 
已邀请:

rockybean - Elastic Certified Engineer, ElasticStack Fans,公众号:ElasticTalk

赞同来自:

你的配置是什么?要贴一下,相关信息完整才能帮忙定位问题

wg2120309 - ITNAN

赞同来自:

我的logstash 配置文件:
 
input{        kafka{
               client_id => "p1"
               bootstrap_servers => "127.0.0.1:9290"  #我随便写了一个
               group_id => "p1"
               security_protocol => "SASL_PLAINTEXT"
               sasl_mechanism => PLAIN
               codec => "json"
               jaas_path => "/usr/share/logstash/jaas.conf"
               topics => ["p1"]
              
        }
}



output{

        elasticsearch{
                hosts => ["127.0.0.1:9202"]
                user => ""
                password => ""
                action => "index"
                index => "p-%{+YYYY.MM}"
                codec => "json"
        }
        
}

rockybean - Elastic Certified Engineer, ElasticStack Fans,公众号:ElasticTalk

赞同来自:

有尝试打开 debug 日志看下有无有价值的输出吗?
https://www.elastic.co/guide/e ... .html

要回复问题请先登录注册