设置参数 `node.name` 可以自定义 Elasticsearch 节点的名字。 此条 Tips 由 medcl 贡献。

logstash消费kafka数据乱码

Logstash | 作者 supolu | 发布于2019年09月29日 | 阅读数:3504

elk版本7.3.2 kafka版本2.12
kafka里的数据是GBK格式的,消费后输出成file就乱码了 配置如下
input {
  kafka {
        bootstrap_servers=>"localhost:9092"
        topics=>["test"]
        type => "test"
        auto_offset_reset=>"latest"
        codec => plain{
        charset=>"GBK"
    }
  }
}
 
output {
    file {
      path => "/home/elk/app/logstash/result_1503.txt"
    }
}
 
 
output输出添加        codec => plain{
        charset=>"GBK"
    }
也一样是乱码,UTF-8也乱码 有大神遇到过嘛
 
已邀请:

doom

赞同来自:

1. 数据源是gbk,input 里面解析为“GBK ,可以正常输出,默认是utf-8;output里面不用添加 charset=>"GBK";
2.检查你的系统默认字符集;echo $LANG ;确保utf-8;
3.控制台的输出环境,也设置为utf-8;
 
以上3点做到,就可以正常显示;
 

要回复问题请先登录注册