你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
发现
分享
文章
活动
登录
好的想法是十分钱一打,真正无价的是能够实现这些想法的人。
filebeat-6.3.2取nginx日志延时
Beats
| 作者
beyondzhang
| 发布于2018年09月13日 | 阅读数:
2272
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
你好,咨询一个问题,filebeat-6.3.2在采集nginx日志的时候,nginx.yml应该怎么配置,我发现部分日志采集的速率跟不上产生的速度,即日志在写,但是kibana里面查询出来的缺是空的。
没有找到相关结果
已邀请:
与内容相关的链接
提交
2 个回复
huangzx
赞同来自:
我的做法是:logstash 启动syslog input,nginx 使用 syslog 先打到 logstash。
```
access_log syslog:server=www.syslog.idc:5053,facility=local7,tag=case,severity=info syslog;
```
beyondzhang
赞同来自:
您的意思是你不用filebeat吗?我看网上都说filebeat轻量级,占用资源少。
要回复问题请先
登录
或
注册
发起人
beyondzhang
活动推荐
Jun
17
搜索客 Meetup 讲师招募(长期有效)
线上
·
6-17 周一
·
进行中
Nov
30
【活动报名】ClickHouse Beijing User Group 第2届 Meetup
北京
·
11-30 周六
·
报名中
相关问题
有没有用ELK收集数据中心所有网络设备日志的解决方案?
15台机器,日志量200G左右,集群规模多大合适?
kibana分析nginx日志,还在纠结用filebeat还是logstash
Kibana中如何查询展现非重复信息的数量???例如访问日志的IP地址数量
logstash导入日志数据到elasticsearch如何手动指定_id
filebeat链接kafka,kafka死掉会出现数据丢失吗?
ES2.3版本,delete一个索引,master日志并没有记录相关delete操作?
Filebeat与kafka集成
logstash 多日志文件监控
Filebeat直接往ES中传输数据(按小时区分)、每小时建立索引会有大量失败
每天15T/200亿日志数,集群规模20多台服务器,性能感觉不太高,应该怎么优化
问题状态
最新活动:
2018-09-14 09:04
浏览:
2272
关注:
2
人
2 个回复
huangzx
赞同来自:
```
access_log syslog:server=www.syslog.idc:5053,facility=local7,tag=case,severity=info syslog;
```
beyondzhang
赞同来自: