你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
发现
分享
文章
活动
登录
用了Elasticsearch,一口气上5T
logstash送檔案至kafka失敗
Logstash
| 作者
i78400
| 发布于2018年03月06日 | 阅读数:
2129
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
目前已升級到6.2.2,當logstash送檔案至kafka失敗時(可能kafka failed)會自動retry直到檔案送成功為止,那在這中間logstash仍有持續收檔,檔案是否都放在memory內? 還是如果開啟Persistent Queues,就會放在Persistent Queues內(可是我看Persistent Queues不 支援input 為http?)
没有找到相关结果
已邀请:
与内容相关的链接
提交
0 个回复
要回复问题请先
登录
或
注册
发起人
i78400
活动推荐
Jun
17
搜索客 Meetup 讲师招募(长期有效)
线上
·
6-17 周一
·
进行中
相关问题
logstash获取时间的问题
关于logstash和elasticsearch的时区问题
logstash导入mysql上亿级别数据的效率问题
kibana分析nginx日志,还在纠结用filebeat还是logstash
logstash-input-jdbc不能将mysqk数据同步到es中
logstash同步多张相同表结构的数据表到同一个索引
logstash如何运行多个实例?
logstash向es里面导入mysql数据,表字段名称自动变成了小写
logstash 消费kafka数据时,partition持续rebalancing
Logstash吞吐量求解(从Kafka消费永远赶不上生产速度)
filebeat链接kafka,kafka死掉会出现数据丢失吗?
问题状态
最新活动:
2018-03-06 10:53
浏览:
2129
关注:
1
人
0 个回复