看,灰机...

关于用river数据源导入的问题

Elasticsearch | 作者 liunique | 发布于2016年04月22日 | 阅读数:3459

关于river的问题想请教一下我配置的数据源如下
{"type":"jdbc","jdbc":
{"url":"jdbc:mysql://localhost:3306/choose",
"user":"root",
"password":"root",
"sql":"select student_no as _uid,student_no,password,student_name,student_contact,class_no from student",
"index":"choose",
"type":"student",
"bulk_size":100,
"max_bulk_requests":30,
"bulk_timeout":"10s",
"flush_interval":"5s",
"schedule":"0 0-59 0-23 ? * *"}
}
可以我的测试数据才只有六条但是每次刷新后显示的影响行数一直再涨,但是数据没变但是索引大小变了,虽然现在没什么问题但我觉得肯定是哪里不对,日志信息如下求大神指教
[INFO ][river.jdbc.RiverMetrics ] pipeline org.xbib.el
asticsearch.plugin.jdbc.RiverPipeline@7790d41b complete: river jdbc/student metr
ics: 102 rows, 0.10646763780088882 mean, (0.0 0.0 0.0), ingest metrics: elapsed
0 seconds, 1.11 KB bytes, 10.0 bytes avg, 0.003 MB/s本来只有六条记录的现在越来越多了
已邀请:

helloes

赞同来自:

没用过river,但是你的sql是不是没有指定_id?
id as _id

要回复问题请先登录注册