亲,只收二进制

spark sql写es时,多值字段无法直接写入

Elasticsearch | 作者 abird | 发布于2016年06月27日 | 阅读数:5946

es中预先创建了mapping,其中有多值字段,结构为:
         "ADDITION_CATALOG_CONCATA": {
                  "properties": {
                     "value": {
                        "type": "string",
                        "index": "not_analyzed",
                        "include_in_all": false
                     }
                  }
               },
在spark-sql通过es-hadoop写es时,写包含多值字段的索引都会报错。该怎么处理?
已邀请:

joeywen

赞同来自:

错误log 贴一下

要回复问题请先登录注册