怎么又是你

logstash在使用logstash input elasticsearch时如何获取w文档中的_version字段的值?

回复

Logstashthe_best 发起了问题 • 1 人关注 • 0 个回复 • 2747 次浏览 • 2018-03-15 18:34 • 来自相关话题

Elasticsearch6.x 以上版本,如何设置副本数量?

Elasticsearchlaoyang360 回复了问题 • 3 人关注 • 2 个回复 • 9566 次浏览 • 2018-03-15 23:27 • 来自相关话题

logstash5.1.2 filter插件,使用jdbc访问mysql,报错 Sequel::PoolTimeout

回复

Logstashjuneryang 发起了问题 • 1 人关注 • 0 个回复 • 3053 次浏览 • 2018-03-15 12:02 • 来自相关话题

query_string查询多值字段问题请教

Elasticsearchhello3521 回复了问题 • 7 人关注 • 6 个回复 • 8581 次浏览 • 2018-11-14 17:44 • 来自相关话题

ingest node中的pipeline如何处理文档字段缺失或为null的情形?

Elasticsearchxinfanwang 回复了问题 • 3 人关注 • 1 个回复 • 2766 次浏览 • 2018-03-19 14:03 • 来自相关话题

我想只记录这一行,如果写logstash规则

Logstashsunjj 发表了文章 • 0 个评论 • 3338 次浏览 • 2018-03-15 10:26 • 来自相关话题


2018-03-14 22:23:56,833 ERROR [FrontShopController.java:45] : ==dianchou.app.boss.pageController.FrontShopControl
lerjava.lang.NullPointerException
      at dianchou.app.boss.pageController.FrontShopController.projectDetail(FrontShopController.java:40)
      at sun.reflect.GeneratedMethodAccessor495.invoke(Unknown Source)
      at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
      at java.lang.reflect.Method.invoke(Method.java:606)
      at org.springframework.web.method.support.InvocableHandlerMethod.doInvoke(InvocableHandlerMethod.java:205)

社区日报 第211期 (2018-03-15)

社区日报白衬衣 发表了文章 • 0 个评论 • 2027 次浏览 • 2018-03-15 09:42 • 来自相关话题

  1. 使用elasticsearch提高hbase基于列的查询效率。
    [http://t.cn/Rn73PTv](http://t.cn/Rn73PTv)

  2. Spark Streaming + Elasticsearch构建App异常监控平台。
    [http://t.cn/RNb9Qcn](http://t.cn/RNb9Qcn)

  3. 开放分布式追踪(OpenTracing)入门与 Jaeger 实现。
    [http://t.cn/RE8ZEyW](http://t.cn/RE8ZEyW)


_id is not configurable

Elasticsearchlaoyang360 回复了问题 • 3 人关注 • 2 个回复 • 3600 次浏览 • 2018-03-15 08:19 • 来自相关话题

通过 kibana 安装sense失败

Kibanayayg2008 回复了问题 • 6 人关注 • 3 个回复 • 14687 次浏览 • 2018-04-19 19:40 • 来自相关话题

java api 如何删除指定Index的别名

Elasticsearchygm 回复了问题 • 2 人关注 • 2 个回复 • 3496 次浏览 • 2018-03-15 16:54 • 来自相关话题

[杭州活动][3月31日] 智能运维探索与实践丨又拍云 Open Talk NO.40

活动suweibei 发表了文章 • 0 个评论 • 2854 次浏览 • 2018-03-14 15:50 • 来自相关话题

一、活动介绍

互联网业务井喷,给运维带来了越来越多的挑战。在运维领域,也产生了很多新的实践和方法论,自动化运维、DevOps、敏捷运维等,运维已然成为驱动各大公司研发运维流程和理念变革的关键角色。本次活动,又拍云联合日志易,并邀请华数传媒、二维火,在强调一线落地实践的同时,为你提供来自业界最前沿的智能运维思路。

又拍云 Open Talk 是由又拍云发起的系列主题分享沙龙,秉承又拍云帮助企业提升发展速度的初衷,从 2015 年开启以来,Open Talk 至今已成功举办 39 期,辐射线上线下近 70,000 技术人群。不管是从某个“主题”出发,并从横向拓展技术干货分享,还是以某个“品牌企业”为主,从纵深丰富演讲内容,活动都场场爆满。 

截止目前,又拍云 Open Talk 已经举办 39 期活动,分别在北京、上海、广州、深圳、杭州等12 座城市举办,覆盖美拍、唱吧、美联集团、唯品会、哔哩哔哩、华为等诸多知名企业,往期的活动的讲稿及视频详见:https://opentalk.upyun.com

二、报名地址


http://www.huodongxing.com/event/5431062720800

三、活动时间

2018 年 03 月 31 日( 周六 )14:00-17:30 

四、活动地点


浙江省杭州市西湖区黄姑山路 29 号颐高创业大厦 4 楼楼友会咖啡厅

五、活动议程


13:00-14:00  签到

14:00-14:40  宣云辉 二维火运维总监 - 《二维火的自动化运维探索》

14:40-15:20  邵海杨 又拍云运维总监 -《第三代又拍云数据中心架构改造》

15:20-15:30  茶歇

15:30-16:10  唐文俊 日志易技术总监 -《智能运维与海量日志分析》

16:10-16:50  姚建兵 华数传媒 P8 解决方案专家、高级项目经理 -《华数互联网 CDN 架构应用及运维实践》

16:50-17:30  自由交流

六、嘉宾介绍


![alt 文本](http://musee20160425.b0.upaiyu ... xi.jpg)

分享嘉宾一:宣云辉 二维火运维总监

花名七喜,二维火运维总监,Redhat 认证架构师,专注于运维新技术实践和中国传统文化在运维工作中的探索。

分享主题:《二维火的自动化运维探索》
本次分享主要介绍二维火在多地容灾,海外数据中心建设中对自动化运维的探索和实践。

![alt 文本](http://musee20160425.b0.upaiyu ... ng.jpg)

分享嘉宾二:邵海杨 又拍云运维总监

资深系统运维架构师。来自杭州 Linux 用户组。业余撰稿人,QCon 讲师及出品人,致力于开源软件及前沿科技的研究和探索。

分享主题:《第三代又拍云数据中心架构改造》
又拍云在经历了由小变大的过程中,数据中心也由简单变复杂,伴随着传统运维向自动化运维的转型,以此来更好地迎接未来的挑战,拥抱智能运维的到来。本次分享,将会介绍又拍云如何打造一个集松耦合,弹性可扩容,无状态微服务,可用资源池化的新一代数据中心架构。

![alt 文本](http://musee20160425.b0.upaiyu ... ng.jpg)

分享嘉宾三:唐文俊 日志易技术总监

先后在互联网、电商、信息安全等领域深耕多年,从事IT安全运维、日志分析等方面工作,项目实战经验丰富,拥有Redhat 、Cisco、Vmware、 EMC、Splunk、ITIL等等诸多专家认证资质,对智能运维、信息安全、大数据分析等领域有独到见解。

分享主题:《智能运维与海量日志分析》
大数据分析正在被广泛应用,大数据里 90% 都是非结构化数据。日志是重要的非结构化数据,日志无处不在,所以能够从日志里面挖掘的价值非常高,可用于运维监控、安全审计、用户以及业务数据分析。那么,如何最大限度发挥日志的价值成为业内人士研究思考最多的问题之一。本次分享将为大家分享当前海量日志分析的相关应用场景、技术难点以及趋势发展等。

![alt 文本](http://musee20160425.b0.upaiyu ... ao.jpg)

分享嘉宾四:姚建兵 华数传媒 P8 解决方案专家、高级项目经理

华数传媒互联网技术专家,高级项目经理,致力于 OTT 后台架构的研究,新产品、新方案的探索和实施,解决日常运营、运维中遇到的重大问题并给出改造的解决方案。

分享主题:《华数互联网 CDN 架构应用及运维实践》
华数传媒在互联网电视、 OTT 行业深耕,积累了丰富的经验。本次分享首先会介绍华数传媒的后台架构及 CDN 架构,结合统一调度、统一云存储、统一编排库等如何智能化解决问题,并大幅降低运维的工作量,介绍一些日常遇到的问题及解决方案。

七、现场礼品


![alt 文本](http://musee20160425.b0.upaiyu ... in.jpg)

elasticsearch分词检索的match-query匹配过程分析

Elasticsearch夏李俊 发表了文章 • 4 个评论 • 5294 次浏览 • 2018-03-14 12:00 • 来自相关话题

1. 模拟字符串数据存储
localhost:9200/yigo-redist.1/_analyze?analyzer=default&text=全能片(前)---TRW-GDB7891AT刹车片自带报警线,无单独报警线号码,卡仕欧,卡仕欧,乘用车,刹车片
上面的url表示
  •     索引为`yigo-redist.1`
  •     使用了索引`yigo-redist.1`中的分词器(`analyzer`) `default`
  •     解析的字符串(`text`)为"全能片(前)---TRW-GDB7891AT刹车片自带报警线,无单独报警线号码,卡仕欧,卡仕欧,乘用车,刹车片"


如果结果为:
{
"tokens" : [ {
"token" : "全能",
"start_offset" : 0,
"end_offset" : 2,
"type" : "CN_WORD",
"position" : 1
}, {
"token" : "片",
"start_offset" : 2,
"end_offset" : 3,
"type" : "CN_CHAR",
"position" : 2
}, {
"token" : "前",
"start_offset" : 4,
"end_offset" : 5,
"type" : "CN_CHAR",
"position" : 3
}, {
"token" : "trw-gdb7891at",
"start_offset" : 9,
"end_offset" : 22,
"type" : "LETTER",
"position" : 4
}, {
"token" : "刹车片",
"start_offset" : 22,
"end_offset" : 25,
"type" : "CN_WORD",
"position" : 5
}, {
"token" : "自带",
"start_offset" : 25,
"end_offset" : 27,
"type" : "CN_WORD",
"position" : 6
}, {
"token" : "报警",
"start_offset" : 27,
"end_offset" : 29,
"type" : "CN_WORD",
"position" : 7
}, {
"token" : "线",
"start_offset" : 29,
"end_offset" : 30,
"type" : "CN_CHAR",
"position" : 8
}, {
"token" : "无",
"start_offset" : 31,
"end_offset" : 32,
"type" : "CN_WORD",
"position" : 9
}, {
"token" : "单独",
"start_offset" : 32,
"end_offset" : 34,
"type" : "CN_WORD",
"position" : 10
}, {
"token" : "报警",
"start_offset" : 34,
"end_offset" : 36,
"type" : "CN_WORD",
"position" : 11
}, {
"token" : "线",
"start_offset" : 36,
"end_offset" : 37,
"type" : "CN_CHAR",
"position" : 12
}, {
"token" : "号码",
"start_offset" : 37,
"end_offset" : 39,
"type" : "CN_WORD",
"position" : 13
}, {
"token" : "卡",
"start_offset" : 40,
"end_offset" : 41,
"type" : "CN_CHAR",
"position" : 14
}, {
"token" : "仕",
"start_offset" : 41,
"end_offset" : 42,
"type" : "CN_WORD",
"position" : 15
}, {
"token" : "欧",
"start_offset" : 42,
"end_offset" : 43,
"type" : "CN_WORD",
"position" : 16
}, {
"token" : "卡",
"start_offset" : 44,
"end_offset" : 45,
"type" : "CN_CHAR",
"position" : 17
}, {
"token" : "仕",
"start_offset" : 45,
"end_offset" : 46,
"type" : "CN_WORD",
"position" : 18
}, {
"token" : "欧",
"start_offset" : 46,
"end_offset" : 47,
"type" : "CN_WORD",
"position" : 19
}, {
"token" : "乘用车",
"start_offset" : 48,
"end_offset" : 51,
"type" : "CN_WORD",
"position" : 20
}, {
"token" : "刹车片",
"start_offset" : 52,
"end_offset" : 55,
"type" : "CN_WORD",
"position" : 21
} ]
}

2. 关键词查询
localhost:9200//yigo-redist.1/_analyze?analyzer=default_search&text=gdb7891

  •     索引为`yigo-redist.1`
  •     使用了索引`yigo-redist.1`中的分词器(`analyzer`) `default_search`
  •     解析的字符串(`text`)为"gdb7891"

返回结果:
{
"tokens" : [ {
"token" : "gdb7891",
"start_offset" : 0,
"end_offset" : 7,
"type" : "LETTER",
"position" : 1
} ]
}

3. 关键词使用存储的分词器查询
localhost:9200//yigo-redist.1/_analyze?analyzer=default&text=gdb7891

  •     索引为`yigo-redist.1`
  •     使用了索引`yigo-redist.1`中的分词器(`analyzer`) `default_search`
  •     解析的字符串(`text`)为"gdb7891"

返回结果:
{
"tokens" : [ {
"token" : "gdb7891",
"start_offset" : 0,
"end_offset" : 7,
"type" : "LETTER",
"position" : 1
}, {
"token" : "",
"start_offset" : 0,
"end_offset" : 7,
"type" : "LETTER",
"position" : 1
}, {
"token" : "gdb7891",
"start_offset" : 0,
"end_offset" : 7,
"type" : "LETTER",
"position" : 1
}, {
"token" : "",
"start_offset" : 0,
"end_offset" : 3,
"type" : "ENGLISH",
"position" : 2
}, {
"token" : "gdb",
"start_offset" : 0,
"end_offset" : 3,
"type" : "ENGLISH",
"position" : 2
}, {
"token" : "gdb",
"start_offset" : 0,
"end_offset" : 3,
"type" : "ENGLISH",
"position" : 2
}, {
"token" : "7891",
"start_offset" : 3,
"end_offset" : 7,
"type" : "ARABIC",
"position" : 3
}, {
"token" : "7891",
"start_offset" : 3,
"end_offset" : 7,
"type" : "ARABIC",
"position" : 3
}, {
"token" : "",
"start_offset" : 3,
"end_offset" : 7,
"type" : "ARABIC",
"position" : 3
} ]
}

总结
  •     通过步骤1可以看出,存储的数据"全能片(前)---TRW-GDB7891AT刹车片自带报警线,无单独报警线号码,卡仕欧,卡仕欧,乘用车,刹车片",被拆分成了很多词组碎片,然后存储在了索引数据中
  •     通过步骤2可以看出,当关键词输入"gdb7891",这个在检索分词器(`default_search`)下,没有拆分,只一个可供查询的碎片就是"gdb7891",但是步骤1,拆分的碎片里不存在"gb7891"的词组碎片,唯一相近的就是"trw-gdb7891at",所以使用普通的match-query是无法匹配步骤1输入的索引数据
  •     通过步骤3,可以看出如果使用相同的分词器,"gdb7891"能够拆分成"gdb","7891"等等,通过这2个碎片都能找到步骤1输入的索引数据,但是因为关键词被拆分了,所以会查询到更多的匹配的数据,比如:与"gdb"匹配的,与"7891"匹配的,与"gdb7891"匹配的
  •     如果说想通过分词器(`default_search`)检索出步骤1的数据,需要使用wildcard-query,使用"*gdb7891*",就可以匹配
      {      "query": {          "wildcard" : { "description" : "*gdb7891*" }      }  }


  

如何解析uri带有的16进制的参数

回复

Logstashqvitt 发起了问题 • 1 人关注 • 0 个回复 • 2731 次浏览 • 2018-03-14 11:23 • 来自相关话题

Elastic日报 的 连接为什么不开

社区日报guoqp 回复了问题 • 4 人关注 • 2 个回复 • 3108 次浏览 • 2019-12-09 10:42 • 来自相关话题

ElasticSearch6.1.2数据插入问题

Elasticsearchzjn_job 回复了问题 • 4 人关注 • 3 个回复 • 6042 次浏览 • 2018-07-04 16:58 • 来自相关话题