Skip to content
🔍📊ElasticSearch的使用笔记,包括使用sdk,使用springboot+jset、使用docker启动完成es的部署索引和搜索等
Branch: master
Clone or download
Latest commit 5c18050 Aug 7, 2018
Permalink
Type Name Latest commit message Commit time
Failed to load latest commit information.
data/elasticsearch/nodes/0
log
src/main 将之前的项目整理了一下 Apr 3, 2018
.gitignore 初始化项目 Apr 1, 2018
README.md udpate readme Aug 7, 2018
pom.xml

README.md

quick-elasticsearch

ElasticSearch的使用笔记

这里除了会记录一些ES的使用代码和一些功能实现,也会有ELK的相关使用方法,如下图,比较简单的一个统计

职位仪表盘.png

代码里已经实现了

  • createIndex 创建索引
  • createMapping 创建mapping
  • putDocument 批量索引(包括数据已存在更新,不存在就插入)
  • deleteDocument

目前再继续完善,如果感兴趣那就请持续关注~~~

ssb-jest-base

branch

SpringBoot使用jest替代官方sdk的使用方法

简单易用,无需担心版本不兼容的问题

配置好es的链接参数,直接运行项目,程序会自动的创建索引、mapping并且会插入几个文档供接下来的CURD使用

如图 es-view.png 代码提供了最基本的增删改查功能 swagger-api.png

ssb-jest

branch

此分支主要是处理分词和搜索相关问题 使用IK分词 github地址:https://github.com/medcl/elasticsearch-analysis-ik 按照上面的说明将插件放在~/elasticsearch/plugins/ik下面,重启即可

分词情况

可以这样对字符串进行分词分析

post http://localhost:9200/recipes/_analyze
{
  "analyzer": "standard", 
  "text": "奶油鲍鱼汤"
}

默认分词器 Standard

如果不指定分词,则会使用ES默认的分词,分词结果就会变成一个一个的字符,如下

{
    "tokens": [
        {
            "token": "",
            "start_offset": 0,
            "end_offset": 1,
            "type": "<IDEOGRAPHIC>",
            "position": 0
        },
        {
            "token": "",
            "start_offset": 1,
            "end_offset": 2,
            "type": "<IDEOGRAPHIC>",
            "position": 1
        },
        {
            "token": "",
            "start_offset": 2,
            "end_offset": 3,
            "type": "<IDEOGRAPHIC>",
            "position": 2
        },
        {
            "token": "",
            "start_offset": 3,
            "end_offset": 4,
            "type": "<IDEOGRAPHIC>",
            "position": 3
        },
        {
            "token": "",
            "start_offset": 4,
            "end_offset": 5,
            "type": "<IDEOGRAPHIC>",
            "position": 4
        }
    ]
}

IK分词

在创建mapping的时候指定分词,如下

"jobName": {
  "type": "text",
  "analyzer": "ik_max_word",
  "search_analyzer": "ik_max_word"
}

ik分词有两种模式

  • ik_max_word
{
    "tokens": [
        {
            "token": "奶油",
            "start_offset": 0,
            "end_offset": 2,
            "type": "CN_WORD",
            "position": 0
        },
        {
            "token": "鲍鱼",
            "start_offset": 2,
            "end_offset": 4,
            "type": "CN_WORD",
            "position": 1
        },
        {
            "token": "鱼汤",
            "start_offset": 3,
            "end_offset": 5,
            "type": "CN_WORD",
            "position": 2
        }
    ]
}
  • ik_smart
{
    "tokens": [
        {
            "token": "奶油",
            "start_offset": 0,
            "end_offset": 2,
            "type": "CN_WORD",
            "position": 0
        },
        {
            "token": "鲍",
            "start_offset": 2,
            "end_offset": 3,
            "type": "CN_CHAR",
            "position": 1
        },
        {
            "token": "鱼汤",
            "start_offset": 3,
            "end_offset": 5,
            "type": "CN_WORD",
            "position": 2
        }
    ]
}

能直观的看出两者的区别,当然了IK也支持自定义呢分词字典,这个去github主页就能看到使用方法。

查询

点我看term和match的区别

You can’t perform that action at this time.