Elasticsearch安装
Elasticsearch安装
1.下载es. Es 下载链接: Download Elasticsearch | Elastic
2.解压后在bin路径下,运行
1 |
|
3.访问localhost:9200,看到下面的页面即启动成功
Kibana安装
- Kibana 下载链接:Download Kibana Free | Get Started Now | Elastic
- 修改 kibana.yml
1 |
|
3.访问http://localhost:5601/app/kibana, 看到下面的页面即启动成功
安装IK分词器
我们后续也需要使用Elasticsearch来进行中文分词,所以需要单独给Elasticsearch安装IK分词器插件。以下为具体安装步骤:
下载ElasticsearchIK分词器 https://github.com/medcl/elasticsearch-analysis-ik/releases
在es的安装目录下/plugins创建ik,将下载的ik分词器上传并解压到该目录
重启Elasticsearch
1 |
|
- 测试分词效果,访问Dev Tools - Elastic
1 |
|
- ik_smart:会做最粗粒度的拆分
1 |
|
- k_max_word:会将文本做最细粒度的拆分
1 |
|
指定IK分词器作为默认分词器
ES的默认分词设置是standard,这个在中文分词时就比较尴尬了,会单字拆分,比如我搜索关键词“清华大学”,这时候会按“清”,“华”,“大”,“学”去分词,然后搜出来的都是些“清清的河水”,“中华儿女”,“地大物博”,“学而不思则罔”之类的莫名其妙的结果,
这里我们就想把这个分词方式修改一下,于是呢,就想到了ik分词器,有两种ik_smart和ik_max_word。ik_smart会将“清华大学”整个分为一个词,而ik_max_word会将“清华大学”分为“清华大学”,“清华”和“大学”,按需选其中之一就可以了。修改默认分词方法(这里修改school_index索引的默认分词为:ik_max_word):
1 |
|
Elasticsearch安装
http://example.com/Elasticsearch安装/