一、Elasticsearch介绍
Elasticsearch 是一个非常强大的搜索引擎。它目前被广泛地使用于各个 IT 公司。Elasticsearch 是由 Elastic 公司创建。它的代码位于 GitHub - elastic/elasticsearch: Free and Open, Distributed, RESTful Search Engine。Elasticsearch 是一个分布式、免费和开放的搜索和分析引擎,适用于所有类型的数据,包括文本、数字、地理空间、结构化和非结构化数据。 Elasticsearch 基于 Apache Lucene 构建,并于 2010 年由 Elasticsearch N.V. 首次发布(现在称为 Elastic)。
- Elasticsearch 以其简单的 REST API、分布式特性、速度和可扩展性而闻名,是 Elastic Stack 的核心组件,Elastic Stack 是一组用于数据摄取、丰富、存储、分析和可视化的免费开放工具。 通常被称为 ELK Stack。
- Logstash: Logstash是一个开源的数据收集、处理和传输工具。它可以从各种来源(如日志文件、消息队列、数据库等)收集数据,并对数据进行过滤、转换和格式化,最后将数据发送到Elasticsearch等目标存储或分析系统。Logstash支持多种输入和输出插件,可以与各种数据源和目标进行集成,使数据的收集和传输变得简单和可靠。
- Kibana: Kibana是一个开源的数据可视化和分析平台,用于在Elasticsearch中探索、分析和可视化数据。它提供了丰富的图表、图形和仪表盘,可以帮助用户深入了解数据的特征和趋势。通过Kibana,用户可以创建交互式的仪表盘,自定义查询和过滤条件,实时监控数据,并将结果以可视化的方式展示出来。Kibana还支持插件扩展,可以根据需要添加额外的功能和定制化。
这个三个项目组合在一起,就形成了 ELK 软件栈。他们三个共同形成了一个强大的生态圈。简单地说,Logstash 负责数据的采集,处理(丰富数据,数据转换等),Kibana 负责数据展示,分析,管理,监督,警报及方案。Elasticsearch 处于最核心的位置,它可以帮我们对数据进行存储,并快速地搜索及分析数据。随着后来的 Beats 加入,ELK 软件栈,也被称为 ELKB。
- Beats是Elasticsearch提供的一组轻量级数据采集工具,用于收集各种类型的数据并将其发送到Elasticsearch或Logstash进行处理和存储
所以上 Elasticsearch 的完整栈有如下的几个:
- Beats
- Elasticsearch
- Kibana
- Logstash
如下图:
通常不会在客户端直接调用 Elasticsearch 的 REST 接口。取而代之的是,我们使用一个 Search Service 作为中间接口。Search Service 再向 Elasticsearch 发送请求。可以通过 Beats 来采集 service 的日志及指标信息,甚至可以使用 Elastic Stack 所提供的 APM (应用性能监控)来监控应用及服务的性能并调优。Beats 所收集的信息,可以直接发送至 Elasticsearch,也可以发送至 Logstash 对数据做更进一步的加工(丰富,转换,删除,结构化等)再发送至 Elasticsearch。可以通过 Kibana 对数据进行可视化,分析,管理,对服务进行监控等。
二、使用Docker部署Elasticsearch
Elasticsearch是一个Java项目,从Elasticsearch7.0以上的版本已经内置jdk,不同的版本所需要的jdk版本是不同的(建议使用自己的Java版本,推荐Java长期版本),同时不同的系统版本所需要的ES版本也是不同的,
注意:ES自带openjdk,如果你的主机本身没有安装JDK,那么它会使用自带的JDK,如果安装了,那么会使用系统JDK。可是如果系统JDK版本小于ES需要的JDK版本,那么就会在启动时抛出不支持你的JDK的错误
参考官方网址:https://www.elastic.co/cn/support/matrix#matrix_os
下载地址:https://www.elastic.co/cn/downloads/elasticsearch,下载下来目录如下图:
目录名称 | 描述 |
bin | 可执行脚本文件,包括启动elastic search服务、插件管理、函数命令等等 |
config | 配置文件目录,如elasticsearch配置、角色配置、jvm配置等。 |
jdk | 7.0以后才有,自带的Java环境 |
lib | elasticsearch所依赖的Java库 |
data | 默认的数据存放目录,包含节点、分片、索引、文档的所有数据,生产环境要求必须修改。 |
logs | 默认的日志文件存储路径,生产环境务必修改。 |
modules | 包含所有的Elasticsearch模块,如Cluster、Discovery、Indices等。 |
plugins | 已经安装的插件的目录 |
2.1.部署单点es
2.1.1.创建网络
因为我们还需要部署kibana容器,因此需要让es和kibana容器互联。这里先创建一个网络:
docker network create es-net
2.1.2.拉取镜像
考虑到elasticsearch的兼容性,这里elasticsearch、kibana、IK分词器统一下载7.17.5版本,拉取镜像
docker pull elasticsearch:7.17.5
docker pull kibana:7.17.5
2.1.3.运行
运行docker命令,部署单点es,
docker run -d \
--name es \
-e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \
-e "discovery.type=single-node" \
-v es-data:/usr/share/elasticsearch/data \
-v es-plugins:/usr/share/elasticsearch/plugins \
--privileged \
--network es-net \
-p 9200:9200 \
-p 9300:9300 \
elasticsearch:7.17.5
下面是各个参数的含义解释和作用:
-d
:以后台模式运行容器。--name es
:为容器指定一个名称为 "es"。-e "ES_JAVA_OPTS=-Xms512m -Xmx512m"
:设置 Elasticsearch 的 Java 虚拟机选项,指定初始堆大小为 512MB,最大堆大小也为 512MB。-e "discovery.type=single-node"
:设置 Elasticsearch 的发现类型为单节点模式,这意味着它将以单节点模式启动,不会尝试与其他节点进行通信。-v es-data:/usr/share/elasticsearch/data
:将名为 “es-data” 的 Docker 卷挂载到容器内的/usr/share/elasticsearch/data
目录,用于持久化 Elasticsearch 的数据。-v es-plugins:/usr/share/elasticsearch/plugins
:将名为 “es-plugins” 的 Docker 卷挂载到容器内的/usr/share/elasticsearch/plugins
目录,用于安装 Elasticsearch 插件。--privileged
:以特权模式运行容器,这允许容器内的进程获得更高的权限。--network es-net
:将容器连接到名为 “es-net” 的网络,这样容器内的服务可以通过网络进行通信。-p 9200:9200
:将容器的 9200 端口映射到主机的 9200 端口,这样可以通过主机的 IP 地址和端口访问 Elasticsearch 的 HTTP API。-p 9300:9300
:将容器的 9300 端口映射到主机的 9300 端口,这样可以通过主机的 IP 地址和端口访问 Elasticsearch 的节点间通信。
总体而言,这个命令会创建一个名为 “es” 的 Elasticsearch 容器,配置了内存限制、数据和插件目录的挂载,以及网络和端口的映射,使得可以通过主机访问 Elasticsearch 服务
2.1.4.测试
在浏览器中输入:http://192.168.42.146:9200 即可看到elasticsearch的响应结果:
2.2.部署kibana
Kibana 是一款开源的数据分析和可视化平台,设计用于和 Elasticsearch 协作。可以使用 Kibana 对 Elasticsearch 索引中的数据进行搜索、查看、交互操作。kibana可以给我们提供一个elasticsearch的可视化界面,方便学习。
2.2.1.部署
创建kibana容器,如下:
docker run -d --name kibana -e ELASTICSEARCH_HOSTS=http://es:9200 --network=es-net -p 5601:5601 kibana:7.17.5
参数说明:
- –network es-net :加入一个名为es-net的网络中,与elasticsearch在同一个网络中
- -e ELASTICSEARCH_HOSTS=http://es:9200":设置elasticsearch的地址,因为kibana已经与elasticsearch在一个网络,因此可以用容器名直接访问elasticsearch
- -p 5601:5601:端口映射配置
kibana启动比较慢,需要多等待一会,可以通过命令查看启动情况:
docker logs -f kibana
查看运行日志,当查看到下面的日志,说明成功:
此时,在浏览器输入地址访问:http://192.168.42.146:5601,即可看到结果:
2.2.2.DevTools
kibana中提供了一个DevTools界面,地址:http://192.168.42.146:5601/app/dev_tools#/console,如下:
这个界面中可以编写DSL来操作elasticsearch。并且对DSL语句有自动补全功能。
2.3.安装IK分词器
3.1.在线安装ik插件(较慢)
# 进入容器内部
docker exec -it elasticsearch /bin/bash
# 在线下载并安装
./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.17.5/elasticsearch-analysis-ik-7.17.5.zip
#退出容器
exit
#重启容器
docker restart es
3.2.离线安装ik插件(推荐)
1)查看数据卷目录
安装插件需要知道elasticsearch的plugins目录位置,而我们用了数据卷挂载,因此需要查看elasticsearch的数据卷目录,通过下面命令查看:
docker volume inspect es-plugins
如下图:
说明plugins目录被挂载到了:/var/lib/docker/volumes/es-plugins/_data这个目录中。
2)解压缩分词器安装包
去GitHub下载ik分词器,下载地址:https://github.com/medcl/elasticsearch-analysis-ik/releases/tag/v7.17.5,
3)上传到es容器的插件数据卷中
在/var/lib/docker/volumes/es-plugins/_data,创建路径analysis-ik,路径即可,然后解压
# 创建路径
mkdir analysis-ik
将文件上传到创建的路径,然后解压
4)重启容器
# 4、重启容器
docker restart es
# 查看es日志
docker logs -f es
5)测试:
IK分词器包含两种模式:
- ik_smart:最少切分
- ik_max_word:最细切分
3.3.扩展词词典
随着互联网的发展,“造词运动”也越发的频繁。出现了很多新的词语,在原有的词汇列表中并不存在。比如:“显眼包”,“蓝瘦香菇” 等。所以我们的词汇也需要不断的更新,IK分词器提供了扩展词汇的功能。
所谓扩展词:就是不想哪些词分开,让他们成为一个词,比如“蓝瘦香菇”
1)打开IK分词器config目录,在IKAnalyzer.cfg.xml配置文件内容添加
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer 扩展配置</comment>
<!--用户可以在这里配置自己的扩展字典 *** 添加扩展词典-->
<entry key="ext_dict">ext.dic</entry>
</properties>
2)在config包下新建一个 ext.dic,可以参考config目录下复制一个配置文件进行修改
显眼包
蓝瘦香菇
3)重启elasticsearch
docker restart es
# 查看 日志
docker logs -f es
日志中已经成功加载ext.dic配置文件
4)测试效果:
执行最细粒度的拆分,
- 在没有将“蓝瘦香菇”、“显眼包”放到扩展词典前,会拆分成单个汉字或者词语,
- 添加后将“蓝瘦香菇”和“显眼包”放到扩展词典,并重启elasticsearch服务之后,执行会“蓝瘦香菇”、“显眼包”显示成单词出现:
执行后如下:
GET /_analyze
{
"analyzer": "ik_max_word",
"text": "蓝瘦香菇的作者真的是个显眼包,奥力给!"
}
执行如下图:
3.4 停用词词典
在互联网项目中,在网络间传输的速度很快,所以很多语言是不允许在网络上传递的,如:关于宗教、政治等敏感词语,那么我们在搜索时也应该忽略当前词汇。IK分词器也提供了强大的停用词功能,让我们在索引时就直接忽略当前的停用词汇表中的内容。
停用词:有些词在文本中出现的频率非常高。但对本文的语义产生不了多大的影响。例如英文的a、 an、the、of等。或中文的”的、了、呢等”。这样的词称为停用词。停用词经常被过滤掉,不会被进行索引。在检索的过程中,如果用户的查询词中含有停用词,系统会自动过滤掉。停用词可以加快索引的速度,减少索引库文件的大小。
1)IKAnalyzer.cfg.xml配置文件内容添加:
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer 扩展配置</comment>
<!--用户可以在这里配置自己的扩展字典-->
<entry key="ext_dict">ext.dic</entry>
<!--用户可以在这里配置自己的扩展停止词字典 *** 添加停用词词典-->
<entry key="ext_stopwords">stopword.dic</entry>
</properties>
2)在 stopword.dic 添加停用词
嗯
的
了
嘤
3)重启elasticsearch
# 重启服务
docker restart es
# 查看 日志
docker logs -f es
4)测试效果,
执行如下:
GET /_analyze
{
"analyzer": "ik_max_word",
"text": "嗯嗯,明天的天气挺好?"
}
之前的配置中停用了嗯、的等字,所以在检索的时候就不会再出现,如下图:
3.5.同义词典
同义词:意思相同的,“番茄”和“西红柿”,查询“番茄”的时候,把带有“西红柿”的数据一起查出来,这种叫做同义词查询,
1)先进入到es容器,创建目录
# 进入到es的配置路径
cd /usr/share/elasticsearch/config/
# 创建路径,后续同义词词典保存在这里
mkdir analysis
2)在创建配置IK同义词(服务器中),创建名为synonym.dic的文件,输入下面同义词,并保存
番茄,西红柿,柿子
土豆,马铃薯
3)将同义词文件synonym.dic拷贝到容器
docker cp synonym.dic es:/usr/share/elasticsearch/config/analysis
4)重启容器
然后重启elasticsearch会自动加载相近词
docker restart db562acdab85 9d596d3672ab
5)打开kibana输入以下命令测试
注意先要创建同义词库,才可以查询同义词库
#创建同义词词库
PUT syno
{
"settings": {
"analysis": {
"filter": {
"my_synonym_filter": {
"type": "synonym",
"synonyms_path" : "analysis/synonym.dic"
}
},
"analyzer": {
"my_synonyms": {
"tokenizer": "ik_smart",
"filter": [
"lowercase",
"my_synonym_filter"
]
}
}
}
}
}
#查询同义词
GET /syno/_analyze
{
"analyzer": "my_synonyms",
"text": "我爱吃土豆"
}
#删除数据库
DELETE syno
创建词库后,执行查询同义词结果如下: