首页 > 其他分享 >elasticsearch8.X tokenizer分词器优化

elasticsearch8.X tokenizer分词器优化

时间:2024-07-22 10:32:23浏览次数:18  
标签:西红柿 product tokenizer summary ik 分词器 type elasticsearch8

一、使用指定中文分词器

1.1 一个查询小例子

我们安装好es和kibana之后,就可以在kibana控制台开始我们的查询探索之旅。首先创建一个包含了两个字段“product"和"summary"的索引product_00:

PUT product_00
{
  "mappings": {
    "properties": {
      "product": {
        "type": "text"
        },
      "summary": {
        "type": "text"
      }
    }
  }
}

然后往索引里面插入文档:

PUT product_00/_doc/01
{
  "product":"洋芋",
  "summary":"来自云南的土豆,香甜软糯"
}
  
PUT product_00/_doc/02
{
  "product":"西红柿",
  "summary":"来自四川的西红柿,酸甜多汁"
}

PUT product_00/_doc/03
{
  "product":"地瓜",
  "summary":"来自山东的地瓜,肉厚甜糯"
}

然后就可以开始愉快地搜索了~

同样的也可以搜索到土豆和地瓜,但是当不小心搜索了一个跟蔬菜完全无关的词语“西班牙”时,奇怪的结果出现了,竟然也搜索出来了西红柿,这是我们完全不想要得到的搜索结果。

那么原因是什么呢,使用es的analyzer分析器功能来看一下。

GET product_00/_analyze
{
  "field" : "product",
  "text": "西班牙"
}

得到结果如下:

可以看出,在es进行match匹配时,是将搜索的文本拆分成单个的汉字进行搜索的,具体es搜索原理可以参见倒排索引。

另外也可以通过在查询语句里面增加"explain"选项,对查询结果进行解释:

我们暂时不需要理解这里面每一行的具体含义,但是可以大致理解一下,查询结果是因为匹配到了summary字段里面的”西“字。

然而实际上我们希望将”西班牙“、”西红柿“作为一个词来进行检索,不要将他们分开,可是默认的中文分词器是将每个中文汉字拆开了。

2.2 中文分词器

我们需要一个中文分词器,将文本按照正常逻辑分词。目前比较常见的中文分词器有ik、cutword、jieba等,本文使用ik。

在线安装ik(GitHub - infinilabs/analysis-ik),运行下面的命令,然后重启es。安装好了之后我们得到了ik_smart和ik_max_word两个分词器,一般前者用于搜索时分词,后者用于索引时分词。

bin/elasticsearch-plugin install https://get.infini.cloud/elasticsearch/analysis-ik/8.4.1

其他ik离线安装方法和docker打包ik的方法可以参见这边文章。

验证ik分词器是否安装完好,如下图所见,西班牙已经作为一个单独的词语了。

3.3 索引和搜索时定义analyzer

安装了分词器之后,重新创建索引,并在创建索引时指定分词器

PUT product_01
{
    "settings": {
      "analysis": {
        "analyzer": {
          "default": {
            "type": "ik_max_word" 
          },
          "default_search": {
            "type": "ik_smart"  
          }
        }
      }
    },
    "mappings": {
      "properties": {
        "product": {"type": "text"},
        "summary": {"type": "text"}
      }
    }
  }

还是按照前文插入三条蔬菜数据,然后再查询"西班牙"时,就不会再查出来"西红柿"了。

二、停用词和专有名词

2.1 一些检索时不希望匹配到的词

再看这样一个场景,搜索来自“贵州”的农产品,es里面没有贵州的蔬菜,所以搜索的结果应该是空,可实际上进行检索时却得到了如下的数据:

这并不是预期的结果,我们可以用highlight或者explain看一下匹配原因:

原来是查询词里面的“来自”和summary字段里面的词匹配上了,但是从搜索的角度来看,“来自贵州”用户的搜索意图实际上是“贵州”,而不希望“来自”这个词去匹配,那么对于这种情况可以使用到分词里面的stopword配置。

2.2 专有名词

再看这样一个场景,首先更新一下数据,在summary里面加上蔬菜公司“西红柿首富”和“咚咚买菜”,然后再根据蔬菜公司“西红柿首富”进行搜索,果不其然不仅搜出来了对应的公司也搜索出来了包含“西红柿”的文档。

在这种场景下我们希望“西红柿首富”字段作为一个专有的名词来进行索引和检索,这种情况我们可以使用到分词器的extraword配置。

2.3 配置stopword和extraword

针对上面两种场景,我们编辑 plugins/analysis-ik/config/路径IKAnalyzer.cfg.xml文件,分别对扩展词文件和停用词文件进行配置扩展如下:

在当前路径下分别编辑这两个文件,在extra_stopword.dic 文件中新增一行“来自”

my_extra_word.dic文件里面新增一行“西红柿首富”。这样就完成了配置。

然后重启es,并重新插入数据(数据必须要重新插入,要不然直接检索会得不到数据,原因读者可以思考一下~)。

然后我们再次进行前面两个场景的检索,现在得到就是正确结果了。


三、同义词

在查询时我们经常会遇到同义词查询的场景,比如“番茄”和“西红柿”,“猕猴桃”和“奇异果”等等。这种情况下可以使用Elasticsearch的synonyms功能。

首先,我们在Elasticsearch/config目录下,新建一个analysis文件夹,创建一个名叫synonyms.txt的文档,每一行编辑一系列的同义词,用逗号隔开。示例内容如下

土豆,洋芋
番茄,西红柿

然后定义同义词filter, 配置同义词文档路径(注意路径是以elasticsearch/config为根目录的相对路径),然后根据ik分词器扩展带有同义词的自定义分词器 ik_smart_synonyms,并将 ik_smart_synonyms配置成查询时分析器,创建索引如下:

PUT product
{
    "settings": {
      "analysis": {
        "filter":{
          "my_synonym_filter": {
            "type":"synonym",
            "synonyms_path":"analysis/synonyms.txt",
            "updateable":true
          }
        },
        "analyzer": {
          "ik_smart_synonyms":{
            "type":"custom",
            "tokenizer": "ik_smart",
            "filter":[
              "my_synonym_filter"
              ]
          }
        }
      }
    },
    "mappings": {
      "properties": {
        "product": {
          "type": "text",
          "analyzer": "ik_max_word",
          "search_analyzer": "ik_smart_synonyms"
          
        },
        "summary": {
          "type": "text",
          "analyzer": "ik_max_word",
          "search_analyzer": "ik_smart_synonyms"
        }
      }
    }
  }

插入两条测试数据:

PUT product/_doc/01
{
  "product":"洋芋",
  "summary":"来自云南的土豆,香甜软糯"
}
  
PUT product/_doc/02
{
  "product":"西红柿",
  "summary":"来自四川的西红柿,酸甜多汁"
}


查询:

GET product/_search
{
  "query": {
    "match": {
      "product": {
        "query":"番茄"
      } 
    }
  }
}

查询结果如下:

【说明】

本文的配置均基于ES-8.14.1版本

标签:西红柿,product,tokenizer,summary,ik,分词器,type,elasticsearch8
From: https://www.cnblogs.com/hello-momo-0123/p/18315448

相关文章

  • lama-cleaner 安装时tokenizers问题的处理
    这几天尝试安装lama-cleaner,试一试其自动处理图片的功能。在两台电脑上试过,操作系统分别是Windows10和银河麒麟V10(SP1),Python的版本都是3.12。安装命令简单说就是下面这一句pipinstalllama-cleaner-ihttps://pypi.tuna.tsinghua.edu.cn/simple--verbose这里的网址表示使用......
  • Elasticsearch8.9.0安装配置集群
    下载安装包从官网下载8.9.0安装包#elasticsearch-8.9.0-x86_64.rpmfilebeat-8.9.0-x86_64.rpmkibana-8.9.0-x86_64.rpm安装系统环境查看#cat/etc/redhat-releaseRockyLinuxrelease9.3(BlueOnyx)#uname-aLinuxRocky9Es010030895.14.0-362.18.1.el9_3......
  • Elastic Search使用ik分词器测试分词效果实现------Elastic Search
    POST_analyze{"analyzer":"ik_max_word","text":"一刀999是兄弟就来砍我"}POST_analyze{ "analyzer":"ik_max_word", "text":"一刀999是兄弟就来砍我"}{"tokens":[......
  • 微调qwen-VL报错ValueError: Unrecognized configuration class<xxx>to build an AutoTo
    问题在微调qwen-vl的时候,微调完成之后,模型也保存好了,但是用保存的模型进行推理的时候报错,看样子是找不到分词器tokenizer。报错信息ValueError:Unrecognizedconfigurationclass<class‘transformers_modules.configuration_qwen.QWenConfig’>tobuildanAutoTok......
  • .Net Core8下Elasticsearch7.x+Nest升级到Elasticsearch8.x+Elastic.Clients.Elastics
    背景Elasticsearch升级到8.11了,对应的客户端插件也跟着升级,以为会兼容Nest的语法,发现自己TooYoungTooSimple!没办法,只能去官网找,结果官网只有最基本的增、删、改、查,只能继续查资料,发现网上资料很少,避免大家少走弯路,这里做个简单的分享。分享1.ElasticsearchClientvaresS......
  • elasticsearch之ik分词器和自定义词库实现
    ElasticSearch分词器所谓的分词就是通过tokenizer(分词器)将一个字符串拆分为多个独立的tokens(词元-独立的单词),然后输出为tokens流的过程。例如"mynameisHanMeiMei"这样一个字符串就会被默认的分词器拆分为[my,name,isHanMeiMei].ElasticSearch中提供了很多默认的分词器,我......
  • SentencePiece: A simple and language independent subword tokenizer and detokeniz
    郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Abstract 1Introduction 2SystemOverview  3LibraryDesign 3.1LosslessTokenization  3.2Efficientsubwordtrainingandsegmentation 3.3Vocabularyidmanagement 3.4Customi......
  • Lucene的IK分词器学习,增加支持单个特殊符号搜索
    前言感谢CSDN这篇文章,原始代码基于这里。正常对于“[email protected]”这段文字,搜索'@'这个符号是搜不出来的。本文主要修改是扩展IK分词器,增加了对诸如"@-"这种特殊文字的检索。当然这个其实并没有多少实际意义,所以基本也是出于学习的目的。正文IK分词器分析这里不深入原理,......
  • ValueError: Tokenizer class LLaMATokenizer does not exist or is not currently im
    ValueError:TokenizerclassLLaMATokenizerdoesnotexistorisnotcurrentlyimported.解决方案:全面解析问题概述当您使用Transformers库处理与LLaMA模型相关任务时,遇到ValueError:TokenizerclassLLaMATokenizerdoesnotexistorisnotcurrentlyimported.......
  • ValueError: Tokenizer class Qwen2Tokenizer does not exist or is not currently po
    ValueError:TokenizerclassQwen2Tokenizerdoesnotexistorisnotcurrentlyported.解决方案:全面解析问题概述当您使用Qwen模型或Qwen技术相关库时,遇到ValueError:TokenizerclassQwen2Tokenizerdoesnotexistorisnotcurrentlyported.错误时,这意味着......