首页 > 其他分享 >solr集成IKAnalyzer中文分词器

solr集成IKAnalyzer中文分词器

时间:2023-01-06 15:02:08浏览次数:36  
标签:tomcat 配置文件 IKAnalyzer 分词器 solr 自定义


如果想要知道如何安装solr,集成IKAnalyzer中文分词器,批量导入数据库数据,java使用参照以下本博主博文:


 

2.把ikanalyzer-2012_u6.jar文件复制到tomcat的webapps/ROOT/WEB-INF/lib下

solr集成IKAnalyzer中文分词器_tomcat

solr集成IKAnalyzer中文分词器_IKAnalyzer_02

3.复制IKAnalyzer的配置文件和自定义词典和停用词词典到solr的classpath下

classpath也就是tomcat的webapps/ROOT/WEB-INF/classes如果不存在classes文件夹,可自行创建

solr集成IKAnalyzer中文分词器_solr_03

solr集成IKAnalyzer中文分词器_ik分词_04

4.在solrhome中的collection1中(定义的solr实例(不一定是collection1,也可能是第二个,第三个))的conf目录下的schema.xml配置文件中配置自定义fieldType(该目录在安装solr博文里面有),以使用中文分词器

solr集成IKAnalyzer中文分词器_中文分词器_05

<!-- IKAnalyzer-->
<fieldType name="text_ik" class="solr.TextField">
<analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>

solr集成IKAnalyzer中文分词器_中文分词器_06

5.在上面schema.xml文件中配置,field,指定field的type属性为text_ik(上一步配置的fieldType指定的name)

<!--IKAnalyzer Field-->
<field name="title_ik" type="text_ik" indexed="true" stored="true" />
<field name="content_ik" type="text_ik" indexed="true" stored="false" multiValued="true"/>

6.重启tomcat

测试:

solr集成IKAnalyzer中文分词器_IKAnalyzer_07

solr集成IKAnalyzer中文分词器_tomcat_08

 

 


标签:tomcat,配置文件,IKAnalyzer,分词器,solr,自定义
From: https://blog.51cto.com/u_15932265/5993563

相关文章

  • solr使用网页浏览器批量导入数据库中数据(本案例是mysql)
    如果想要知道如何安装solr,集成IKAnalyzer中文分词器,批量导入数据库数据,java使用参照以下本博主博文:安装solr集成IKAnalyzer中文分词器solr使用浏览器批量导入数据库中数据s......
  • 在java中使用solrj对solr进行CRUD
    如果想要知道如何安装solr,集成IKAnalyzer中文分词器,批量导入数据库数据,java使用参照以下本博主博文:安装solr集成IKAnalyzer中文分词器solr使用浏览器批量导入数据库中数据s......
  • solr的安装使用tomcat容器
    如果想要知道如何安装solr,集成IKAnalyzer中文分词器,批量导入数据库数据,java使用参照以下本博主博文:1.第一步下载tomcat,solr包,ik中文分词的jar   tomcat9.0.19下载 ......
  • 全文检索工具solr:第二章:安装配置
    linux安装Solr:可以参考全文检索工具elasticsearch:第二章:安装配置配置类似点击下载solrwindows中Solr安装1:安装Tomcat,解压缩即可。2:解压solr。3:把solr下的dist目录......
  • 全文检索工具solr:第一章:理论知识
    什么是Solr大多数搜索引擎应用都必须具有某种搜索功能,问题是搜索功能往往是巨大的资源消耗并且它们由于沉重的数据库加载而拖垮你的应用的性能。这就是为什么转移负载到......
  • SpringBoot高级篇搜索之Solr环境搭建与简单测试
    搜索可以说是非常常见的场景了,一般选择比较多的有solr和es,底层都是基于Lucene搜索引擎实现。之前简单的使用过solr,一直没有成体系的学习过,正好需要给一个内部项目封装统一的......
  • Transformers库之快速分词器组件
    目录快速分词器使用快速分词器模仿pipeline组件的行为序列标注任务抽取式问答任务快速分词器实际上,HuggingFace共提供了两种分分词器:慢速分词器:Transformers库自带,......
  • Transformers库之模型(Model)组件和分词器(Tokenizer)组件
    目录模型加载模型保存模型分词器分词策略加载与保存分词器编码与解码文本处理多段文本Padding操作Attentionmasks直接使用分词器编码句子对模型在之前介绍pipeline组......
  • ElasticSearch学习笔记(4)-IK中文分词器
    一、分词器-介绍IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包•是一个基于Maven构建的项目•具有60万字/秒的高速处理能力•支持用户词典扩展定义•......
  • 如何安装ES的IK分词器插件?
    1.更新yum等资源sudoyumupdate-ysudorpm-ivh​http://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm​sudorpm-ivhhttps://kojipkgs.fedora......