zoukankan      html  css  js  c++  java
  • 我与solr(六)--solr6.0配置中文分词器IK Analyzer

    转自:http://blog.csdn.net/linzhiqiang0316/article/details/51554217,表示感谢。

     由于前面没有设置分词器,以至于查询的结果出入比较大,并且无法进行正确的高亮显示。现在配置一下分词器来解决相关问题。

      solr6.0中进行中文分词器IK Analyzer的配置和solr低版本中最大不同点在于IK Analyzer中jar包的引用。一般的IK分词jar包都是不能用的,因为IK分词中传统的jar不支持solr6.0这个高版本的,所以就会发送运行错误的界面。下面就来介绍一下solr6.0中中文分词器IK Analyzer的配置。

    步骤1:

      下载solr6.0专用的IK Analyzer的jar包和相应的配置文件。因为IK Analyzer可以很方便的对词库近些年扩展,所以我在IK Analyzer中加入了搜狗词库的配置,可以最大限度的收录现在一些潮流的词语。  IK Analyzer的jar包和相应的配置文件下载地址:点击打开链接

    步骤2:

      解压上一个步骤所得到的压缩包,将ik-analyzer-solr5-5.x.jar这个jar包放入solr项目下的WEB-INFlib目录中去,将IKAnalyzer.cfg.xml,mydict.dic(搜狗的扩展词库),stopword.dic放在solr项目下的WEB-INFclasses目录中去。

    步骤3:

      将项目下solrhomemynodeconf下的managed-schema配置文件中</schema>上面加入如下配置信息:

    <fieldType name="text_ik" class="solr.TextField">  
            <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>  
        </fieldType>

    步骤4:

      启动Tomcat,打开solr项目主页进行测试。测试结果如下:

  • 相关阅读:
    GIL锁、进程池和线程池、同步和异步
    线程
    socket编程
    单例模式
    反射、自定义内置方法来定制类的功能、元类
    elasticSearch(一)--数据1
    docker学习整理(三)
    docker学习整理(二)
    docker学习整理(一)
    IDEA 配置mybatis生成代码
  • 原文地址:https://www.cnblogs.com/DASOU/p/5926621.html
Copyright © 2011-2022 走看看