Results 14 comments of Magese

> 请问分词结果怎么过滤单个字符呢?如果源词就只有一个字符那么就直接返回源词,如果原来的词是多个字符例如 “我是中国人”, 那么分词结果只保留 “我是中国人”, “我是”,“中国人”, “中国”,不再要“人” 这个需求可以使用solr自带的 `Length Filter` 过滤器来实现。 示例如下: ```xml ``` | 参数名 | 参数值 | 描述 | | :------: | :------: | :------: | | min...

> 能不能通过配置来实现禁止使用原始词库的需求? 8.3.0版本中新增了该功能, 在`IKAnalyzer.cfg.xml`配置文件中配置`use_main_dict`为`false`即可禁用原始词库。

> 含有中文括号的词,不能被识别吗?分词的时候分不出来带中文括号的 是可以识别的哦。

8.7.0实测扩展字典和停用词是有效果的,注意一下如果配置的不是动态词典,需要重启Solr后才会起效。

最近有点忙,有空就更 😢

建议使用新版本的jar包,老版本的可能会有一些问题。 如果想把Lucene版本降级到与solr对应版本,可以fork项目后修改`pom.xml`中的Lucene版本,重新package一遍使用即可。

> support solr8 done

> 这个dynamicdic文件和ik.conf文件是放在我创建的集合下面的conf里面么,直接放在jar包里应该不行吧 readme中有详细说明了。 单机版的放在中间件里的`WEB-INF/classes`下,cloud版同conf下其它配置文件一齐上传至zk中。

> 运行IKAnalzyerDemo中的main方法时, 我在stopword.dic中配置了"这是一个中文", 但是分出来词条依旧是 > 0 - 4 : 这是一个 | CN_WORD > 4 - 8 : 中文分词 | CN_WORD > 8 - 9 : 的 | CN_WORD > 9...

> solr 8.7启动报错: Caused by: java.lang.ClassNotFoundException: org.apache.lucene.analysis.util.ResourceLoaderAware > > 怎么破? emm,我今天用8.7.0测试使用没有问题哦😓。