frsweety

Results 8 comments of frsweety

好,正想有一个这样的功能

这个分支在哪里可以下载

> > 这个分支在哪里可以下载 > > https://github.com/hamo/elasticsearch-analysis-ik/tree/ik_max_word_char 谢谢

> > > 这个分支在哪里可以下载 > > > > > > https://github.com/hamo/elasticsearch-analysis-ik/tree/ik_max_word_char > > 谢谢 大佬,请问您有没有编译好的7.10.1版本的提供下载,我是搞.NET的,不是很方便生成。如果您方便的话,可不可以提供一份7.10.1版本的给我

> > > > > 这个分支在哪里可以下载 > > > > > > > > > > > > https://github.com/hamo/elasticsearch-analysis-ik/tree/ik_max_word_char > > > > 谢谢 > > > > > >...

> 这个跟安装插件有关系? 现在所有节点都安装了插件 不管分到哪里 都不影响使用ik吧 怎么没关系,你节点一安装有插件,节点二没安装,肯定不正常。没错分片是es的问题,可插件es不会自动安装啊

爱情小狗 分词 -> 爱情 小狗 情小 分词 -> 情 小 所以情小是无法匹配爱情小狗的 解决方案:最简单最省事的是:把所有的汉子单字作为一个词典库,这样ik_max_word 分词后就变成: 爱情 爱 情 小狗 小 狗 输入情小后肯定能匹配到 缺点是:分词逻辑被打乱,需要对关键词的输入做处理才能拿去搜索 还有就是配置同义词: 爱,情 => 爱情 小,狗 => 小狗 这样也能实现,不过统计同义词这个工作量就比较繁杂