SmoothNLP icon indicating copy to clipboard operation
SmoothNLP copied to clipboard

专注于可解释的NLP技术 An NLP Toolset With A Focus on Explainable Inference

Results 21 SmoothNLP issues
Sort by recently updated
recently updated
newest added

![image](https://user-images.githubusercontent.com/41338088/101870858-68521680-3bbd-11eb-8095-48aaeea48d7f.png)

使用python3安装,部分样例能出结果,部分没有结果 1. 运行没有结果 ![image](https://user-images.githubusercontent.com/7587298/77382756-24637b00-6dbc-11ea-8e23-0f8538189fed.png) 2. 运行出错 ![image](https://user-images.githubusercontent.com/7587298/77382777-347b5a80-6dbc-11ea-83c0-cc1e21cfcbd7.png)

![image](https://user-images.githubusercontent.com/41338088/101472494-a4019c00-3983-11eb-9246-2344aebd959e.png)

Bumps [junit](https://github.com/junit-team/junit4) from 4.12 to 4.13.1. Release notes Sourced from junit's releases. JUnit 4.13.1 Please refer to the release notes for details. JUnit 4.13 Please refer to the release notes...

dependencies

您好,非常感谢您的工作 目前想对句子进行中英文混合分词,但句子太长会报错,如果固定长度分割后再分词,可能会破坏句子的连续性,这个问题有什么解决方法吗

计算pmi的时候,P('电影院')/(P('电')*P('影')*P('院')),为什么不是 P('电影院')/max(P('电影')*P('院'),P('电')*P('影院'))。后者的话可以不用最后处理首字和尾字的高频字符了

新词发现可以用来发现长词组吗?比如:生物医药板块、新冠疫苗板块

Error: Unable to access jarfile smoothnlp-0.2-exec.jar 不知道怎么解决

首先感谢smoothnlp。最近处理20G的word文档做专有名词挖掘,extract_domain_words()的时候有点慢,读了源码发现是单进程的,所改成多进程版本,速度提升很大。希望对smoothnlp有帮助