ltp
ltp copied to clipboard
Language Technology Platform
调了一下,能报一万个错
求解!!!!
请问有方法能解除分词分句的字数或词数的限制吗?
When using the LTP/legacy model, if the input text is empty, it will cause rust to report an error and exit. During batch data processing, empty or abnormal content will...
最近在使用LTP的模型时,发现在单核CPU上对比spacy性能有点不太好,想问下你们,LTP的模型我分析了下tiny的,发现:electra-transformer层的编码层有12层,你们有做过消融实验,例如只有2层效果会咋样呢?或者官方有没有论文或者文档说明呢
你好,我想请问下,LTP的tiny模型在CPU上测试时怎么控制只用单核,而不是默认启用多核,是否有参数可控?
Dear ALL: 请问你们在github主页公布的模型性能指标, 分词 | 词性 | 命名实体 | 语义角色 | 依存句法 | 语义依存等,下面只给了个数字,我想知道这个指标是在哪个数据集上测试的,指标是F1还是?
Dear All: 最近在做这个相关任务,在加载Legacy模型后,发现是三个模型,深度学习的模型可以通过torch来加载查看,那么Legacy模型怎么产看呢?只是想后期重训练,按照你们的格式打包
如何部署到docker中?
用的base模型 query = "久爱 貔貅宝宝转运珠3D硬金本命年国潮时尚 足金 定价金 黄金手串 女款" output = ltp.pipeline([query], tasks=["cws"]) print(output.cws) 输出: [['久', '爱 ', '貔貅', '宝宝', '转运珠', '3D', '硬金', '本命年', '国潮', '时尚 ', '足金 ', '定价',...