Odimmsun

Results 3 comments of Odimmsun

> > 两种代码,都没有重复加载kenlm模型,qps在9左右。每秒可以运行9条,不慢。 > > ``` > > for s in sents: > > corrected_sent, detail = correction_model.correct(s) > > print(corrected_sent, detail ) > > ``` > > 估计 @Odimmsun...

> update, see https://github.com/shibing624/pycorrector/blob/master/examples/flask_server_demo.py @shibing624 感谢回复,flask部署的代码,复制到自己电脑上( 16G, i5-10210U CPU @ 1.60GHz 2.11 GHz)测试过一次,postman调用的话,macbert的时延很正常,但如果用rule_correct的话延迟就是2s多。 ![image](https://user-images.githubusercontent.com/32326519/195752286-5ec0663e-744f-4121-8c6a-f57add19afc9.png)

> 第一章1.4.2,第2小节 “Top-P采样”下,举的图1.9(b)的例子,原文是: “例如在图1.9(b) 所示的例子中,我们若以 0.9 作为阈值,则就可以包含打架、睡觉等长颈鹿脖子鲜为人知的用途。” 这里的0.9是否应为0.1,看图上取的最小值是0.1? 不是的,top-p的意思是每个token累加的概率和为0.9,具体看书中这个公式: ![image](https://github.com/user-attachments/assets/7c7a956a-8523-477d-8413-2c474c4b7737)