lvjianjin
lvjianjin
作者服务端的实现方式是用bert-as-service+flask的搭建的,但是我用的过程中发现经常会报一些错误,可以采用这个方法,会稳定很多https://www.jianshu.com/p/383129b2bf7f
请问你们解决了吗?我的客户端依然没有返回东西,一直卡着不动
我也遇到这个问题了 ?请问你是怎么解决的
作者服务端的实现方式是用bert-as-service+flask的搭建的,但是我用的过程中发现经常会报一些错误,可以采用这个方法,会稳定很多https://www.jianshu.com/p/383129b2bf7f
我也遇到这个问题了,请问你解决了吗
阿哦 我好像懂了 原来的端口号写错了
> > https://www.jianshu.com/p/e0d9efaadb0f > > 只有识别部分,请问有文字检测部分的tensorflow-serving部署方案吗 https://www.jianshu.com/p/713ffa82b650可参考这一篇的检测部分
我目前是用uwsgi部署,设置内存限制,当达到内存限制后模型会重新加载。
这个内存泄漏不是web框架的问题,是ocr模型的问题。无论使用web.py flask,django都是会出现这个问题的,泄漏的地方出现在 ./text/keras_detect.py这个文件中,代码先加载了模型,每一次运行session中的内容并没有得到释放才生了内存的堆积。
你可以用docker部署成服务 每调用一次内存就会增加一些 并不会下降