jackcheng
jackcheng
uie_predictor.py 中 下面这段修改成 self._tokenizer = AutoTokenizer.from_pretrained( "ernie-3.0-base-zh")
> 方便提供一下您的测试数据和使用代码吗? 我上传一个文档,信息都在里面,辛苦你给看下,如果是flash这样部署有问题,辛苦给个别的式。[](url) [paddleUIE问题.zip](https://github.com/PaddlePaddle/PaddleNLP/files/9943286/paddleUIE.zip)
这个问题能解决一下吗?感觉像是用了flash之后的问题,有没有别的部署方式,可以让uie变成服务?想稍微正式点用都没办法,咱paddlenlp应该是想让大众都能用起来,而不是让人玩玩而已吧
我在一台gpu服务器上部署同样的代码,只能执行一次,第二次请求就卡住了。不一定要使用我提供的模型可以用paddlenlp自己的模型。。没法用呀,急等。。 > 方便提供一下您的测试数据和使用代码吗? 我在一台gpu服务器上部署同样的代码,只能执行一次,第二次请求就卡住了。不一定要使用我提供的模型可以用paddlenlp自己的模型。。没法用呀,急等。。
and use code to fix: try: chat_data = json.loads(resp.content.splitlines()[3])[0][2] except: chat_data=""
how to resolve it?