safehumeng
safehumeng
楼上那位用cpu跑的,也是6了
我make之后生成的是helpers.cpython-36m-x86_64-linux-gnu.so,还是找不到,cp helpers.cpython-36m-x86_64-linux-gnu.so helpers.so之后能找到了
> > 我make之后生成的是helpers.cpython-36m-x86_64-linux-gnu.so,还是找不到,cp helpers.cpython-36m-x86_64-linux-gnu.so helpers.so之后能找到了 > > 出现这个情况,一般原因是 python-config 的版本,与使用的python 版本不一致导致的。您可以check一下版本 好的,谢谢啦
@blacklong617 @cherryxiongyw checkpoint_exclude_scopes=ssd_300_vgg/conv6,ssd_300_vgg/conv7,ssd_300_vgg/block8,ssd_300_vgg/block9,ssd_300_vgg/block10,ssd_300_vgg/block11,ssd_300_vgg/block4_box,ssd_300_vgg/block7_box,ssd_300_vgg/block8_box,ssd_300_vgg/block9_box,ssd_300_vgg/block10_box,ssd_300_vgg/block11_box --trainable_scopes=ssd_300_vgg/conv6,ssd_300_vgg/conv7,ssd_300_vgg/block8,ssd_300_vgg/block9,ssd_300_vgg/block10,ssd_300_vgg/block11,ssd_300_vgg/block4_box,ssd_300_vgg/block7_box,ssd_300_vgg/block8_box,ssd_300_vgg/block9_box,ssd_300_vgg/block10_box,ssd_300_vgg/block11_box
能否提供一下tenorRT的配置样例,现在全靠猜测呢
> > 能否提供一下tenorRT的配置样例,现在全靠猜测呢 > > 可以参考下这个:https://github.com/yang9112/paddle-serving-experience 我基于 pipline 模式弄的,paddle 不支持原生 TRT 模型的部署,只支持 paddle inference 模型在运行的过程中转。 感谢感谢,我也发现了只支持 paddle inference 模型在运行的过程中转,所以想看看有没有直接使用TRT模型的方式
  测试也用不了
java.lang.UnsatisfiedLinkError: dlopen failed: library "libNative.so" not found the same error
使用测试脚本部署成服务,每调用一次增加显存,几次之后就回出现oom
> > 使用测试脚本部署成服务,每调用一次增加显存,几次之后就回出现oom > > 请问用的是flagai哪个版本? 方便看下服务代码么 @ftgreat 直接在根目录下跑的,然后分支用的这个 * master 0634ab4 Merge pull request #341 from Anhforth/master 服务代码: import asyncio import websockets import json import numpy as np import...