DreamMaker777
DreamMaker777
@jun20061588 您好,我在CUDA version: 11.2CUDNN version: v8.2TensorRT version: v8.0.1.6下编译paddle_inference-avx_mkl_cuda11.2_cudnn8.2_avx_mkl-trt8.0.1.6的c++demo无法调用dll,但是同样的代码在cuda10.2正常运行,请问您编译的时候有什么注意事项吗?能否分享一下?
@kylecj77 我编译2.3版本的paddle_inference-avx_mkl_cuda11.2_cudnn8.2_avx_mkl-trt8.0.1.6也不行唉,cuda10.2就正常
我在paddle源文件 paddle/test/legacy_test/test_generate_proposals_v2_op.py 中找到了python的复现 generate_proposals_v2_in_python,请问两者的结果一样吗?只有速度上的区别吗?
@lyuwenyu 您好,python中的generate_proposals_v2_in_python速度过慢,nms阶段有个for循环,我用paddle.vision.ops.nms替换,但是相较_C_ops.generate_proposals_v2还是慢了不少;同时,替换之后会在RPN的bs_rois_num_collect = paddle.concat(bs_rois_num_collect)处报错ValueError: (InvalidArgument) The axis is expected to be in range of [0, 0), but got 0,print此处向量为bs rois num collect [Tensor(shape=[],dtype=int32, place=Place(cpu), stop_gradient=True, 1000)。请问_C_ops.generate_proposals_v2能否输出保留ROI对应所有输入的index?或者如何修改此函数,我没有找到相关接口。多谢!
接口改太多了,可以参照paddledetection的代码,在proposal_generator.py文件中将ops.generate_proposals相关的代码改为: if hasattr(paddle.vision.ops, "generate_proposals"): # print("in") generate_proposals = getattr(paddle.vision.ops, "generate_proposals") else: generate_proposals = ops.generate_proposals # generate_proposals = ops.generate_proposals # print("score:", scores.shape) rpn_rois, rpn_rois_prob, rpn_rois_num = generate_proposals( 目前paddle-gpu2.6.0可用,你可能还会遇到dim的问题,同样参照paddledetection对应部分修改。但是推理时,我遇到了ValueError: (InvalidArgument) multiclass_nms3(): argument...