chenjian
chenjian
估计是用到了该硬件不支持的指令
启动容器的时候指定--shm-size 把共享内存之类的设置大点呢
是不是因为导出的模型比较新,FD还不支持
报错栈提示的具体错误是什么呢
大概率是这个onnx模型还不被FD支持
已收到需求反馈,目前人力比较紧张,后续会按优先级规划
目前前端支持的只有onnx和paddle的模型格式
这个错误提示表明,在使用TensorRT时,有些输入的动态形状(dynamic shape)没有被正确设置。TensorRT支持动态形状输入,这意味着在推理时,输入数据的大小可以是可变的。但是,在使用这个功能时,你需要明确指定哪些输入是动态形状的,并给出它们的最大、最小和最优形状。 要解决这个问题,你可以按照以下步骤操作: 检查模型输入:首先,检查你的模型输入,确定哪些输入需要设置为动态形状。 设置动态形状:对于需要动态形状的输入,使用TensorRT的API来设置它们的最大、最小和最优形状。这通常在构建TensorRT引擎时进行。 更新代码:确保你的代码中正确地设置了这些动态形状参数。 验证和测试:在修改后,验证模型是否能够正确运行,并进行一些测试以确保性能得到提升且没有引入错误。
会不会是模型效果导致没有检测出来