zhenhao Shang
zhenhao Shang
用paddleslim的ACT自动压缩工具对yolov7进行压缩之后,得到的模型虽然保存的参数是int8的范围,但是类型是float,也就是压缩前后的onnx文件体积没变,然后要把这个onnx模型部署在昇腾的开发板Atlas 500上。我的操作如下: 首先把onnx模型转化为昇腾支持的om模型,转化命令为: atc --framework=5 --model=./model/yolov7.onnx --input_shape="images:1,3,640,640" \ --output=./model/yolov7 --compression_optimize=./scripts/compression_opt.config --soc_version=Ascend310 \ --log=info --insert_op_conf=./scripts/aipp.cfg 这里的compression_optimize参数是相当于加了一个后训练量化PTQ,把float的参数转为int8,之后按照昇腾官方例子程序,链接如下: https://gitee.com/ascend/samples/tree/master/inference/modelInference/sampleYOLOV7 按照链接中的内容执行推理,输出的图片上一个预测框都没有。 按照相同的方法把未量化的onnx模型部署在Atlas 500上,可以正常输出,该onnx转om模型的命令为: atc --framework=5 --model=./model/yolov7.onnx --input_shape="images:1,3,640,640" \ --output=./model/yolov7 --soc_version=Ascend310 \ --log=info --insert_op_conf=./scripts/aipp.cfg 如果把未量化的onnx模型(大小和量化后一样)加上PTQ转化一下,命令如下(与第一个相同):...
There are three versions here, corresponding to mamba2.py, mamba2_simple.py, and ssd_minimal.py. The first two versions require the mamba_ssm library. What are the differences between them? Does this mean that the...