rknn-toolkit2
rknn-toolkit2 copied to clipboard
RKNN 1.5.2在win-transformer的FP16模型的精度有问题(提过的问题,官方没有回复过,但是我还要反馈)
环境:rk3588 rknntoolkit2-1.5.2 rknntoolkit2-lite-1.5.2 模型:swin_tiny_patch4_window7_224_22k.pth转onnx 问题:同样的代码,同样的onnx模型,转成rknn的fp16模型后,精度差别巨大
(1) onnx结果: net_output: [1, 5]的结果[-1.6988376 -2.7677383 -1.316478 -2.3525996 7.380125 ] class: daisy prob: 0.000114 class: dandelion prob: 3.91e-05 class: roses prob: 0.000167 class: sunflowers prob: 5.93e-05 class: tulips prob: 1.0
(2) rknn_FP16结果: net_output: [1, 5]的结果[ 2.1875 5.1953125 -4.6953125 -1.5605469 -1.5673828] class: daisy prob: 0.047 class: dandelion prob: 0.951 class: roses prob: 4.82e-05 class: sunflowers prob: 0.00111 class: tulips prob: 0.0011
不知道楼主解决了吗,用python可以,但是用c++结果就完全不一样了
可以试试1.6.0版本,C++我不熟悉,还有问题想你请教,一般numpy的操作,在C++怎样处理,比如np.argmax等?