liam_sun
liam_sun
unsigned int8量化。很多模型用Int8量化后精度损失很大,用Uint8会好很多。
我遇到类似问题,请问如何对转换后的tmlite模型进行可视化呢?
似乎模型要.tmfile结尾才能用netron可视化打开
[test.zip](https://github.com/Tencent/TNN/files/8975378/test.zip)
请参考模型,这是一个int8 QAT的tflite模型
我持续测试了一些模型,看起来有些模型转tnn会失败。测试情况如下: 1. yolo_v3_tiny_darknet_fp32.tflite 失败 2. ssd_mobilenet_v1_int8.tflite 失败 3. ssd_mobilenet_v1_u8.tflite成功 (这个应该是非对称量化,和你说的只支持对称量化似乎矛盾) 4. ssd_mobilenet_v1_fp32.tflite 成功 个别模型较大无法上传,可以到: https://github.com/ARM-software/ML-zoo/tree/master/models/object_detection 进行下载
再补充一个无法转tnn格式的tflite模型。此模型PC上可以正确推理。 [test.zip](https://github.com/Tencent/TNN/files/9118307/test.zip)
Hi, did you finally find out the mpii_annotations.json?
I get it. Big thanks.
Thanks for your suggestion. Will try it out.