AvaMins

Results 3 issues of AvaMins

环境: PaddleVideo版本:V2.2.2 paddle-serving-app:0.9.0 paddle-serving-client : 0.9.0 paddle-serving-server-gpu: 0.9.0.post1028 paddlepaddle-gpu : 2.4.2.post116 项目: 当前使用FootballAction进行模型训练,训练lstm使用train_lstm,导出使用train_lstm下的export_inference_model.py。最终,模型导出视图如下: ![58e3b151cc2076962b606412309a1c8](https://user-images.githubusercontent.com/35001756/231431816-fb90c2df-3104-45a5-a450-f35aadbd89a8.png) 使用paddle_serving_client.convert去将这个模型转换成paddle_serving_server要求的模型。模型信息如下: ![1a09895bddcac9918baeb3bbf56e93a](https://user-images.githubusercontent.com/35001756/231431916-69461878-bd21-4937-9c88-eeba6e9ee314.png) 在部署Pipeline后,预测报出的错误如下: ![853bd5f82adfa7755061bd5023c2962](https://user-images.githubusercontent.com/35001756/231431990-330c7430-7b86-42cb-805e-362ae2dda2ab.png) ![28a992cdab3c6885c05a12f25d0099a](https://user-images.githubusercontent.com/35001756/231432009-34003a82-9ce6-4951-9850-1c49f668c173.png)

BMN模型和AttentionLSTM模型是否有量化压缩和蒸馏的方案?训练完成的AttentionLSTM模型的模型参数和计算量如何计算?

1、BMN模型和AttentionLSTM模型是否有量化压缩和蒸馏的方案?训练完成的AttentionLSTM模型的模型参数和计算量如何计算? 2、模型使用自动压缩,参数文件大小没有变化,如何处理这种情况?