AvaMins
AvaMins
环境: PaddleVideo版本:V2.2.2 paddle-serving-app:0.9.0 paddle-serving-client : 0.9.0 paddle-serving-server-gpu: 0.9.0.post1028 paddlepaddle-gpu : 2.4.2.post116 项目: 当前使用FootballAction进行模型训练,训练lstm使用train_lstm,导出使用train_lstm下的export_inference_model.py。最终,模型导出视图如下:  使用paddle_serving_client.convert去将这个模型转换成paddle_serving_server要求的模型。模型信息如下:  在部署Pipeline后,预测报出的错误如下:  
BMN模型和AttentionLSTM模型是否有量化压缩和蒸馏的方案?训练完成的AttentionLSTM模型的模型参数和计算量如何计算?
1、BMN模型和AttentionLSTM模型是否有量化压缩和蒸馏的方案?训练完成的AttentionLSTM模型的模型参数和计算量如何计算? 2、模型使用自动压缩,参数文件大小没有变化,如何处理这种情况?