ceci3
ceci3
> 放弃了,你们说明示例没有几个能一次性跑通的吗,'demo/prune/train.py' ,真实要晕死,太累了用你们这个 > > > [Hint: 'cudaErrorNoKernelImageForDevice'. This indicates that there is no kernel image available that is suitable for the device. This can occur when a user specifiescode...
> > > 放弃了,你们说明示例没有几个能一次性跑通的吗,'demo/prune/train.py' ,真实要晕死,太累了用你们这个 > > > > [Hint: 'cudaErrorNoKernelImageForDevice'. This indicates that there is no kernel image available that is suitable for the device. This can occur when...
> @[yghstill](https://github.com/yghstill) 找到一个其他模型,量化后可以减小到1/3左右(Bit_8),但是使用netron可视化之后,发现量化后也没有fake_quant的标记。 转换代码如下: ` def quantize_pp_module(self, module_dir, out_module_dir, weight_bite=8): paddle.enable_static() print("_**************************************************") print("start quant optimize, weight_bite", weight_bite) print("start quant optimize, output_path =", out_module_dir) # 动态量化 model_filename = r"model.pdmodel" params_filename =...
https://github.com/PaddlePaddle/PaddleSlim/blob/cfec7b341f290762a5d1bf4589ad88128ac9c72a/paddleslim/auto_compression/create_compressed_program.py#L217 直接调用 recover_inference_program ,传入inference program就可以了
你好,可以截图多点报错信息嘛?这些看不出来具体的报错原因是什么
感谢反馈,我们更新下地址,静态图GAN我们已经不再维护了,新的GAN模型可以去 https://github.com/PaddlePaddle/PaddleGAN repo查看~
可以使用paddle2onnx把模型转成onnx,然后再用TRT部署 https://www.paddlepaddle.org.cn/documentation/docs/zh/guides/advanced/model_to_onnx_cn.html#id5
PruneQAT是哪个示例?SOLOV2暂时不支持压缩
请问下是使用的哪个示例?
可以试下FastDeploy的服务化部署,基于Triton Inference Server,集成FastDeploy Runtime(包括Paddle Inference、ONNX Runtime、TensorRT以及OpenVINO) https://github.com/PaddlePaddle/FastDeploy/blob/develop/serving/README_CN.md