FitzShen666
FitzShen666
使用paddle2onnx对Attention_LSTM模型进行转换,发现部分算子不支持: There's 3 ops are not supported yet =========== sequence_softmax =========== =========== lstm =========== =========== sequence_pool =========== 请问是否会对这些算子提供转换支持?
在使用pip install ncnnqat的时候会产生如下报错: File "setup.py", line 3, in from torch.utils.cpp_extension import BuildExtension, CUDAExtension ModuleNotFoundError: No module named 'torch' 但log上的显示的python地址和版本里面确有安装torch 若直接对该版本进行编译,则会出现下述问题: make[1]: Entering directory '/root/ncnnqat' NVCC src/fake_quantize.cu nvcc -std=c++14 -ccbin=g++ -Xcompiler...