TNN
TNN copied to clipboard
tnn::DefaultNetwork::InitLayers [File ..\..\source\tnn\core\default_network.cc][Line 319] Error Init layer LSTM_0 (err: 12288 or 0x3000)
基于TNN-0.3.0编出来的推理库和转换工具 模型转换正常 DeviceType = DEVICE_X86 推理的时候报错tnn::DefaultNetwork::InitLayers [File ....\source\tnn\core\default_network.cc][Line 319] Error Init layer LSTM_0 (err: 12288 or 0x3000) DeviceType = DEVICE_NAIVE 换成NAIVE之后报错信息为tnn::DefaultNetwork::Forward [File ....\source\tnn\core\default_network.cc][Line 585] Forward error code: 0x3000 msg: LSTM has invalid inputs, exit 很奇怪的是两个平台都报错,但是模型转换的时候status状态值正常返回0
inference.sim.zip 这个是报错的模型,希望可以得到帮助,谢谢啦
再补充一下,这个模型是paddleocr识别部分crnn转成onnx的,我发现tnn主页官方的demo模型是没有做sim的,并且转模型的时候也没有开-optimize选项,所以我把最原始的固定输入尺寸模型又尝试转了一下tnn
报错信息是这样的,因为paddle转onnx的时候,如果输入尺寸是动态的,那么动态的那个维度会默认用-1去表示,然而tnn转模型的时候好像不支持某个维度<=0,所以只能用静态的模型去转,转的时候就报这个错
inference.zip 这个是最原始没有做过任何简化的onnx固定输入大小的模型,用onnxruntime可以正常推理结果也正确