lnmdlong
Results
3
comments of
lnmdlong
https://github.com/microsoft/onnxruntime/issues/10166 修复onnxruntime.InferenceSession hang住的问题
是否方便提供一下模型,目前TNN OpenCL对image_size大于设备限制的场景,会改用clBuffer计算
> 不好意思,模型是内部的,没办法提供。我想了解一下以下问题: 1.我需要做什么额外操作吗?还是代码自动会用buffer计算? 2.是整个模型用buffer还是超出size的那几层用buffer? 感谢您的回复 发自我的iPhone > […](#) 1. 不需要做额外的操作,代码会自动用buffer 2. 超出size限制的那几层使用buffer,其他的层不会受影响 目前不是所有的算子都支持buffer,所以需要具体看下是哪个op