十二
十二
这个问题我已经解决了。但是有一个问题,模型固化为pt后,在c++下调用输入图片的尺寸只能归一化到固化模型时使用的尺寸,否则就会报错。猜测固化模型时只保留了固化模型时的参数,超出范围就会报错。好奇的是pytorch为什么可以这么灵活接受不同尺寸的输入,或者固化模型时还有更好的方法可以跟ytorch保持一致?
看样子是你调用的位置或者传参不对。 下面这样可做参考 # 初始化网络 model = Pytorch_model(args.model_path, post_p_thre=args.thre, gpu_id=0) input = torch.rand(1, 3, 736, 736).cuda() # wmz save_depoly(model.model.eval(), input, "dbnet.pt") ------------------ 原始邮件 ------------------ 发件人: "WenmuZhou/DBNet.pytorch"
> Looks like a device compatibility issue, did you try it on a new device like 2080(sm75+)? refer to https://arnon.dk/matching-sm-architectures-arch-and-gencode-for-various-nvidia-cards/ appreciate for your reply. I have tried on device such...
同问,我做的是分割,也报错 FATAL ERROR: pool allocator destroyed too early,但是不影响最终输出,不知道原因出在哪里