xhwNobody
xhwNobody
好的,稍后我上传。知乎麻烦支持一下,谢谢。
> 我用yolov5 3.0的代码中的expert.py好像并不能转成onnx,会出现错误 麻烦把你的错误贴出来呢
>  感谢您的回答,我把训练出来的网络直接转到v3.1的工程下,执行export.py,就出现了这个错误,出现在experimental.py中,请问应该怎么解决呢(我训练是采用的原来读取yolov5l.yaml的方法) 我看这个报错只是简单的加载模型出错问题呀
> > >  感谢您的回答,我把训练出来的网络直接转到v3.1的工程下,执行export.py,就出现了这个错误,出现在experimental.py中,请问应该怎么解决呢(我训练是采用的原来读取yolov5l.yaml的方法) > > > > > > 我看这个报错只是简单的加载模型出错问题呀 > > 感谢您的再次回答, 但是我换用工程自带的yolov5s的模型就可以转换成功,3.0和3.1的代码都有试过,请问您有没有试过将pt转成onnx呢,是怎么转的呢 > > 我感觉可能是export.py中attempt_load用的是models里面的,但是您的模型构建是用的model.py里面的,我刚尝试了import model之后,它的报错就变成了 'Model' object has no attribute 'fuse' > > 在我尝试把.fuse()给删掉之后,出现了新的报错,还是找不到model ...
> 您好,在知乎看到您的文章过来的,目前想将该方法应用到自己的模型中,您的文章对我很有帮助 您好,利用训练好的模型在测试集上计算mAP,我参照的是 https://blog.csdn.net/tpz789/article/details/110675268
> 您的代码在train_prune_sfp中的m.init_mask(0.7, 3, 202, True)这一行设定了剪枝最深到202层,202之后的模型neck部分不进行剪枝,但是在get_small_model.py中small_model构建的时候neck却要剪枝:self.neck_self = neck(prune_rate),这样模型维度不一致导致执行small_model.load_state_dict(small_state_dict)这一行时报错 请问这是在运行哪个代码报的错?
> File "D:\Anaconda3\envs\y55\lib\site-packages\torch\serialization.py", line 851, in _load > result = unpickler.load() > ModuleNotFoundError: No module named 'small_model_mod' 运行哪个文件报的错?
> 博主 是不是按照你知乎上写的,将model.py small_model_mod.py中改网络参数结构改成自己所想剪枝的网络,然后配置好train.py,然后data/xxx.yaml 配置好,就可以了。getsmall.py是获取剪枝后的模型还是 train训练完之后保存的best.py就是剪枝后的模型呢。 不是哈,这里已经将yolov5官网的xxx.yaml配置文件构建模型的方式换了,getsmall.py是将模型权重进行去0修剪
> 作者你好,很感谢你开源代码,感谢,我有几个问题想请教一下: > 1、您给出的模型是基于yolov5l训练的吧,可是为什么我剪枝后的模型要比我剪枝前的模型还要大呢?(剪枝前356.45M,剪枝后362.25M) > 2、推理的时候可以用官方的detect.py来进行推理的吧 1.检查是不是剪支后的模型包含了网络结构 2.可以的
> 是啊,过期了 重新发了