Lin Manhui
Lin Manhui
论文中的精度是直接learn from scratch的~
你好! 1. 扩充数据集是一种常用的方法,我认为这在一定程度上可以提升训练出来的模型的泛化能力。 2. 这个repo只支持单机单卡训练~
@lsh1994 抱歉,我恐怕无法绕过出版商私自将pdf原文上传到这里。如果你对这篇论文感兴趣的话,请通过期刊获得~
具体是什么错误呢
看起来`model_best_p2vnet.pth`中的内容和`trainer.model`并不匹配,所以不能直接加载~建议把`trainer.model`的state dict的key也打印出来,对比看看
https://github.com/Bobholamovic/CDLab/blob/master/src/impl/builders/data_builders.py 可以在这个文件里修改数据集训练、验证时使用的数据增强、数据预处理策略~
以SVCD数据集为例,你可以把`build_svcd_train_dataset`的内容调整为: ``` configs = get_common_train_configs(C) configs.update(dict( transforms=(Compose(Choose( HorizontalFlip(), VerticalFlip(), Rotate('90'), Rotate('180'), Rotate('270'), Shift(), Identity()), Crop(256), ), Normalize(np.asarray(C['mu']), np.asarray(C['sigma'])), None), root=constants.IMDB_SVCD, sets=('real',) )) ``` 以上代码将输入随机裁剪为256x256大小,如果你希望裁剪为其它大小,可以将256修改为别的数字。
请确认修改的数据集和使用的数据集是否一致。此外,如果修改图像尺寸收益不大,建议可以考虑尝试更小的batch size。
> 另外,我在运行其他stanet代码时也遇到了这种方法,减小输入图片的尺寸到128*128之后即可顺利运行,不知您的代码是否有锁死输入大小的操作 调整输入的地方应该就在那里,具体为啥没有生效,可能需要debug一下~ batch size减小之后显存用量增加这一点确实有点儿奇怪,我也没有碰到过,建议可以断点调试看看各步骤资源用量是否符合预期
> Unresolved reference 这个我想大概是IDE的警告,应该和程序本身的正确性无关