Dingkang Liang

Results 11 comments of Dingkang Liang

"how to actually 'remove' those stopped tokens in the inference stage to reduce inference time when batchsize>1?" I have the same question. Could the authors give some explanation?

应该是模型参数没有成功load

> 谢谢您的回复,但我调试时代码没有发生错误提示,而模型预测时出现问题 即便没有load模型,也不会报错,这个问题应该是你没有load预训练的模型

你好,这是正常现象,因为我算的loss是pixel层面的MSE loss,用的是sum,不是mean

Using the box centres as ground truth can be trained in our method, and it will not affect the training.

可参考其他数据集生成,最近较忙,预计下周补充prepare_nwp.py

这个可以不需要理会,本人用来调试超参数用的

你好,能否提供详细的截图

> 您好,翻看论文时发现,您在预处理数据的时候将每个图片分为了6个384*384的crop,但是在predataset的py文件里,您将这些crop和原本的图像保存在一个文件当中,后续进行训练。在这个基础上,猜测是否是这样导致了在训练阶段的tesnsor不一致 应该是的,你可以print看下输入到model中的image,必须是384 x 384才可以

Do you use the official code and load the pre-trained model from Imagenet?