gmayday1997
gmayday1997
Hi, have you found the reason about it?
@Amelia0911 hi, thanks for your interest in our work. full source code and pre-train model will be updated before 15.Nov.
• t0和t1是同一场景不同时刻的图像对(a pair of images/image-pair),其作为原始输入喂到孪生卷积神经网络中。具体是下图中圈的部分 
事实上,我们在文章的4.2.3提到过cdnet的数据组织方式  我们是从input里面选出一张最最接近背景的图片(无任何前景)作为t0,其余的作为t1. 这样做的好处是groundtruth不用做任何处理,可以直接作为change mask使用。 建议你去看看PCD数据集,那个结构比较清晰。 http://www.vision.is.tohoku.ac.jp/us/research/4d_city_modeling/pano_cd_dataset/
抱歉,最近有个紧急的事耽搁了,这个事情要19号完成。不好意思。
> > 事实上,我们在文章的4.2.3提到过cdnet的数据组织方式 > >  > > 我们是从input里面选出一张最最接近背景的图片(无任何前景)作为t0,其余的作为t1. > > 这样做的好处是groundtruth不用做任何处理,可以直接作为change mask使用。 > > 建议你去看看PCD数据集,那个结构比较清晰。 http://www.vision.is.tohoku.ac.jp/us/research/4d_city_modeling/pano_cd_dataset/ > > 请问groundtruth输入是3通道还是1通道? hi, 我们已经把cd2014的数据集分享到百度云,又需要请下载 https://pan.baidu.com/s/19ReVH6pmizcU79sk2Rsz5w。
> 你好,我之前用date2014里的数据进行训练和测试效果都挺好的,但是我现在的输入图像尺寸是413*134,结果验证保存的图像显示fc与embedding都没有输出了。这是为什么呢?我试着修改了网络中conv3中的stride值,将值变为1,也是没有效果。我应该如何调整训练参数呢? 应该不是分辨率的问题,可能是你数据量少吧。如果是的话,做 data augmentation. 如果不是,看loss下降情况,先调整初始学习率。
如果我没理解错的话,只有conv5有输出,最后两个没有输出内容。最开始浅层特征有多层监督信息,深层收敛慢于浅层,所以conv5最容易收敛。但深层特征经过几个epoch也会收敛。 你观察一下,深层的loss是不是一直不降? 试一试调整不同层loss的权重,看有没有效果。
看loss问题应该出现在fc层上,loss下降的很慢,权重设置多少要试,我也不是很确定。