MichaelFan01
MichaelFan01
> 通过查找原因,初步锁定在modules/functions.py中的load函数中的name属性这个位置,接下来便不知如何处理。 这个你对照下pytorch版本吧,我估计就是你的机器syncbn编译不过去,不行你就换成正常bn, 不过可能有掉点
> > > 通过查找原因,初步锁定在modules/functions.py中的load函数中的name属性这个位置,接下来便不知如何处理。 > > > > > > 这个你对照下pytorch版本吧,我估计就是你的机器syncbn编译不过去,不行你就换成正常bn, 不过可能有掉点 > > 我也遇到了这个问题,不过考虑到可能是由于是用的Windows环境(本来打算3080单卡减batchsize跑跑看发现报错)之后打算换成ubuntu试试看,另外作者使用的v100是16g版本还是32g版本?我这边打算上两块3090但可能pytorch1.9,cuda11.x对分布训练又有别的要求 16g 32g都可以,我也记不清了,我们这儿有时候给32g的有时候给16g的;感觉速度差不多
> > > > > 通过查找原因,初步锁定在modules/functions.py中的load函数中的name属性这个位置,接下来便不知如何处理。 > > > > > > > > > > > > 这个你对照下pytorch版本吧,我估计就是你的机器syncbn编译不过去,不行你就换成正常bn, 不过可能有掉点 > > > > > > > > > 我也遇到了这个问题,不过考虑到可能是由于是用的Windows环境(本来打算3080单卡减batchsize跑跑看发现报错)之后打算换成ubuntu试试看,另外作者使用的v100是16g版本还是32g版本?我这边打算上两块3090但可能pytorch1.9,cuda11.x对分布训练又有别的要求...
> > > > > 通过查找原因,初步锁定在modules/functions.py中的load函数中的name属性这个位置,接下来便不知如何处理。 > > > > > > > > > > > > 这个你对照下pytorch版本吧,我估计就是你的机器syncbn编译不过去,不行你就换成正常bn, 不过可能有掉点 > > > > > > > > > 我也遇到了这个问题,不过考虑到可能是由于是用的Windows环境(本来打算3080单卡减batchsize跑跑看发现报错)之后打算换成ubuntu试试看,另外作者使用的v100是16g版本还是32g版本?我这边打算上两块3090但可能pytorch1.9,cuda11.x对分布训练又有别的要求...
> 在我电脑上测了下 1650 STDC1-Seg50 一张速度23.1ms STDC2-Seg50 28ms DDRNET 速度一张11.27ms > > (都是python下直接测的,我想转成tensorRT 降精度 时间缩短比例应该一样) > > 论文给出的MIOU STDC1低于 DDRNET 我觉得STDC整体表现是不如ddrnet-slim-23的 (我感觉不少人会想到看到直接的时间对比) 这么强么,回头有空我测一下,学习学习~
> > 您好, 您代码里的模型结构是和论文一样的吗?我看了好久对应不起来啊,现在还是理解不了您的网络结构究竟是什么样的。 > > 我只想知道网络的主干部分,对着图4来看,但是感觉您代码里对应部分的代码对照不起来啊。 > > 麻烦您能再简要介绍下您的模型结构吗? > > stdcnet.py中的两个bottleneck类对应stdc-architecture.png(作者最终用的是cat那个好像),两个stdcnet类是对应stdcseg-architecture.png是对应里左边的5个stage,model_stages.py里面的arm和ffm,bisenet等类就是context info的搭建,图中右边detail loss拉普拉斯卷积的guidance那些则是在loss文件夹下,train.py则是组装成完整的stdcseg-architecture.png 赞,解释的很到位~
> 您好,对您这个工作非常的感兴趣,但是对于这里面的randomscale有些疑问,对于cityscapes你paper写的是(0.125, 0.25, 0.375, 0.5, 0.625, 0.75, 0.875, 1.0, 1.125, 1.25, 1.375, 1.5),我想知道一下为什么会选择0.125,0.25.。。。。。0.625等着吗小的一些尺度?但是对于camVID的尺度就相对大一些,这个是有什么原因吗?因为一般cityscapes大家不会用这么小的尺度。 因为我这边输入小,为了保证cityscapes0.5scale模型的精度,所以对应的数据增强的尺度也做得比较小;camvid的话因为用的是原始分辨率,所以尺度就相对大一些
> 作者您好,根据对论文的理解,细节引导应该只在x8上,也就是源码中,只需要把use_boundary_8设置成True,其余都设置成False,我的理解正确吗?另外,在123个stage都做细节引导,在您的实验里会提升精度吗?还有其他设置需要注意的吗?非常期待作者能够给予回复! 是的,细节引导应该只在x8上, 只需要把use_boundary_8设置成True,其余都设置成False, 理解完全正确; 在123个stage都做细节引导,我实验的时候都是负向效果,设置权重也不行,估计是前两层比较浅的原因;其他设置应该没了,就是如果要提交test集合结果记得使用train + eval的数据训练~
V100训的,在1080Ti上测得速度,训练的话4张V100大概12个小时左右吧
> 你好,我下载了checkpoint,用STDC1-Seg/model_maxmIOU50.pth,backbone='STDCNet813', scale=0.5进行测试,在RTX2080上运行,跑完cityscapes数据val集的500张图大概需要57s,并未达到实时啊,不知道测试时还需要设置什么参数吗? 速度测试是单独的模块,因为测试与BiSeNet FasterSeg这些算法的做法一样,涉及trt加速而且只计算模型inference时间,读图和后处理都不涉及;测试速度的话可以看Latency这部分