sungh66
sungh66
大佬们解决了吗,我也遇到了这个问题
I have the same problem
我也是这个问题,PAM模型反而没有BASE好 ------------------ 原始邮件 ------------------ 发件人: "justchenhao/STANet" ***@***.***>; 发送时间: 2021年3月31日(星期三) 晚上6:22 ***@***.***>; ***@***.******@***.***>; 主题: Re: [justchenhao/STANet] 请问您的gpu是多大的,总是会爆下面的错误 (#50) 但是精度会下降,我下来精度还不如base — You are receiving this because you commented. Reply to this email directly, view it on...
> > > 我后来batch改成4,可以姿训练了,按照ds=1,效果就好很多了 > > > > > > 你达到了论文精度了吗? > > 只有0.739,你呢 大家可以crop_size和load_size都改成128,或者对图片切割数据增强,ds=1,batchasize=8,基本能复现论文精度,大概BAM到0.84,PAM到0.85
我是先离线裁剪256x256(overlap=0),然后在线随机裁剪128,不然会爆显存 ------------------ 原始邮件 ------------------ 发件人: "justchenhao/STANet" ***@***.***>; 发送时间: 2021年4月23日(星期五) 下午4:21 ***@***.***>; ***@***.******@***.***>; 主题: Re: [justchenhao/STANet] 请问您的gpu是多大的,总是会爆下面的错误 (#50) 我后来batch改成4,可以姿训练了,按照ds=1,效果就好很多了 你达到了论文精度了吗? 只有0.739,你呢 大家可以crop_size和load_size都改成128,或者对图片切割数据增强,ds=1,batchasize=8,基本能复现论文精度,大概BAM到0.84,PAM到0.85 你是训练前把图片事先裁成128吗?还是按官网在程序中随机裁剪固定大小128? — You are receiving this because you commented. Reply to this email...
> 请问loss.py里面label是1和-1,而不是论文里提到的1,0,这是为什么呢 对于loss的计算是一样的,代码中如果no-change就只剩loss1,如果change就只剩loss2,平衡正负样本比例,和论文中起到同样的效果
When i exported onnx model, onnx cannot surpport adaptive_avg_pool2d.How can i fix the problem?
> The segmentation head expects big images (from datasets like Cityscapes). Check the LRASPP implementation in the paper. I was able to fix this by using AdaptiveAvgPooling instead of AvgPool...
> 看起来像是使用了自定义的内存分配器,然后在推理的时候把它给销毁了 是像这回事,但是我并没有改src中的内容,也没自定义过内存分配器
> `FATAL ERROR: pool allocator destroyed too early` 这个已经在最新版本里修好了 hi,我下的是最新版本,在测试yolov5l->torchscript->pnnx->ncnn也碰到了这个问题,5s的模型我测试通过了,但5l会报错,我只修改了yolov5_pnnx.cpp中的非法读取名字报错,其他没有改动。 0x指针 still in use