segformer-pytorch icon indicating copy to clipboard operation
segformer-pytorch copied to clipboard

这是一个segformer-pytorch的源码,可以用于训练自己的模型。

Results 38 segformer-pytorch issues
Sort by recently updated
recently updated
newest added

调用torch.jit.script(self.net).save("model.pt"),程序一直报错TypeError: cannot create weak reference to 'numpy.ufunc' object 调用toch.jit.trace(self.net,torch.rand(1,3,256,320)).save("model.pt")可以正常导出模型,但是测试结果和原来的模型(self.net)不一致 ![捕获](https://user-images.githubusercontent.com/48863486/220063748-de9235a4-f8b6-4e06-8d3a-0f188bd3ac03.PNG) 左边是直接预测的,右边是用toch.jit.trace(self.net,torch.rand(1,3,256,320)).save("model.pt")导出的模型预测的

如题,我训练官方voc数据集是正常的,但是使用自己的数据集训练,loss会减小至负值。 交叉熵损失我的理解是不可能有负值,请问Up主能不能提供一些解决思路?非常感谢。

博主您好,我这边用了您的segmentation代码,测试了一些图片是有效果的,但是验证集的F1得分是不断下降的,请问这是什么原因呢? ![image](https://user-images.githubusercontent.com/31641903/183323568-4f8bad5f-0b77-4644-ae92-027fa1a747cf.png)

泡泡哥,SegFormer类的init方法里,对于b0到b5使用了不同的embedding_dim。这里的embedding_dim使用不同输出维度的依据是什么?如果使用别的backbone的话embedding_dim该如何选取呢?有什么说法吗?

Fail To Load Key: ['backbone.patch_embed1.proj.weight', 'backbone.patch_embed1.proj.bias', 'backbone.patch_embed1.norm.weight', 'backbone.patch_embed1.norm.bias', 'backbone.block1.0.norm1.weight', 'backbone.block1.0.norm1.bias', 'backbone.block1.0.attn.q.weight', 'backbone.block1.0.attn.q.bias', 'backbone.block1.0.attn.sr.weight', 'backbone.block1.0.attn.sr.bias', 'backbone.block1.0.attn.norm.weight', 'backbone.block1.0.attn.norm.bias', 'backbone.block1.0.attn.kv.weight', 'backbone.block1.0.attn.kv.bias', 'backbo …… Fail To Load Key num: 178

CUDA out of memory. Tried to allocate 320.00 MiB. GPU 0 has a total capacity of 8.00 GiB of which 0 bytes is free. Of the allocated memory 6.84 GiB...

我的数据集是3000张单标签的,只针对单类的数据,即numclasses=2 。 效果惨不忍睹,和大佬复现的那个deeplabv3+模型,miou差了10-20,相同数据集,相同参数下,deeplabv3+ ,我训练出来的的miou可以到99.5,背景的iou是99.9,标签的iou是99。但是这个segformer我测试了b0 和b2 ,b2稳定下来是miou 是90.9,背景是iou是98.85,标签iou只有84.0。看了mask的叠加图,都错位了。然后又测了b0,好家伙,miou到80多就升不上去了。@bubbliiiing 哥 能不能稍微解惑一下。我前几天也测试了 https://github.com/OpenGVLab/InternImage 这里面的 InternImage+Mask2Former ,使用的是dcn,现在dcn v4 也出来了,大佬有没有兴趣搭建一下。 ![image](https://github.com/bubbliiiing/segformer-pytorch/assets/29767049/83c119fd-1b2a-4103-8241-6f1a03bc8c81) ![image](https://github.com/bubbliiiing/segformer-pytorch/assets/29767049/95620cc6-7b85-4ea6-aebb-2f301415cf9c)

最近尝试在博主的segformer和mmseg中的segformer都进行相同任务训练,发现mm中的性能要高几个点,我仔细对照了mm中的参数文件跟博主定义的是完全一样的,是数据增强的问题还是指标定义的不同会导致该问题呢

![图片](https://github.com/user-attachments/assets/743acca5-28d3-42ed-ba23-c2464e0448d6)