HanAccount
HanAccount
在数据集SUN上甚至出现了nan 没有做任何改动 我打印了数据发现对比loss出现nan 通过netG生成的fake也出现了nan 导致不能正常训练 `python CE_GZSL.py --dataset SUN --nepoch 300 --lr 5e-5 ` 参数使用的是你在issue里提供的
在FLO数据集上仅仅只得到H=0.676的结果,和论文里相差太大 使用的关键参数如下 `epoch=300, syn_num=600, batch_size=64, nhF=1024, lr=1e-4 ins_weight=0.01, cls_weight=0.01 `
SUN数据集是这样的参数跑的 `--epoch 300 --syn_num 100 --batch_size 64 --attSize 102 --embedSize 2048 --outzSize 512 --nhF 1024 --ins_weight 0.01 --cls_weight 0.01 --ins_temp 0.1 --lr 5e-5 --lr_decay_epoch 100` 但是出现了nan 我打印了对比损失出现了nan 打印了由netG生成的fake也出现了nan
FLO数据集参数: `epoch=300 syn_num=600 batch_size=64 attSize=nz=102 embedSize=2048 outzSize=512 nhF=1024 ins_weight=0.01 cls_weight=0.01 lr=1e-4 lr_decay_epoch=100`
使用该链接的参数https://github.com/Hanzy1996/CE-GZSL/issues/2#issuecomment-874472906 在AwA上运行了130epoch只达到了68.3,并且在第3个epoc达到了最高,并没有到达论文给出的70.0 在FLO上运行了730epoch只达到了67.4,并且在第670个epoch达到了最高,这和论文的73.5相差太大了 在SUN上还是出现了nan 在CUB上使用sent达到了论文的结果
能提供你训练时用的batchsize吗 SUN数据集我换了128后已经可以正常运行了 其他的数据集我都是在batchsize为64的基础上运行的
好的麻烦你了,我现在尝试使用论文里参数分析所给的最好参数进行实验
> > 您好!请参考上条回复。 > > 您好,我在跑SUN数据集时也遇到了NAN的情况,别的数据集上不存在这个问题,想请教您为什么SUN如此特殊呢,是模型本身的问题(比如说WGAN不稳定)还是SUN数据集有脏数据呢? 可能是batch_size太小了 我之前使用batch_size=64时出现了nan ,加大了batch_size后可以正常运行
我使用batch_size=128时跑到了40.6还是没有原文高 我正在尝试使用论文里提供的最好参数`batch_size=1024` 请问下你在其他数据集上跑到了论文给出的结果吗
能麻烦你提供下分别使用的参数或者运行的脚本命令吗 我只有在CUB上跑到了论文的结果,其他的都没有达到