Lingjie Yi

Results 6 comments of Lingjie Yi

> 感谢大大回复!我之前从论文里的链接下载代码,训练1000 epoch之后得到的数据如上。昨天在本链接重新下载代码,到目前训练了430 epoch得到的ACC是0.7497(另外之前config文件里的weight_decay设置为了0.001,这次则没有改动为0. ),另外想问问大大,如果训练到一半断开了,是否可以接着训练?(实验室网不稳定老是断55 朋友,请问一下你的两次实验之间修改了什么让acc提升了,为什么我重复了好几遍都是你第一次跑的那个结果?

> I think it's weird, too. I think there is something wrong with my code. Did you only run seed=5? I got 85.24 by setting seed=1 and total_epoch = 512...

> 您好,image_size改动为32的话需要调整backbone的结构,默认的ResNet18/34接受的是224*224的图片,具体改动可以参照SCAN (https://github.com/wvangansbeke/Unsupervised-Classification/blob/master/models/resnet_cifar.py) 相应的您也需要重新训练网络。 感谢你的回复。 我调整了resnet的第一层conv1的kernel_size=3并且设置image_size=32(普遍的resnet_cifar10的设置)跑了1000个epoch,结果是: NMI ACC ARI F 0.570381 0.611817 0.429496 0.486613

> 我记得当时用32x32的效果比224x224的还要稍好一些,试试参照SCAN设置优化器学习率呢? 感谢你的耐心回复,我已经复现相似的结果了! 我还有两个问题: 1. 作者有比较过不同的batch_size对结果的影响吗,因为做column contrast的时候,cluster representation的维度是batch_size决定的,不像row contrast维度是由network的最后一次决定的。 2. 请问一下table 4,ICH Only是指用SimCLR pretrain整个模型,然后对所有的点计算z,然后对所有的z一次性做offline K-means吗?

> 1.不同batch size会有影响,不过我都用的256、512之类的,没测试过特别的情况,而且也没有针对性地调过学习率,所以没法给出具体的结论; 2.是的。 好的我自己跑跑看。然后我看其他问题里有提过multi-gpu的运算问题,要相应的修改contrastive loss对吧?

> multi-gpu的loss可以参照期刊扩展的代码 感谢所有的回复,这篇文章的疑问都解答完了。Twin那一篇有几个问题,我去那边提问了。