HantingChen
HantingChen
> Tried renaming, same issue unforunately. > > ``` > File "C:\Pretrained-IPT-main\main.py", line 37, in > main() > File "C:\Pretrained-IPT-main\main.py", line 22, in main > loader = data.Data(args) > File...
你好,添加参数--num_queries 6 即可
> 第一阶段: Pre-training 第二阶段: Finetuning on the specific task > > 但在第一阶段时是要训练multi-heads,multi-tails; 训练时一个batch 只是随机选一种task 的pair 数据送入到model中,利用反向传播来更新相应的head,tail,和body;其中是不是需要设置,在训练A task时,其他 task 所对应的heads,tails是保持不变的(不会被更新的) > > 第二阶段:只保留相应的task的head 和tail,其他的heads和tails是直接丢弃的 > > 这个过程想确认一下 是的 > 在https://gitee.com/mindspore/models/tree/master/research/cv/IPT 提及了...
你好,这段话针对的是公式(1)在有原始数据下的情况。 在没有数据的情况下,也就是p(x)未知时我们采用随机向量z生成数据,见公式(5)。
> 而此处的teacher 是加载的 teacher-train.py 中保存的代码,请问是否需要先训练teacher ,然后再根据teacher 训练student 是的 > 对于这篇论文我的理解是 先创建一个大参数网络teacher,然后再定义一个小网络student,再利用一个生成器Generator,将随机数转换为图片格式, 经过teacher和student 两个网络不断拟合结果,让student和teacher的输出尽量一致.最终保存student作为压缩网络. 是的 > ``` > pred = outputs_T.data.max(1)[1] > loss_activation = -features_T.abs().mean() # 激活损失 > loss_one_hot = criterion(outputs_T,pred)...
> 谢谢您的回复 > 再者请问 为什么 说 DAFL无法在大数据集上使用,我是看的这篇文章 [地址](https://mp.weixin.qq.com/s/cEbhLEsupd_r65iuaC1gZA) DAFL在大数据集上生成图片耗时较长(因为数据太多)。
loss系数设置如下: --channels 3 --img_size 224 --batch_size 512 --lr_G 0.002 --lr_S 0.0001 --latent_dim 100 --oh 2 --ie 10 --a 0.1 超参数的设置可以通过grid search找到。
Thanks for your suggestion. The pretrained model will be uploaded.
> 您好,请问方便更新一下“Learning Student Networks in the Wild”论文的代码吗? 代码正在申请开源中
你好,没有的,教师网络是训练好的,学生网络从头开始训练