Belye
Results
1
issues of
Belye
您好! 深度学习初学者 请问下您在训练的时候是不是说固定了预训练模型的参数,然后对其他层进行优化,就是这句Adam(filter(lambda p: p.requires_grad, self.net_bone.parameters()), lr=self.lr_bone, weight_decay=p['wd'])代码,还有网络中存在多个loss进行优化的时候,是不是将所有loss加起来再反向传播?