yangqian-qian

Results 3 comments of yangqian-qian

Hello, I didn't expect someone to reply me. Thank you very much. Your method is really useful ------------------ 原始邮件 ------------------ 发件人: "amineHorseman/facial-expression-recognition-using-cnn"

I didn't just change one code, but also changed several codes. I can give you my modified code, hope it will help you ------------------ 原始邮件 ------------------ 发件人: "amineHorseman/facial-expression-recognition-using-cnn"

嗯嗯,我明白了,非常感谢您的及时回复,祝您生活愉快! ------------------ 原始邮件 ------------------ 发件人: "kaiwang960112/Self-Cure-Network" ***@***.***>; 发送时间: 2021年7月2日(星期五) 晚上9:21 ***@***.***>; ***@***.******@***.***>; 主题: Re: [kaiwang960112/Self-Cure-Network] 有关loss函数以及预训练模型的问题 (#54) 可以直接torch load加载,具体可以看region attention network那个repo。两个loss是一样重要性的 yangqian-qian ***@***.***> 於 2021年6月29日週二 下午10:50寫道: > > 作者您好,我有个问题想问下,我看论文里面两个损失函数是各自乘以0.5然后相加的,为什么这里的代码是直接相加呢,是不是说因为是同样重要,所以乘不乘0.5是一样的效果啊?然后那个预训练模型我下载不了,可不可以发我邮箱啊?非常希望您能帮我解惑。 > > — > You...