Self-Cure-Network icon indicating copy to clipboard operation
Self-Cure-Network copied to clipboard

有关loss函数以及预训练模型的问题

Open yangqian-qian opened this issue 3 years ago • 2 comments

作者您好,我有个问题想问下,我看论文里面两个损失函数是各自乘以0.5然后相加的,为什么这里的代码是直接相加呢,是不是说因为是同样重要,所以乘不乘0.5是一样的效果啊?然后那个预训练模型我下载不了,可不可以发我邮箱啊?非常希望您能帮我解惑。

yangqian-qian avatar Jun 29 '21 14:06 yangqian-qian

可以直接torch load加载,具体可以看region attention network那个repo。两个loss是一样重要性的

yangqian-qian @.***> 於 2021年6月29日週二 下午10:50寫道:

作者您好,我有个问题想问下,我看论文里面两个损失函数是各自乘以0.5然后相加的,为什么这里的代码是直接相加呢,是不是说因为是同样重要,所以乘不乘0.5是一样的效果啊?然后那个预训练模型我下载不了,可不可以发我邮箱啊?非常希望您能帮我解惑。

— You are receiving this because you are subscribed to this thread. Reply to this email directly, view it on GitHub https://github.com/kaiwang960112/Self-Cure-Network/issues/54, or unsubscribe https://github.com/notifications/unsubscribe-auth/AI6LK4CJLZDJVSJR236QPC3TVHMSHANCNFSM47QJ5WLQ .

kaiwang960112 avatar Jul 02 '21 13:07 kaiwang960112

嗯嗯,我明白了,非常感谢您的及时回复,祝您生活愉快!

------------------ 原始邮件 ------------------ 发件人: "kaiwang960112/Self-Cure-Network" @.>; 发送时间: 2021年7月2日(星期五) 晚上9:21 @.>; @.@.>; 主题: Re: [kaiwang960112/Self-Cure-Network] 有关loss函数以及预训练模型的问题 (#54)

可以直接torch load加载,具体可以看region attention network那个repo。两个loss是一样重要性的

yangqian-qian @.***> 於 2021年6月29日週二 下午10:50寫道:

> > 作者您好,我有个问题想问下,我看论文里面两个损失函数是各自乘以0.5然后相加的,为什么这里的代码是直接相加呢,是不是说因为是同样重要,所以乘不乘0.5是一样的效果啊?然后那个预训练模型我下载不了,可不可以发我邮箱啊?非常希望您能帮我解惑。 > > — > You are receiving this because you are subscribed to this thread. > Reply to this email directly, view it on GitHub > <https://github.com/kaiwang960112/Self-Cure-Network/issues/54>, or > unsubscribe > <https://github.com/notifications/unsubscribe-auth/AI6LK4CJLZDJVSJR236QPC3TVHMSHANCNFSM47QJ5WLQ> > . >

— You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.

yangqian-qian avatar Jul 03 '21 13:07 yangqian-qian