EMO icon indicating copy to clipboard operation
EMO copied to clipboard

关于emo loss的疑问

Open Vincent-Poirot opened this issue 1 year ago • 1 comments

gt_q = (q_grad * one_hot).detach() q_final = q_grad - gt_q

理论上改完之后loss的值应该不变,但现在使用公式$1 − ( EQ_{\theta})^TEP$算出来修改之前和之后的结果不同,又验证了公式$Q_{\theta}^TCP$,修改前后相同,应该是$Q_{\theta}$本身发生了变化导致$Q_{\theta}^TP$的值不等于1了,所以 emo_loss = (1 - torch.sum(p_contextual_repr * q_contextual_repr, dim=-1))是不是需要再减去一项 torch.sum(gt_q * stable_onehot, dim=-1)?

另外,在ground-truth token处因为$1-E^TE$对角线一直为0,梯度本身也会乘以这个值,相当于ground-truth token处的梯度为0,也不需要更新梯度,这两行代码是否还有存在的必要?

Vincent-Poirot avatar Nov 28 '23 02:11 Vincent-Poirot